Evaluating the performance of asphalt concrete using CT scanning has become an essential area of research due to its potential to revolutionize the way we assess road materials. Traditional methods often require destructive sampling, which can damage infrastructure and offer limited insight into the material's internal structure. In contrast, CT scanning provides a non-destructive, highly detailed analysis of asphalt's internal features, such as air voids, aggregate distribution, and binder coverage, all of which are critical to its durability and performance. Additionally, the ability to create 3D models from CT scans allows for deeper insights into factors like void connectivity and aggregate bonding, which directly affect the lifespan of pavements. By combining CT imaging with advanced data processing techniques, such as deep learning, this research offers more accurate and reliable methods for optimizing asphalt mix designs, ultimately leading to longer-lasting roads, reduced maintenance costs, and more sustainable construction practices.
최근 딥러닝은 자기공명영상 검사에서의 화질 개선을 위해 다양하게 활용되고 있다. 하지만 다양한 자기공명영상 검사에서 딥러닝이 적용된 기법과 상황에 대한 평가는 부족한 편이다. 이에 본 연구에서는 모션 ACR(American College of Radiology) 팬텀을 활용하여 일반적인 상황과 움직이는 상황에서 T2-PROPELLER(periodically, rotated overlapping parallel lines with enhanced reconstruction, PROPELLER)와 T2-FSE(fast spin echo, FSE) 기법의 화질을 비교 평가해 보고자 하였다. 연구 결과 움직이지 않는 상황에서의 딥러닝 프로세스를 적용하였을 때 유의미한 신호대잡음비와 대조대잡음비의 상승을 보였다. 하지만 팬텀에 움직임을 주는 동적인 상황 에서 딥러닝 프로세스를 적용하였을 때 유의미한 화질 개선을 보이지 않았다. 이러한 결과는 딥러닝 프로세스를 절대 적으로 사용하기보다 다양한 상황에 맞게 선택적으로 적용하는 것이 필요할 것으로 사료된다.
흉골 자기공명영상 검사 시 호흡 등 환자 움직임에 의한 인공물 발생을 최소화하는 것은 어렵다. 하지만 자기공명영 상 검사는 타 영상 검사와 비교해 흉골 병변을 발견하는 데 있어 진단적 가치가 높은 장점이 있다. 따라서 본 연구에 서는 환자의 검사 자세 및 딥러닝 기법을 통해 최적의 검사 방법을 도출하고자 한다. 자세 별 영상 변화를 확인하기 위해 바로 누운 자세, 엎드린 자세, 유방 코일을 사용한 엎드린 자세로 진행하였으며, 고식적 기법의 영상과 Deep Resolve Boost(DRB) 기법을 적용한 영상을 비교 관찰하였다. 모든 대상에게 같은 조건으로 각 영상을 2회씩 획득 한 후 전반적인 영상 품질을 기준으로 정성적으로 평가하였고, DRB의 적용 여부에 따른 신호 대 잡음비의 변화 정도를 정량적으로 평가하여 개선 정도를 산출하였다. 정성적 평가에서 DRB 적용 여부와 무관하게 엎드린 자세, 유방 코일을 사용한 엎드린 자세, 바로 누운 자세 순으로 높은 점수를 얻었으며, DRB를 적용한 영상이 고식적 기법 의 영상보다 높은 점수를 얻었다. 또한 정량적 평가를 통해 유방 코일을 사용한 엎드린 자세, 엎드린 자세, 바로 누운 자세 순으로 높은 개선 정도를 확인하였다. 본 연구를 통해 흉골 검사 시 DRB 기법을 적용하는 것은 영상의 질을 높이는 방법임을 확인하였다. DRB를 적용하지 못하는 환경에서는 될 수 있으면 엎드린 자세를 적용하는 것을 권고하며, DRB를 적용할 수 있는 환경에서는 환자 측 인자를 고려하여 엎드린 자세와 유방 코일을 사용한 엎드린 자세를 모두 적용할 수 있다.
Bee traffic at the hive entrance can be used as an important indicator of foraging activity. We investigated patterns of honeybees and bumblebees near their hives as a basis for calculating bee traffic using the image deep learning. The flight pattern near the hive differed significantly according to bee at entering and leaving the hive. Honeybees mainly showed flight that changed flight direction more than once (69.5%), whereas bumblebees mainly performed straight flight (48.7%) or had a single turn (36.5%) in flight. When bees entered the hive, honeybees primarily showed one-turn or two-turn flight patterns(88.5%), and bumblebees showed a one-turn flight pattern (48.0%). In contrast, when leaving the hive, honeybees primarily showed a straight flight pattern (63.0%), and bumblebees primarily showed a straight or one-turn pattern (90.5%). There was a significant difference in flight speed according to the flight pattern. The speed of straight flight (0.89±0.47 m/s) was 1.5 to 2.1 times faster than flight where direction changed. Therefore, our results can help determine the capturing and recognizing the flying image of bees when calculating bee traffic by image deep learning.
안면 부 MRI 검사는 주변 조직에 대한 높은 대조도 와 해상력으로 해부학적 구조 파악과 질환 진단에 이용되고 있다. 최근 검사 시간을 줄이는 동시에 영상의 질을 향상하는 딥러닝이 주목받고 있다. 본 연구는 안면 부 MRI 검사에서 딥러닝 의 유용성을 알아보기 위해 34명의 환자를 대상으로 딥러닝 T2 강조 영상과 고식적인 T2 강조 영상의 축상면, 관상면 영상을 각각 획득하여, 무참조 영상 품질평가 기법인 NIQE와 NIMA를 통하여 정량적 평가하였고, 리커트 4점 척도를 통해 정성적 평가하였다. NIQE 결과에서 딥러닝 T2 강조 영상은 고식적인 T2 강조 영상보다 영상 품질이 우수하였고, NIMA 결과에서는 딥러닝 T2 강조 영상의 축상면은 통계적으로 유의한 차이가 없었고, 딥러닝 T2 강조 영상의 관상면에서는 통계 적으로 유의한 차이가 있었다. 정성적 평가지표에서는 입 인두, 후두 인두에서 질적인 이득이 있었다. 연구 결과를 통해 안면 부 영역 중 무의식적인 움직임이 많은 영역에서 딥러닝을 적용함으로써 고식적인 T2 강조 영상보다 높은 영상의 품질 을 제공하고, 상대적으로 움직임이 덜한 구조물에서도 품질을 유지하며 검사 시간을 2분 이상 단축하여 움직임에 의한 인공 물을 감소시킴으로써 응급 환자 및 비협조 환자의 진단에 유용하게 활용될 것으로 사료 된다.
In this study, using deep learning, super-resolution images of transmission electron microscope (TEM) images were generated for nanomaterial analysis. 1169 paired images with 256 256 pixels (high resolution: HR) from TEM measurements and 32 32 pixels (low resolution: LR) produced using the python module openCV were trained with deep learning models. The TEM images were related to DyVO4 nanomaterials synthesized by hydrothermal methods. Mean-absolute-error (MAE), peak-signal-to-noise-ratio (PSNR), and structural similarity (SSIM) were used as metrics to evaluate the performance of the models. First, a super-resolution image (SR) was obtained using the traditional interpolation method used in computer vision. In the SR image at low magnification, the shape of the nanomaterial improved. However, the SR images at medium and high magnification failed to show the characteristics of the lattice of the nanomaterials. Second, to obtain a SR image, the deep learning model includes a residual network which reduces the loss of spatial information in the convolutional process of obtaining a feature map. In the process of optimizing the deep learning model, it was confirmed that the performance of the model improved as the number of data increased. In addition, by optimizing the deep learning model using the loss function, including MAE and SSIM at the same time, improved results of the nanomaterial lattice in SR images were achieved at medium and high magnifications. The final proposed deep learning model used four residual blocks to obtain the characteristic map of the low-resolution image, and the super-resolution image was completed using Upsampling2D and the residual block three times.
This research examines deep learning based image recognition models for beef sirloin classification. The sirloin of beef can be classified as the upper sirloin, the lower sirloin, and the ribeye, whereas during the distribution process they are often simply unified into the sirloin region. In this work, for detailed classification of beef sirloin regions we develop a model that can learn image information in a reasonable computation time using the MobileNet algorithm. In addition, to increase the accuracy of the model we introduce data augmentation methods as well, which amplifies the image data collected during the distribution process. This data augmentation enables to consider a larger size of training data set by which the accuracy of the model can be significantly improved. The data generated during the data proliferation process was tested using the MobileNet algorithm, where the test data set was obtained from the distribution processes in the real-world practice. Through the computational experiences we confirm that the accuracy of the suggested model is up to 83%. We expect that the classification model of this study can contribute to providing a more accurate and detailed information exchange between suppliers and consumers during the distribution process of beef sirloin.
PURPOSES : This study uses deep learning image classification models and vehicle-mounted cameras to detect types of pavement distress — such as potholes, spalling, punch-outs, and patching damage — which require urgent maintenance.
METHODS : For the automatic detection of pavement distress, the optimal mount location on a vehicle for a regular action camera was first determined. Using the orthogonal projection of obliquely captured surface images, morphological operations, and multi-blob image processing, candidate distressed pavement images were extracted from road surface images of a 16,036 km in-lane distance. Next, the distressed pavement images classified by experts were trained and tested for evaluation by three deep learning convolutional neural network (CNN) models: GoogLeNet, AlexNet, and VGGNet. The CNN models were image classification tools used to identify and extract the combined features of the target images via deep layers. Here, a data augmentation technique was applied to produce big distress data for training. Third, the dimensions of the detected distressed pavement patches were computed to estimate the quantity of repair materials needed.
RESULTS : It was found that installing cameras 1.8 m above the ground on the exterior rear of the vehicle could provide clear pavement surface images with a resolution of 1 cm per pixel. The sensitivity analysis results of the trained GoogLeNet, AlexNet, and VGGNet models were 93 %, 86 %, and 72 %, respectively, compared to 62.7 % for the dimensional computation. Following readjustment of the image categories in the GoogLeNet model, distress detection sensitivity increased to 94.6 %.
CONCLUSIONS : These findings support urgent maintenance by sending the detected distressed pavement images with the dimensions of the distressed patches and GPS coordinates to local maintenance offices in real-time.
본 연구에서는 영상기반 딥러닝 및 이미지 프로세싱 기법을 이용한 볼트풀림 손상검출 기법을 제안하였다. 이를 위해 먼저, 딥러닝 및 이미지 프로세싱 기반 볼트풀림 검출 기법을 설계하였다. 영상기반 볼트풀림 검출 기법은 볼트 이미지 검출 과정 및 볼트풀림 각도 추정 과정으로 구성된다. 볼트 이미지의 검출을 위하여 RCNN기반 딥러닝 알고리즘을 이용하였다. 영상의 원근왜곡 교정을 위해 호모그래피 개념을 이용하였으며 볼트풀림 각도를 추정을 위하여 Hough 변환을 이용하였다. 다음으로 제안된 기법의 성능을 검증을 위하여 거더의 볼트 연결부 모형을 대상으로 볼트풀림 손상검출 실험을 수행하였다. 다양한 원근 왜곡 조건에 대하여 RCNN 기반 볼트 검출기와 Hough 변환 기반 볼트풀림 각도 추정기의 성능을 검토하였다.
생태통로란 자연환경보전법 제2조 9호에 “도로, 댐, 수중 보, 하굿둑 등으로 인하여 야생동식물의 서식지가 단절되거나 훼손 또는 파괴되는 것을 방지하고 야생동식물의 이동 등 생태계의 연속성 유지를 위하여 설치하는 인공 구조물 식생 등의 생태적 공간”이라고 명시되어있다. 생태통로 모니터링은 생태통로를 이용하는 야생동물의 현황을 파악하고 설치의 실효성을 평가하여 개선방안을 마련하기 위함이 다. 현행 조사기법은 생태통로에 카메라 트랩을 설치하고, 정기적으로 조사자가 촬영 데이터를 회수하여 육안판독을 통해 야생동물 객체를 식별하여 정리하고 있다. 이러한 방식은 센서 카메라에 촬영된 동영상을 일일이 확인하여 진행 하므로 분석에 장시간이 소요되며 조사자의 종별 동정능력에 따라 조사결과의 품질 차이가 발생하는 한계가 있다. 최근 이미지 인식 분야에서 딥러닝을 활용한 기법은 영상 내 에서 객체를 자동 식별할 뿐만 아니라 개체 수, 이미지 설명 등을 높은 수준의 정확도로 탐지하고 있다. 따라서 카메라 트랩에 딥러닝 기법을 적용하면 야생동물의 동정, 탐조 및 움직임 정보 등을 자동적으로 데이터베이스화할 수 있다. 본 연구는 이미지 인식 분야 딥러닝 기법을 생태통로 모니터링에 적용함으로써 기존 육안판독의 소요시간을 줄이고, 인적오류를 최소화하는데 그 목적이 있다. 연구지역은 소백산국립공원 죽령생태통로를 선정하였다. 죽령 생태통로는 소백산국립공원 내 유일한 생태통로로 공원구역을 가로지르는 국도 5호선에 의해 단절된 서식처를 연결하고 야생동물의 휴식처로서의 역할을 수행하고 있 다. 터널형 생태통로로, 폭 약 8m, 길이 21m의 규모이다. 2003년에 설치되었으며 2004년부터 국립공원관리공단이 위임받아 현재 소백산국립공원북부사무소가 관리하고 있다. 국립공원 생태통로 중 가장 많은 자료가 축적(2011년 -2015년 집계 기준)된 곳으로, 2005년부터 현재까지 13년 간의 모니터링 자료가 축적되어 있다. 따라서 딥러닝 학습 을 위한 데이터 확보가 용이하다. 본 실험은 카메라 트랩의 딥러닝 기반 영상분석을 실험하는 초기연구이기 때문에 비교적 간단한 신경망 모델과 소량의 데이터를 이용하여 가능성을 검증하였다. 딥러닝은 영상 인 식 분야에서 사용되는 합성곱 신경망(CNN, convolutional neural network) 기법을 적용하였다. 먼저 죽령 생태통로에서 발견 확률이 높은 삵, 고라니, 노루, 멧돼지, 너구리 5종에 대한 모니터링 자료(카메라 사진과 동영상)를 수집하였다. 동영상의 경우, 고정된 위치에서 움직이는 객체를 탐지해야 하기 때문에 컴퓨터 비전 기법을 통한 데이터 전처리를 수행 하였다. OpenCV(Open Source Computer Vision Library)는 영상추적 알고리듬을 제공하는데 이를 통해 야생동물 객체의 최소경계사각형을 탐지하고 각 프레임을 이미지로 저장하였다. 탐지된 이미지는 크기와 해상도가 제각각이기 때문에 CNN의 입력 데이터로 인식시켜주기 위해 100×100 화소 크기로 조정하였다. 딥러닝을 비롯한 머신러닝 문제는 일반적으로 데이터를 훈련 데이터와 시험 데이터로 나눠 학습과 실험을 수행한다. 훈련 데이터는 모델의 최적의 매개변수를 찾는데 사용 되며 시험 데이터는 앞서 훈련된 모델의 성능을 평가하는데 사용된다. 임의 추출을 통해 야생동물 종별로 1,000장의 훈 련 데이터와 400장의 시험 데이터(총7,000장)를 선택하였다. 훈련 데이터는 동물의 전신 이미지는 드물었으며 얼굴 과 몸의 일부만 촬영된 경우가 대부분이었다. CNN 모델은 5층 신경망으로 구성하였으며 이미지 규모를 고려하여 영상증강(image augmentation) 기법을 적용하였다. 모델 구현에는 오픈소스 딥러닝 라이브러리 TensorFlow와 Keras를 사용하였다. 실험결과, 야생동물 5종에 대한 CNN 모델은 96.25%의 정확도를 보였다. 고정된 카메라에서 촬영된 이미지는 야생 동물의 행동 패턴이 비교적 단순하여 객체 식별에 유리한 것으로 추정된다. 또한 생태통로를 이용하는 야생동물의 제한적인 종류는 예측 정확도에 기여도가 있을 것으로 판단된다. 현행 수동식별과 대비하여 본 기법의 적용은 조사 자동 화에 따른 시간절감과 객관적 품질 확보라는 측면에서 활용 잠재력이 높을 것으로 기대된다. 모델이 최종적으로 정립되 면, 조사자가 회수된 현장 데이터를 입력만 하면 생태통로 모니터링 통계를 자동 계산하는 프로그램으로 제공 가능할 것이다. 이번 실험에서는 CNN의 생태통로 모니터링 적용 가능성을 검증해 본 것으로 간단한 모델과 데이터를 통해 그 가능성을 확인하였다. 현재 카메라 트랩 이미지를 대상 으로 CNN의 최신 연구들이 진행 중이나, 실제 적용해 본 바로는 자동 전처리에 관한 연구가 충분히 이뤄져야 할 것 으로 판단된다. 차기 연구에서는 사전 학습된 CNN 모델에 현장 이미지를 추가한 트랜스퍼 러닝(transfer learning)을 적용하여 범용적인 활용도를 평가해보고자 한다.
최근 사회기반시설(SOC)의 증가와 노후화에 따라 기존의 인력중심의 육안검사를 기반으로 한 안전점검은 경제성과 안전성, 효율성 면에서 한계를 가지고 있다. 본 연구에서는 육안점검의 한계를 개선하기 위해 딥러닝 모델 기반 물체를 탐지하는 기술을 활용하여 터널 콘크리트 균열을 자동으로 탐지하는 기술을 개발하였으며, 이를 실제 터널 영상에 적용하여 그 성능을 검증하였다.