PURPOSES : This study aimed to compare the object detection performance based on various analysis methods using point-cloud data collected from LiDAR sensors with the goal of contributing to safer road environments. The findings of this study provide essential information that enables automated vehicles to accurately perceive their surroundings and effectively avoid potential hazards. Furthermore, they serve as a foundation for LiDAR sensor application to traffic monitoring, thereby enabling the collection and analysis of real-time traffic data in road environments. METHODS : Object detection was performed using models based on different point-cloud processing methods using the KITTI dataset, which consists of real-world driving environment data. The models included PointPillars for the voxel-based approach, PartA2-Net for the point-based approach, and PV-RCNN for the point+voxel-based approach. The performance of each model was compared using the mean average precision (mAP) metric. RESULTS : While all models exhibited a strong performance, PV-RCNN achieved the highest performance across easy, moderate, and hard difficulty levels. PV-RCNN outperformed the other models in bounding box (Bbox), bird’s eye view (BEV), and 3D object detection tasks. These results highlight PV-RCNN's ability to maintain a high performance across diverse driving environments by combining the efficiency of the voxel-based method with the precision of the point-based method. These findings provide foundational insights not only for automated vehicles but also for traffic detection, enabling the accurate detection of various objects in complex road environments. In urban settings, models such as PV-RCNN may be more suitable, whereas in situations requiring real-time processing efficiency, the voxelbased PointPillars model could be advantageous. These findings offer important insights into the model that is best suited for specific scenarios. CONCLUSIONS : The findings of this study aid enhance the safety and reliability of automated driving systems by enabling vehicles to perceive their surroundings accurately and avoid potential hazards at an early stage. Furthermore, the use of LiDAR sensors for traffic monitoring is expected to optimize traffic flow by collecting and analyzing real-time traffic data from road environments.
딥러닝을 이용하여 항공 및 위성 영상 속의 다양한 공간객체를 탐지하는 연구들이 증가하고 있다. 매년 급속하게 증가하는 위성 및 항공사진과 같은 원격탐사의 자료 속에서 특정 공간객체들을 수작업으로 탐지하는 것은 한계를 갖는다. 본 연구에서는 딥러닝의 객체 탐지기법을 이용하여 토지피복도 내 공간객체들에 대한 탐지를 시도하였다. 데이터는 국토지리정보원의 항공사진을 활용하였고 농경지에 해당하는 논, 밭, 하우스 재배지 등의 객체들을 탐지하였다. 토지피복을 구성하는 다양한 공간객체들에 대한 탐지를 통해 YOLOv5 모델의 활용 가능성을 탐색하였다.
양식장 부표 등과 같은 해상의 소형 장애물을 탐지하고 거리와 방위를 시각화시켜 주는 해상물체탐지시스템은 선체운동으로 인한 오차를 보정하기 위해 3축 짐벌이 장착되어 있지만, 파도 등에 의한 카메라와 해상물체의 상하운동으로 발생하는 거리오차를 보정 하지 못하는 한계가 있다. 이에 본 연구에서는 외부환경에 따른 수면의 움직임으로 발생하는 해상물체탐지시스템의 거리오차를 분석하 고, 이를 평균필터와 이동평균필터로 보정하고자 한다. 가우시안 표준정규분포를 따르는 난수를 이미지 좌표에 가감하여 불규칙파에 의 한 부표의 상승 또는 하강을 재현하였다. 이미지 좌표의 변화에 따른 계산거리, 평균필터와 이동평균필터를 통한 예측거리 그리고 레이저 거리측정기에 의한 실측거리를 비교하였다. phase 1,2에서 불규칙파에 의한 이미지 좌표의 변화로 오차율이 최대 98.5%로 증가하였지만, 이동평균필터를 사용함으로써 오차율은 16.3%로 감소하였다. 오차보정 능력은 평균필터가 더 좋았지만 거리변화에 반응하지 못하는 한계 가 있었다. 따라서 해상물체탐지시스템 거리오차 보정을 위해 이동평균필터를 사용함으로써 실시간 거리변화에 반응하고 오차율을 크게 개선할 수 있을 것으로 판단된다.
해양사고 발생시 실종자는 해양에 노출된 시간이 길어질수록 생존확률이 빠르게 감소하기 때문에 인명구조를 위해서는 신 속한 수색이 필요하다. 또한 해양의 수색영역은 육상에 비해서 매우 넓기 때문에 효율적인 수색을 위해서는 선박을 이용한 육안수색보 다는 인공위성이나 항공기에 탑재된 센서를 이용한 해상 객체 탐지 기술의 적용이 필요하다. 본 연구는 항공기에 탑재된 초분광 영상 센서를 이용하여 해양에서 객체를 신속하게 탐지하기 위한 목적으로 진행되었다. 초분광 영상 센서로 촬영된 영상은 8,241 × 1,024의 공간 해상도를 가지며, 한 화소당 0.7 m의 분해능과 127개의 스펙트럼으로 구성된 대용량의 데이터이다. 본 연구에서는 이러한 데이터 를 신속하게 분석하기 위한 목적으로 DBSCAN을 사용한 해수 식별 알고리즘과 밀도 기반의 육지 제거 알고리즘을 결합한 해상 객체 탐지 모델을 개발하였다. 개발한 모델은 초분광 영상에 적용하였을 때 약 5 km2의 해상 영역을 100초 내로 분석할 수 있는 성능을 보 였다. 또한 개발한 모델의 탐지 정확도를 평가하기 위해서 항공기를 이용하여 목포, 군산, 여수 지역의 초분광 영상을 촬영하였으며, 본 연구에서 개발한 탐지 모델에 적용한 결과, 실험 영상 내의 선박들을 90 %의 정확도로 탐지할 수 있는 결과를 얻었다. 본 연구에서 개발된 기술은 소형 선박의 수색·구조 활동을 지원하는 중요한 정보로 활용될 수 있을 것으로 기대한다.
자율운항선박이 상용화되어 연안을 항해하기 위해서는 해상의 장애물을 탐지할 수 있어야 한다. 연안에서 가장 많이 볼 수 있 는 장애물 중의 하나는 양식장의 부표이다. 이에 본 연구에서는 YOLO 알고리즘을 이용하여 해상의 부표를 탐지하고, 카메라 영상의 기하 학적 해석을 통해 선박으로부터 떨어진 부표의 거리와 방위를 계산하여 장애물을 시각화하는 해상물체탐지시스템을 개발하였다. 1,224장 의 양식장 부표 사진으로 해양물체탐지모델을 훈련시킨 결과, 모델의 Precision은 89.0 %, Recall은 95.0 % 그리고 F1-score는 92.0 %이었다. 얻 어진 영상좌표를 이용하여 카메라로부터 떨어진 물체의 거리와 방위를 계산하기 위해 카메라 캘리브레이션을 실시하고 해상물체탐지시 스템의 성능을 검증하기 위해 Experiment A, B를 설계하였다. 해상물체탐지시스템의 성능을 검증한 결과 해상물체탐지시스템이 레이더보 다 근거리 탐지 능력이 뛰어나서 레이더와 더불어 항행보조장비로 사용이 가능할 것으로 판단된다.
It is important to ensure worker’s safety from radiation hazard in decommissioning site. Real-time tracking of worker’s location is one of the factors necessary to detect radiation hazard in advance. In this study, the integrated algorithm for worker tracking has been developed to ensure the safety of workers. There are three essential techniques needed to track worker’s location, which are object detection, object tracking, and estimating location (stereo vision). Above all, object detection performance is most important factor in this study because the performance of tracking and estimating location is depended on worker detection level. YOLO (You Only Look Once version 5) model capable of real-time object detection was applied for worker detection. Among the various YOLO models, a model specialized for person detection was considered to maximize performance. This model showed good performance for distinguishing and detecting workers in various occlusion situations that are difficult to detect correctly. Deep SORT (Simple Online and Realtime Tracking) algorithm which uses deep learning technique has been considered for object tracking. Deep SORT is an algorithm that supplements the existing SORT method by utilizing the appearance information based on deep learning. It showed good tracking performance in the various occlusion situations. The last step is to estimate worker’s location (x-y-z coordinates). The stereo vision technique has been considered to estimate location. It predicts xyz location using two images obtained from stereo camera like human eyes. Two images are obtained from stereo camera and these images are rectified based on camera calibration information in the integrated algorithm. And then workers are detected from the two rectified images and the Deep SORT tracks workers based on worker’s position and appearance between previous frames and current frames. Two points of workers having same ID in two rectified images give xzy information by calculating depth estimation of stereo vision. The integrated algorithm developed in this study showed sufficient possibility to track workers in real time. It also showed fast speed to enable real-time application, showing about 0.08 sec per two frames to detect workers on a laptop with high-performance GPU (RTX 3080 laptop version). Therefore, it is expected that this algorithm can be sufficiently used to track workers in real decommissioning site by performing additional parameter optimization.
본 연구에서는 게임 영상과 같은 생성된 영상으로부터 물체를 인식하는 심층 학습 기반 모델의 성능을 향상 시키는 방법을 제시한다. 특히, 실제 영상으로 훈련된 물체 인식 모델에 대해서 게임 영상으로 추가 훈련을 수행함으로써 물체 인식 성능이 향상됨을 검증한다. 본 연구에서는 심층 학습 기반의 물체 인식 모델들 중에서 가장 널리 사용되는 YoloV2 모델을 이용한다. 이 모델에 대해서 8 종류의 다양한 게임에서 샘플링한 160장의 게임 영상을 적용해서 물체 인식 모델을 다시 훈련하고, IoU와 정확도를 측정해서 본 연구에서 주장하는 게임 영상을 이용한 훈련이 효과적임을 입증한다.
The robot in this paper combines the suction and aerodynamic attraction to achieve good balance between strong adhesion force and high mobility. Experimental results showed that the robot can move upward on the wall at the speed of 2.9m/min and carry 5kg payload in addition to 2.5kg self-weight, which record the highest payload capacity among climbing robots of similar size. With two 11.1V lithium-polymer battery, the robot can operate continuously for half hours. A wireless camera system, zigbee protocol module and several sensors was adopted for detecting dangerous situation on the wall and for sending alarm signals to remote sensor node or controller based on the color normalization and image segmentation technique.