PURPOSES : This study aimed to compare the object detection performance based on various analysis methods using point-cloud data collected from LiDAR sensors with the goal of contributing to safer road environments. The findings of this study provide essential information that enables automated vehicles to accurately perceive their surroundings and effectively avoid potential hazards. Furthermore, they serve as a foundation for LiDAR sensor application to traffic monitoring, thereby enabling the collection and analysis of real-time traffic data in road environments. METHODS : Object detection was performed using models based on different point-cloud processing methods using the KITTI dataset, which consists of real-world driving environment data. The models included PointPillars for the voxel-based approach, PartA2-Net for the point-based approach, and PV-RCNN for the point+voxel-based approach. The performance of each model was compared using the mean average precision (mAP) metric. RESULTS : While all models exhibited a strong performance, PV-RCNN achieved the highest performance across easy, moderate, and hard difficulty levels. PV-RCNN outperformed the other models in bounding box (Bbox), bird’s eye view (BEV), and 3D object detection tasks. These results highlight PV-RCNN's ability to maintain a high performance across diverse driving environments by combining the efficiency of the voxel-based method with the precision of the point-based method. These findings provide foundational insights not only for automated vehicles but also for traffic detection, enabling the accurate detection of various objects in complex road environments. In urban settings, models such as PV-RCNN may be more suitable, whereas in situations requiring real-time processing efficiency, the voxelbased PointPillars model could be advantageous. These findings offer important insights into the model that is best suited for specific scenarios. CONCLUSIONS : The findings of this study aid enhance the safety and reliability of automated driving systems by enabling vehicles to perceive their surroundings accurately and avoid potential hazards at an early stage. Furthermore, the use of LiDAR sensors for traffic monitoring is expected to optimize traffic flow by collecting and analyzing real-time traffic data from road environments.
모빌리티 예측은 단순한 통행 경로 예측을 넘어, 사회 전반의 효율성 및 안전성 향상을 위한 핵심 데이터를 제공한다는 점에서 중 요하다. 기존의 예측 기법은 시공간적 규칙성과 개인 이동 패턴의 통계적 특성 분석에 주로 의존하였으며, 최근 딥러닝 기반의 시공간 모델링을 통해 예측 성능이 향상되었다. 그러나 여전히 개인 통행의 단기·장기적 시공간 의존성 및 복잡한 패턴을 처리하는 데 한계가 존재한다. 이를 극복하기 위해, 본 연구는 대규모 사전 학습된 거대 언어 모델(Large Language Model; LLM)을 도입하여, 개인 속성뿐 만 아니라 실제 통행 데이터를 반영한 객체 단위 통행 생성 프레임워크를 제안한다. LLM 기반(ChatGPT-4o) 객체 단위 통행 생성 프레 임워크는 (1) 개인 모빌리티 패턴 학습, (2) 통행 생성의 두 단계로 이루어진다. 이후 한국교통연구원의 개인통행 실태조사(2021) 데이 터를 이용하여 프레임워크의 통행 생성 성능을 확인하였다. 통행 시작·출발 시간 분포, 출발·도착지 장소 유형, 통행목적, 이용 교통수 단의 정확도를 확인한 결과, 대부분 항목에서 70% 이상의 정확도를 보였다. 하지만 통행목적은 13개의 목적 중 하나를 예측해야 하기 에 정확도가 다른 항목에 비해 약 40%로 낮게 나타났다. 본 연구는 통행 생성 프레임워크를 설계하고, 이에 맞춰 입력 데이터를 가공 및 프롬프트 엔지니어링을 수행함으로써 LLM 기반 통행 생성 기술의 가능성을 확인하였다. 향후 프레임워크의 예측 성능 검증 및 개 선을 위한 추가 연구가 필요하며, 날씨, 대규모 행사 등과 같은 외부 요인들을 고려하면 더욱 정교하고 현실적인 통행일지를 생성할 수 있을 것이다.
아날로그TV 방송 시대에는 Mono/Stereo 오디오 방송과 음 성다중방송이 있었고, 디지털HDTV 방송 시대에는 Dolby AC-3 기술에 의한 5.1채널 입체오디오 방송이 추가 서비스로 이루어졌다. 지금의 4K-UHDTV 방송 시대에는 채널기반 오디 오(Channel-Based Audio) 7.1.4채널 입체오디오 방송을 비롯하 여 객체기반 오디오(Object-Based Audio) 기본방송 및 편파방 송과 해설방송 등 유저의 선택과 맞춤형 방송이 가능하고, 장 면기반 오디오(Scene-Based Audio) 몰입형 공간수음효과 3D 입체음향 방송 등이 MPEG-H 기술에 의해 활용될 수 있다. 본 논문은 국내 UHDTV 방송 전송방식(ATSC 3.0)과 함께 Audio 규격으로 규정된 MPEG-H 기술 응용에 대한 실험을 통 해 오디오 서비스 개발의 가능성을 연구하는데 그 목적을 두고 있다. 이러한 연구를 위해 ‘2022 카타르월드컵’ 기간 중 카타르와 SBS 간 전송링크 구간의 국제신호(IS) 현장음 및 SBS 아나운 서와 해설자 음성 전송용 음향채널 오디오를 소스로 사용하였 으며, 객체기반의 기본, 해설, 현장, 집중 4가지 오디오 모드를 구성하여 SBSi 채널을 통해 모바일 스트리밍 전송을 하였다. 그리고 수신은 SBS 모바일 앱에 Decoder를 설치하여 유저의 음향모드 선택과 활용 및 향후 MPEG-H 기술에 의한 다양한 형태의 오디오 서비스 개발의 가능성을 실험하였다.
딥러닝을 이용하여 항공 및 위성 영상 속의 다양한 공간객체를 탐지하는 연구들이 증가하고 있다. 매년 급속하게 증가하는 위성 및 항공사진과 같은 원격탐사의 자료 속에서 특정 공간객체들을 수작업으로 탐지하는 것은 한계를 갖는다. 본 연구에서는 딥러닝의 객체 탐지기법을 이용하여 토지피복도 내 공간객체들에 대한 탐지를 시도하였다. 데이터는 국토지리정보원의 항공사진을 활용하였고 농경지에 해당하는 논, 밭, 하우스 재배지 등의 객체들을 탐지하였다. 토지피복을 구성하는 다양한 공간객체들에 대한 탐지를 통해 YOLOv5 모델의 활용 가능성을 탐색하였다.
대부분의 모바일 AR 컨텐츠들은 모바일 디바이스의 기술적 한계로 인해 평면 탐지 후, 그 위에서만 구현되는 제한된 구조를 가지고 있다. 이러한 문제는 제한된 공간이 표현의 범위를 제한하기 때문에 모바일 AR의 확산 에 크게 저해가 될 수 있다. 한편 Unity의 AR Foundation이 제공하는 ‘Meshing’은 실제 오브젝트의 크기와 위 치에 알맞게 메시를 생성해주는데, 이를 활용한다면 모바일 AR 컨텐츠들은 평면에서 벗어나 더 넓은 현실 공 간에 구현될 수 있다. 하지만 ‘Meshing’은 모바일 기기의 센서가 닿지 못하는 부분에는 메시를 생성하지 않기 때문에 별도의 작업 없이 그대로 사용한다면 게임 오브젝트가 빠져나갈 수 있는 구멍이 생길 수 있다. 이 구 멍은 컨텐츠 구현에 있어서 치명적이기에 Hole-Filling 알고리즘을 사용하여 구멍을 메우고자 하는 연구가 있 었다. 하지만 기존 연구에서 사용하는 Hole-Finding 알고리즘은 특정 상황에서 외곽선과 구멍을 제대로 구별해 내지 못하는 문제가 있다. 이 문제는 일부 구멍은 메우지 못하고 외관선끼리 이어버려 컨텐츠에 치명적인 문 제를 야기한다. 본 논문에서는 Meshing이 제공하는 노말 벡터와 경계선들로 계산한 노말 벡터 간의 차이를 이 용해 구멍과 외곽선을 구분하는 방법을 제안한다. 이 방법을 적용한 결과, 이전 연구의 방법보다 좀 더 빠르 면서 구멍과 외곽선을 제대로 구별하는 모습을 확인하였다.
해양사고 발생시 실종자는 해양에 노출된 시간이 길어질수록 생존확률이 빠르게 감소하기 때문에 인명구조를 위해서는 신 속한 수색이 필요하다. 또한 해양의 수색영역은 육상에 비해서 매우 넓기 때문에 효율적인 수색을 위해서는 선박을 이용한 육안수색보 다는 인공위성이나 항공기에 탑재된 센서를 이용한 해상 객체 탐지 기술의 적용이 필요하다. 본 연구는 항공기에 탑재된 초분광 영상 센서를 이용하여 해양에서 객체를 신속하게 탐지하기 위한 목적으로 진행되었다. 초분광 영상 센서로 촬영된 영상은 8,241 × 1,024의 공간 해상도를 가지며, 한 화소당 0.7 m의 분해능과 127개의 스펙트럼으로 구성된 대용량의 데이터이다. 본 연구에서는 이러한 데이터 를 신속하게 분석하기 위한 목적으로 DBSCAN을 사용한 해수 식별 알고리즘과 밀도 기반의 육지 제거 알고리즘을 결합한 해상 객체 탐지 모델을 개발하였다. 개발한 모델은 초분광 영상에 적용하였을 때 약 5 km2의 해상 영역을 100초 내로 분석할 수 있는 성능을 보 였다. 또한 개발한 모델의 탐지 정확도를 평가하기 위해서 항공기를 이용하여 목포, 군산, 여수 지역의 초분광 영상을 촬영하였으며, 본 연구에서 개발한 탐지 모델에 적용한 결과, 실험 영상 내의 선박들을 90 %의 정확도로 탐지할 수 있는 결과를 얻었다. 본 연구에서 개발된 기술은 소형 선박의 수색·구조 활동을 지원하는 중요한 정보로 활용될 수 있을 것으로 기대한다.
본 논문에서는 BIM을 활용한 흙막이 시스템을 개발하고 소개한다. 선행 연구 분석을 통해서 흙막이 BIM 시스템을 이루는 기술들 에 대한 조사를 바탕으로 요소 기술들을 개발하였다. 첫 번째 요소 기술로, 선행 연구 및 표준 등을 활용해 BIM라이브러리를 구축하여 범용성과 재사용성을 확보하였다. 두 번째로, 토공 2D 기반의 토공 물량 산출법들을 분석하고 흙막이 BIM 시스템으로 활용하되 추가 로 IDW 보간법을 활용하여 지형 생성 및 토공량 산출 시스템을 구축하였다. 세 번째로, 물량 산출을 위한 4가지 수식을 제안하여 객체 마다 각각 다르게 물량 산출법을 적용하여 개발하였다. 이후, 시스템에서 산출되는 물량산출서와 2D 기반 물량산출서와의 비교와 검 증을 통해서 시스템이 앞으로 나아가야할 방향과 한계에 대해 알아보았다.
Recently, the demand for more precise and demand-oriented customized spatial information is increasing due to the 4th industrial revolution. In particular, the use of 3D spatial information and digital twins which based on spatial information, and research for solving social problems in cities by using such information are continuously conducted. Globally, non-face-to-face services are increasing due to COVID-19, and the national policy direction is also rapidly progressing digital transformation, digitization and virtualization of the Korean version of the New Deal, which means that 3D spatial information has become an important factor to support it. In this study, physical objects for cities defined by world organizations such as ISO, OGC, and ITU were selected and the target of the 3D object model was limited to buildings. Based on CityGML2.0, the data collected using a drone suitable for building a 3D model of a small area is selected to be updated through road name address and building ledger, which are administrative information related to this, and LoD2.5 data is constructed and urban space. It was intended to suggest an object update method for a 3D building among data.