2022년 국내에서 이태원 참사라는 대형 인파사고가 발생한 이래로 인파밀집 현상이 수시로 발생하고, 인파가 이동할 수 있는 방향이 한정되어 있는 도시철도 역사내 대기공간의 인파밀집 문제가 심각하게 대두됨에 따라 인파밀집에 대한 모니터링 및 관리에 대한 중요 성이 커졌다. 이러한 문제사항을 해결하기 위해 영상분석에서 개별 객체의 수를 파악하여 인파의 밀집도를 파악한 연구들은 많이 이 루어졌으나 객체 간의 중첩으로 인해 검지 정확도가 떨어진다는 단점이 존재한다. 따라서 본 연구는 개별 객체를 검지하는 방식이 아 닌 Semantic Segmentation 기법 중 사전에 라벨링이 된 이미지들을 활용하는 지도학습 방식을 사용하여 밀집된 인파의 영역과 그렇지 않은 영역을 구분하고, 관심영역(ROI) 전체 공간 대비 인파가 차지하고 있는 영역의 점유율을 산출하여 혼잡도를 파악하는 방법을 적 용하였다. 본 연구의 목적은 도시철도 역사 내 대기공간의 인파의 밀집도를 점유율을 이용하여 산출하는 방법론을 만들고, 이를 혼잡 도를 나타내는 지표(MOE)로 적용할 수 있도록 그 기준을 검토하는 것이다. 데이터수집의 경우, 첨두시간대에 지하철 2호선 교대역의 대기공간인 대합실을 촬영한 CCTV 영상 데이터를 확보하여 이를 10fps 단위로 분할한 이미지들을 사용하였다. 이후 각 서비스수준별 (LOS A~F)로 다양한 이미지들에 대하여 인파에 해당하는 부분과 그렇지 않은 부분을 라벨링하였다. 분석방법론의 경우, 지도학습 기 반의 Semantic Segmentation 기법을 적용하여 대상 이미지들 전체에 대해서 인파와 인파가 아닌 부분을 구분하도록 이미지를 가공하였 으며, 이미지에 ROI를 설정하여 “전체 ROI 대비 인파 점유 공간의 비율”에 해당하는 점유율을 계산하였다. 여기서 인파와 인파가 아 닌 부분의 원활한 구분을 위해 픽셀 단위로 학습을 하며, 사전에 라벨링이 된 이미지들을 학습하는 모델을 적용하는게 본 연구에 적 합하다고 판단하여 해당 분석 기법을 사용하였다. 모든 이미지들의 점유율을 도출한 후 전체 결과를 Classification 기법을 활용하여 인 파 혼잡도의 서비스수준을 나타내는 현행 지침과 동일하게 6단계로 구분하였으며, 각 단계를 구분하는 경계값에 해당하는 점유율 역 시 도출하였다. 최종적으로 분할된 이미지들을 합쳐 영상에서 연속적인 인파분석 기법을 적용할 수 있도록 하였다. 향후에는 test dataset을 할용하여 해당 인파분석 기법의 적정성을 검토할 예정이며, 객체 검지 방식을 사용하는 기존의 모델과 성능을 비교하여 해당 기법의 우수성을 검토할 예정이다. 본 연구가 새로운 방식의 인파 혼잡도의 서비스수준 기준을 제공하는 모델을 개발하는 것을 목적 으로 함에 따라 실제 현장에 이 방법론을 적용할 시 인파밀집사고 예방 및 관리에 기여할 수 있을 것이다.
Satellite imagery is an effective supplementary material for detecting and verifying nuclear activities and is helpful in areas where access and information are limited, such as nuclear facilities. This study aims to build training data using high-resolution KOMPSAT-3/3A satellite images to detect and identify key objects related to nuclear activities and facilities using a semantic segmentation algorithm. First, objects of interest, such as buildings, roads, and small objects, were selected, and the primary dataset was built by extracting them from the AI dataset provided by AIHub. In addition, to reflect the features of the area of interest (e.g., Yongbyon, Pyongsan), satellite images of the area were acquired, augmented, and annotated to construct an additional dataset (approximately 150,000). Finally, we conducted three stages of quality inspection to improve the accuracy of the training data. The training dataset of this study can be applied to semantic segmentation algorithms (e.g., U-Net) to detect objects of interest related to nuclear activities and facilities. Furthermore, it can be used for pixelbased object-of-interest change detection based on semantic segmentation results for multi-temporal images.
보행환경은 개인의 영역이자 공공 공간으로서 시민들의 일상생활에 매우 중요한 요소이다. 보행환경의 중요성이 인지되면서 국가적 차원에서도 보행환경 실태조사를 전국 지자체가 5년마다 시행하도록 법으로 규정하는 등 체계적인 실태조사가 필요한 실정이다. 하지만 보행환경에 대한 실태조사는 일부 지역을 대상으로 현장 조사에 의지하는 등 실태조사 방법론에 있어서는 기존의 한계를 벗어나지 못하고 있다. 본 연구는 고해상도 거리 영상과 딥러닝 기술을 활용한 보행환경 평가 지표 개발을 목표로 하였다. 보행환경 평가 지표 개발을 위해 보행환경 평가와 관련된 국내외 문헌 및 딥러닝 기술을 활용한 보행환경 평가 연구를 리뷰를 토대로 보행환경 평가 지표 초안을 개발하고, 도출된 보행환경 평가 지표의 구체적 데이터 구축 가능성을 확인하기 위해 거리 영상의 시멘틱 세그멘테이션(semantic segmentation) 결과 정확도와 영상 외 필요한 자료에 대한 취득 가능성을 검토한 후 최종 보행환경 평가 지표를 제안하였다. 도출된 보행환경 평가 지표는 안전성, 편리성, 쾌적성, 접근성 4개 카테고리에 8개 지표를 활용하는 것을 제안하였다. 본 연구의 결과는 현장 관찰 조사나 설문조사에 기반한 기존 보행환경 연구의 한계점을 탈피하고 고해상도 거리 영상과 딥러닝 기술을 활용한 도시 연구의 지능화 계기를 마련하고 보행환경 평가 업무를 보다 효율적으로 수행할 수 있는 초석이 될 것으로 기대한다.
This paper proposes a method to segment urban scenes semantically based on location prior information. Since major scene elements in urban environments such as roads, buildings, and vehicles are often located at specific locations, using the location prior information of these elements can improve the segmentation performance. The location priors are defined in special 2D coordinates, referred to as road-normal coordinates, which are perpendicular to the orientation of the road. With the help of depth information to each element, all the possible pixels in the image are projected into these coordinates and the learned prior information is applied to those pixels. The proposed location prior can be modeled by defining a unary potential of a conditional random field (CRF) as a sum of two sub-potentials: an appearance feature-based potential and a location potential. The proposed method was validated using publicly available KITTI dataset, which has urban images and corresponding 3D depth measurements.