본 논문에서는 2자유도 매니퓰레이터(manipulator)가 탑재된 지상형 이동 로봇을 활용한 균열 지도 작성 기법을 소개한다. 로봇의 앞·측면에 각각 스테레오 비전 센서를 설치하였으며, 앞면에 설치된 센서의 포인트 클라우드 정보를 이용하여 로봇의 위치를 인식하 고 지도를 작성하며, 측면에 설치된 센서의 영상 정보를 바탕으로 벽면 내 균열을 검출한다. 이때, 두 센서의 좌표계를 좌표 변환식을 통해 통일하여 정합 및 검출된 균열 정보를 생성된 지도에 실시간으로 표기하고, 손상의 정보가 기록 및 관리될 수 있도록 하였다. 2자 유도 움직임이 가능한 매니퓰레이터 장치를 이동로봇에 탑재하고 사각지역의 제한 없이 로봇의 진행 방향을 벗어난 균열을 촬영할 수 있도록 하였다. 촬영된 영상 내 딥러닝 기법을 적용하여 균열을 검출하고, 해당 균열이 촬영된 영상 내 일부만 존재한다고 판단하 는 경우 매니퓰레이터를 동작하여 남은 균열의 위치를 추정 및 추가 촬영, 스티칭할 수 있도록 하였다. 본 시스템의 성능 확인을 위하 여 실내 환경에서 실험을 진행하였으며, IoU기반 검출율 0.6 이상의 정확도로 실시간 균열 정보를 구축된 지도 위에 작성하는 것을 확 인하였다.
This paper presents a crack mapping technique using a ground mobile robot equipped with a 2-degree-of-freedom (DOF) manipulator. Stereo vision sensors are mounted on the front and side of the robot. Point cloud data from the front-mounted sensor is used to localize the robot and generate a map, while image data from the side-mounted sensor is used to detect wall cracks. A coordinate transformation method unifies the coordinate systems of the two sensors, enabling the real-time integration of crack detection data into the generated map to accurately record and manage damage information. The 2-DOF manipulator allows the mobile robot to detect cracks outside its movement range by capturing images beyond its field of view. Deep learning techniques are applied to detect cracks in the captured images. If only a portion of a crack is initially detected, the manipulator adjusts its position to estimate and capture the remaining crack segments, enabling the stitching of a complete crack image. Indoor experiments were conducted to validate the system’s performance, confirming the real-time mapping of crack information onto the generated map.