본 논문에서는 스테레오 비전 센서를 이용한 프리팹 강구조물(PSS: Prefabricated Steel Structures)의 조립부 형상 품질 평가 기법을 소개한다. 스테레오 비전 센서를 통해 모형의 조립부 영상과 포인트 클라우드 데이터를 수집하였으며, 퍼지 기반 엣지 검출, 허프 변 환 기반 원형의 볼트 홀 검출 등의 영상처리 알고리즘을 적용하여 조립부 영역의 볼트홀을 검출하였다. 영상 내 추출된 볼트홀 외곽선 위 세 점의 위치 정보에 대응되는 3차원 실세계 위치 정보를 깊이 영상으로부터 획득하였으며, 이를 기반으로 각 볼트홀의 3차원 중심 위치를 계산하였다. 통계적 기법 중 하나인 주성분 분석 알고리즘(PCA: Principal component analysis) 알고리즘을 적용함으로써 3차 원 위치 정보를 대표하는 최적의 좌표축을 계산하였다. 이를 통해 센서의 설치 방향 및 위치에 따라 센서와 부재 간 평행이 아니더라도 안정적으로 볼트홀 간의 거리를 계측하도록 하였다. 각 볼트홀의 2차원 위치 정보를 기반으로 볼트홀의 순서를 정렬하였으며, 정렬된 볼트홀의 위치 정보를 바탕으로 인접한 볼트홀 간의 각 축의 거리 정보를 계산하여 조립부 볼트홀 위치 중심의 형상 품질을 분석하였 다. 측정된 볼트홀 간의 거리 정보는 실제 도면의 거리 정보와의 절대오차와 상대오차를 계산하여 성능 비교를 진행하였으며, 중앙값 기준 1mm 내의 절대오차와 4% 이내의 상대오차의 계측 성능을 확인하였다.
노후 구조물의 동적 특성 평가를 위해 대표적인 접촉식 센서인 LVDT와 가속도계를 활용한다. 전통 적인 센서의 데이터 신뢰성은 높지만, 작동 원리로 인하여 대상 구조물의 물리적 접근과 센서의 설치 가 필요하다. 조밀한 센서 설치를 위해선 많은 수의 센서와 데이터 수집장치도 추가적으로 필요하다. 이런 단점을 보완하고자 비접촉식 센서의 개발이 활발히 진행 중이며, 특히 비전센서를 활용한 동적 변위 측정에 관한 연구 및 개발에 많은 진척이 있다. 비전센서를 활용한 동적 변위 측정 시스템은 내 적 파라미터 및 외적 환경조건에 따라 측정 정확도가 크게 변화한다. 주된 내적 파라미터로 영상장비 의 공간분해능은 이미지 센서의 물리적 크리와 촬영거리의 증가 혹은 관심영역이 작아짐에 따라 영향 을 많이 받는다. 외적 환경조건으로 저조도 환경에서 타겟의 밝기차이가 줄어들어 이미지 프로세싱 과 정에서 불리한 조건이며, 이는 동적 변위 측정 정확도 저하로 이어진다. 본 연구에서 저조도 환경에서 비전센서의 운용거리 한계를 초해상화를 적용하여 극복하고자 하며, 인공적 및 자연적 타겟에 대한 동 적 변위 측정 성능을 비교 분석하였다. 동적 변위 측정 실내 실험을 위해 저조도 조건에서 3층 전단 구조물을 9Hz로 가진하였다. 동시에 Sony사의 DSC-100M7 카메라를 활용하여 조화진동으로 인해 발생되는 각층의 변위를 FHD화질 120FPS로 촬영하였고 측정 정확도 비교 분석을 각층의 LVDT 측 정값으로 진행하였다. 촬영거리를 10m를 기준으로 10m씩 증가하면서 최대 40m까지 변위 값을 측정 하였으며, 공간분해능 증가를 위해 GAN기반 초해상화 모델인 RealSR을 적용시켰다. 초해상화를 활용 하여 동적변위를 측정한 결과 저조도 환경에서도 비전센서의 운용 거리가 증가함을 확인할 수 있었으 며, 동시에 변위 측정 정확도도 함께 상승하는 것을 보여줬다.
본 논문에서는 프리팹 구조물의 품질관리를 위한 딥러닝 및 비전센서 기반의 조립 성능 평가 모델을 개발하였다. 조립부 검출을 위 해 인코더-디코더 형식의 네트워크와 수용 영역 블록 합성곱 모듈을 적용한 딥러닝 모델을 사용하였다. 검출된 조립부 영역 내의 볼트 홀을 검출하고, 볼트홀의 위치 값을 산정하여 k-근접 이웃 기반 모델을 사용하여 조립 품질을 평가하였다. 제안된 기법의 성능을 검증 하기 위해 조립부 모형을 3D 프린팅을 이용하여 제작하여 조립부 검출 및 조립 성능 예측 모델의 성능을 검증하였다. 성능 검증 결과 높은 정밀도로 조립부를 검출하였으며, 검출된 조립부내의 볼트홀의 위치를 바탕으로 프리팹 구조물의 조립 성능을 5% 이하의 판별 오차로 평가할 수 있음을 확인하였다.
Measurement of surface roughness is an important metrology procedure widely used in the industry during the final phases of the manufacturing process for quality control. This paper presents a measurement system that uses an optical microscope equipped with a vision sensor to measure the surface roughness of bearings. Shape from Focus / Defocus method is applied to measure the 3D surface coordinates of the object surface from which roughness calculations can be undertaken.
There have been continuous efforts on automating welding processes. This automation process could he said to fall into two categories, weld seam tracking and weld quality evaluation. Recently, the attempts to achieve these two functions simultaneously arc on the increase. For the study presented in this paper, a vision sensor is made, a vision system is constructed and using this, the 3 dimensional geometry of the head is measured on-line. For the application as in welding, which is the characteristic of nonlinear process, a fuzzy controller is designed. And with this, an adaptive control system is proposed which acquires the bead height and the coordinates of the point on the bead along the horizontal fillet joint, performs seam tracking with those data, and also at the same time, controls the bead geometry to a uniform shape. A communication system, which enables the communication with the industrial robot, is designed to control the bead geometry and to track the weld seam. Experiments are made with varied offset angles from the pre-taught weld path, and they showed the adaptive system works favorable results.
In this paper, we propose an algorithm that estimates the location of lunar rover using IMU and vision system instead of the dead-reckoning method using IMU and encoder, which is difficult to estimate the exact distance due to the accumulated error and slip. First, in the lunar environment, magnetic fields are not uniform, unlike the Earth, so only acceleration and gyro sensor data were used for the localization. These data were applied to extended kalman filter to estimate Roll, Pitch, Yaw Euler angles of the exploration rover. Also, the lunar module has special color which can not be seen in the lunar environment. Therefore, the lunar module were correctly recognized by applying the HSV color filter to the stereo image taken by lunar rover. Then, the distance between the exploration rover and the lunar module was estimated through SIFT feature point matching algorithm and geometry. Finally, the estimated Euler angles and distances were used to estimate the current position of the rover from the lunar module. The performance of the proposed algorithm was been compared to the conventional algorithm to show the superiority of the proposed algorithm.
This paper presents a vision-based relative pose estimation algorithm and its validation through both numerical and hardware experiments. The algorithm and the hardware system were simultaneously designed considering actual experimental conditions. Two estimation techniques were utilized to estimate relative pose; one was a nonlinear least square method for initial estimation, and the other was an extended Kalman Filter for subsequent on-line estimation. A measurement model of the vision sensor and equations of motion including nonlinear perturbations were utilized in the estimation process. Numerical simulations were performed and analyzed for both the autonomous docking and formation flying scenarios. A configuration of LED-based beacons was designed to avoid measurement singularity, and its structural information was implemented in the estimation algorithm. The proposed algorithm was verified again in the experimental environment by using the Autonomous Spacecraft Test Environment for Rendezvous In proXimity (ASTERIX) facility. Additionally, a laser distance meter was added to the estimation algorithm to improve the relative position estimation accuracy. Throughout this study, the performance required for autonomous docking could be presented by confirming the change in estimation accuracy with respect to the level of measurement error. In addition, hardware experiments confirmed the effectiveness of the suggested algorithm and its applicability to actual tasks in the real world.