본 연구는 추가적인 장비 없이 UAV만을 사용한 균열폭 측정 및 균열의 3차원 재구성 방법을 제안한다. UAV 사진측량법 및 CNN을이용한 균열의 3차원 재구성 및 균열폭 측정 검증을 위해 5곳의 균열이 존재하는 벽면을 대상으로 균열의 3차원 재구성을 하였 으며 UAV와 균열 사이의 거리 4가지에 대해 균열폭을 측정하고 균열 현미경 측정값과 비교하여 정확성을 검증하였다. 대부분의 균열 에서 균열폭을 정확히 측정하였으나 균열폭이 0.5mm보다 작은 경우와 벽면이 심하게 그늘져 어두운 곳에서는 측정 유효성이 떨어지 는 결과를 보였다.
본 논문에서는 웹툰 캐릭터 영상에 대해서 심층학습에 기반한 3D 안면 재구성 기술을 제안한다. 본 연구에서 제안하는 방법은 기본 사항 모듈과 상세 사항 모듈로 구성된다. 입력 받은 웹툰 캐릭터 영상에 대해서 기본 사항 모듈의 요소인 Albedo 모듈을 적용해서 안면에 들어오는 빛의 양을 계산하여 Albedo 맵을 생성한다. 그 리고 기본 사항 모듈의 다른 구성 요소인 FLAME 모듈에서는 입력 영상에 대한 기본적인 3D 안면 형태를 생 성한다. 이와 동시에 상세사항 모듈을 적용해서 실제 사람과 다르게 이목구비가 변형된 웹툰 캐릭터 영상의 표정이나 얼굴 깊이와 같은 특징을 살리는 세부사항을 추출한다. 계산한 세부사항들을 토대로 세부사항 맵을 생성하여 앞서 FLAME 모듈에서 생성된 3D 안면 형태와 결합하여 세부사항 안면 형태를 생성한다. 그 후 Albedo 모듈에서 생성된 Albedo 맵까지 적용하면 최종적으로 웹툰 캐릭터 영상에 대한 3D 안면 재구성이 완 료된다. 본 연구에서는 웹툰 캐릭터뿐만 아니라 안면이 스타일화된 애니메이 션 캐릭터에 대해서도 결과를 생성하고, 이를 기존 연구와 비교하여 그 우수성을 입증한다.
목 적 : Hip FAI 진단과 수술 계획 시 이루어지는 CT 촬영을 최소화하고 Hip FAI MRI 검사시 3D 영상을 추가로 활용하여 CT 영상으로 이루어지는 Hip Clock face 영상을 MRI 3D영상으로 대체할 수 있는지 비교 평가하였다.
대상 및 방법 : 2014년 6월부터 12월까지 본원에서 Hip 자기공명 영상 검사(MRI)와 3D Hip 컴퓨터 단층 촬영(CT)을 동시 시행한 환자 31명 (남: 21명 평균연령: 35세 여: 10명 평균연령: 40.3세)을 대상으로 분석하였다. MR System은 3.0T Magnetom Tim Verio (Siemens Healthcare, Germany)를 사용하여 3D T2 trufi sequence를ㄹ 시행하였다. 3D T2 trufi의 영상변수는 TR은 5.64msec 이고 TE는 2.48msec 이며, NEX는 1, Slice thickness는 1mm, Matrix: 165×256, FOV: 230mm×230mm이며, Scan time은 2분45초가 소요 되었다. 컴퓨터 단층 촬영의 Protocol은 관전압 120 kVp, 관전류 150 mAs, pitch 1 mm, Increment 0.7 mm, Kernel값은 B60S Sharp을 사용하였다. 영상평가는 정형외과 전문의 1명과 영상의학과 전문의 1명이 MR과 CT modality에서 Hip joint articular transverse ligament의 6 o’clock을 중심으로 superior을 12 o’clock, Labrum의 전면을 3 o’clock, 반대쪽을 9 o’clock로 기술하는 clock face를 재구성한 후 11 o’clock에서 A. retinacular vessel, B. head neck junction, 12 o’clock A. Epiphyseal line, B. Cam lesion, 1,2,3,4 o’clock의 Cam lesion, Posterior Cam lesion확인 여부를 리커트(Likert scale) 5점 척도로 평가하였다(Independent t-test p<0.05). 평가자간 신뢰도 검증은 Cohen’s weighted Kappa 검증을 이용하여 일치성 검증을 하였다.
결 과 : 영상의 정성적 평가를 위한 리커드 척도 결과 11 o’clock A. retinacular vessel MR 평균 값 3.69±1.0, CT 평균값 2.8±0.78이며 통계적으로 유의하였다(p<0.001). B. head neck junction은 두 평가자간 차이가 없었다(p<0.416). 12 o’clock A. Epiphyseal line MR 평균값 3.54±1.00, CT 평균값 4.5±0.62이었다(p<0.000). B. Cam lesion은 두 평가자간 차이가 없었다(p<0.532). 1,2,3,4 o’clock 의 Cam lesion과 Posterior Cam lesion은 통계적으로 유의하지 않았다(p<0.656, p<0.658). weighted Kappa 검증 결과 11 o’clock A. retinacular vessel CT K값이 0.663으로 가장 낮은 일치도였으며, 각각의 평가 항목의 일치도 평가 결과 매우 높은 결과로 두 평가자간 높은 신뢰도를 보여주었다.
결 론 : 대퇴골두 충돌 증후군의 진단과 관절경을 적용하기 위하여 시행하는 CT 3D-Hip 검사는 MRI 3D clock face 재구성 기법으로 대체 가능하며, 이로 인해 불필요한 환자의 피폭선량을 최소화 할 수 있다. 또한 Cam lesion에 대한 표준화된 영상을 제시함으로써 고관절 수술 시 의료진에게 신뢰할 수 있는 영상을 제공하여 수술 전효과적인 계획을 수립할 수 있을 것으로 사료된다
스마트폰, 셀폰과 같이 휴대가 간편한 포터블 카메라를 포함하여, DSLR 카메라 등 최근 카메라와 3D 입체에 대한 관심이 괄목할 정도로 증가추세에 있다. 하지만 단일 카메라로부터 획득된 단일 영상과 다중 디스페러티를 적용한 3D 재구성 방법에 대한 연구는 비교적 활발하지 못하다. 본 논문에서는 단일 영상으로부터 다중 디스페러티 파라미터를 적용한 Multi-view 3D 장면 재구성 방법을 제안한다. 다수의 카메라에 의한 영상획득 방법으로 3D 입체 장면을 재구성하는 기존의 방법에 비해 하드웨어의 구성이 필요 없는 편리한 3D 장면 재구성 방법이다. 실험결과를 제시하여 제안방법의 타당성을 제시하였다.
In this paper we present (1) analysis of imaging sonar measurement for two-view relative pose estimation of an autonomous vehicle and (2) bundle adjustment and 3D reconstruction method using imaging sonar. Sonar has been a popular sensor for underwater application due to its robustness to water turbidity and visibility in water medium. While vision based motion estimation has been applied to many ground vehicles for motion estimation and 3D reconstruction, imaging sonar addresses challenges in relative sensor frame motion. We focus on the fact that the sonar measurement inherently poses ambiguity in its measurement. This paper illustrates the source of the ambiguity in sonar measurements and summarizes assumptions for sonar based robot navigation. For validation, we synthetically generated underwater seafloor with varying complexity to analyze the error in the motion estimation.
게임 캐릭터와 객체들이 상호작용하는 지형은 가상세계를 구성하기 위한 필수 요소이다. 지형을 제작할 때 많은 갱신 작업과 시간이 들어가는 문제점이 발생한다. 본 논문에서는 실제 지형을 촬영한 데이터로부터 가상 공간의 3D 지형을 생성하기 위한 3D 지형 재구축 시스템을 제안한다. 제안시스템에서는 스테레오 카메라로 촬영하고, 레이져 스캐너로 실측한 3차원 지형 데이터를 기반으로 생성된 그리드 기반의 높이 맵(Height Map)과 로봇의 항법정보 중 z축과 x축 방향 벡터를 이용해 가상공간의 중심인 월드좌표계에 맞게 로테이션을 수행하여 축의 방향을 일치시키고, 로봇 중심의 좌표계에서 월드 좌표계로의 이동 벡터를 각 포인트에 더하여 최종적으로 월드좌표계에 맞게 변환한다. 이후 무방향성 그래프를 사용하여 지형 데이터를 관리하면서 가상공간에서 필요한 부분에만 동적으로 지형 메쉬를 생성한다. 이때 지형 데이터의 오류를 보정하여 메쉬를 올바르게 갱신한다. 실험에서는 제안 시스템이 지형 재구축을 완료할 때까지 일정한 주기로 FPS를 확인하고, 완성된 지형을 가시화하여 품질을 검토하였다. 지형의 전체 크기를 알 수 없거나, 실시간으로 지형의 크기가 변화하는 환경에서는, 제안된 시스템이 쿼드트리를 사용한 지형 관리보다 지형 크기가 작을 때 3배정도의 높은 FPS를 보이나, 지형이 아주 클 때는 평균 40% 정도 나은 실행 성능을 가진다. 최종적으로는, 실측한 지형의 모양을 그대로 유지하면서 가시화하고 있다. 본 연구에서 제안한 시스템을 이용하여 게임에 이용할 지형 데이터를 실시간으로 자동 생성하여 게임에 이용하거나, 실제 지형을 배경으로 필요한 영화의 CG 작업에 활용하는 등의 응용 방안을 고려해 볼 수 있다.
This paper describes an algorithm that improves 3D reconstruction result using a multi-sensor fusion disparity map. We can project LRF (Laser Range Finder) 3D points onto image pixel coordinates using extrinsic calibration matrixes of a camera-LRF ( ) and a camera calibration matrix ( ). The LRF disparity map can be generated by interpolating projected LRF points. In the stereo reconstruction, we can compensate invalid points caused by repeated pattern and textureless region using the LRF disparity map. The result disparity map of compensation process is the multi-sensor fusion disparity map. We can refine the multi-sensor 3D reconstruction based on stereo vision and LRF using the multi-sensor fusion disparity map. The refinement algorithm of multi-sensor based 3D reconstruction is specified in four subsections dealing with virtual LRF stereo image generation, LRF disparity map generation, multi-sensor fusion disparity map generation, and 3D reconstruction process. It has been tested by synchronized stereo image pair and LRF 3D scan data.
심근영상의 SPECT(Single Photon Emission Computed tomography)검사는 감마선을 방출하는 방사성의약품을 환 자에게 정맥주사한 후 이 의약품이 심장에 고루 퍼지면 관심부위를 촬영하여 질병으로 인한 변화를 컴퓨터를 이용하여 진단하는 검사법이다. 기능적인 정보를 담고 있는 심근관류 영상은 비침습적인 심근질환 검사에 유용한 방법이지만, 물리적 인자들에 의해 잡음과 낮은 해상도는 판도하는데 어려움을 주게 된다. 본 논문은 심근영상을 레벨 셋 알고리즘 을 이용하여 영상을 분할하고 분할된 영역을 3차원으로 구현하여 판독에 도움을 주는 방안을 제안하였다. 판독의 어려 움을 해결하기 위하여 레벨 셋을 이용하여 관심부위인 좌심실 영역을 분할하였고 분할된 영역을 3차원영상으로 모델 링하였다.
실 세계 공간에 가상 물체를 사실적으로 합성하기 위해서는 공간 내에 존재하는 조명정보 등을 분석해야 한다. 본 논문에서는 카메라에 대한 사전 교정(calibration)없이 카메라 및 조명의 위치 등을 추정하는 새로운 조명공간 재구성 방법이 제안된다. 먼저, 어안렌즈(fisheye lens)로부터 얻어진 전방향(omni-directional) 다중 노출 영상을 이용해 HDR (High Dynamic Range) 래디언스 맵(radiance map)을 생성한다. 그리고 다수의 대응점으로부터 카메라의 위치를 추정한 다음, 방향벡터를 이용해 조명의 위치를 재구성한다. 또한 대상 공간 내 많은 영향을 미치는 전역 조명과 일부 지역에 국한되어 영향을 주는 방향성을 갖는 지역 조명으로 분류하여 조명 환경을 재구성한다. 재구성된 조명환경 내에서 분산광선추적(distributed ray tracing) 방법으로 렌더링한 결과로부터 사실적인 합성영상이 얻어짐을 확인하였다. 제안된 방법은 카메라의 사전 교정 등이 필요하지 않으며 조명공간을 자동으로 재구성할 수 있는 장점이 있다.