본 연구에서는 피사체의 깊이와 깊이 표현의 상세레벨(detail level)을 각기 다르게 조정한 깊이맵을 이용하여 2D-to-3D 입체변환을 수행하고, 변환된 입체 이미지를 기반으로 시청자 평가 실험을 진행하여 피사체의 절대적 깊이 변화와 배경간의 깊이 차이에 따라 깊이맵의 상세레벨이 깊이감, 볼륨감, 불편감에 미치는 효과를 분석하였다. 주객체의 깊이는 3 레벨로 조정하였고, 또한, 주객체와 배경과의 상대적 깊이 차이도 하나의 독립변인으로 분석하기 위하여 3 레벨로 조정하였다. 깊이맵의 깊이 표현의 상세레벨을 다시 3레벨로 나누어, 이들 조건을 만족하는 18개의 깊이맵을 정의하고 이를 기반으로 실험을 위한 입체영상을 생성하였다. 18개의 입체영상을 실험참가자에게 보여 주고 설문을 통하여 각 영상별로 실험자들이 느끼는 주관적 입체감, 볼륨감, 불편감을 조사하였다. 그 결과 주 피사체의 절대적 위치와 피사체-배경간의 상대적 거리차이가 달라짐에 따라 깊이맵의 상세도가 깊이감, 볼륨감, 불편감에 미치는 영향력이 달라지는 결과를 얻었다. 단색 깊이맵의 경우는 주객체의 절대적 깊이위치에 상관없이 전반적으로 볼륨감을 크게 훼손하고, 스크린의 안쪽에 객체가 위치하는 경우, 다른 상세레벨의 깊이맵에 비해 깊이감도 크게 저하시키는 효과를 보이기 때문에 주객체의 절대적 위치와 상관없이 사용을 피하는 것이 바람직 한 것으로 분석되었다. 또한, 세밀한 깊이맵과 간략한 깊이맵을 적용하였을 때 실험자가 입체감을 크게 다르게 느끼지 못하는 것으로 나타남에 따라 입체변환시 모든 장면에 너무 과도하게 상세한 깊이맵을 구성할 필요가 없는 것으로 분석되었다.
3D 모델링 및 렌더링 과정에서 모델의 컬러를 재현하기 위해 사용되는 RGB 컬러 정보는 특정 사물의 단순한 컬러 재현에는 용이하나 광원 효과나 주변의 다른 환경요인에 의해 컬러가 변화되는 경우에 대한 렌더링 시 가상공간에서 실제의 컬러를 재현하기에는 한계가 있다. 실제 컬러는 광원의 스펙트럼이 물체에 반사되어 인간의 시각 시스템에 인지되는데, 이때 3개의 필터를 통해 스펙트럼 정보가 걸러지고 각필터의 출력값이 컬러로 인지된다. 따라서 주변광원이나 물체의 반사율에 의해 두개의 스펙트럼이 다르더라도 인간 시각에는 동일하게 인지되는 조건등색 현상이 발생할 수 있으며, 또한 조명과 물체의 스펙트럼 특성에 의해 인지되는 컬러를 단순한 RGB 데이터만으로 재현하기에는 한계가 있다. 이에 본 논문에서는 3D모델에서 컬러 정보를 포함하고 있는 RGB 기반의 텍스쳐맵이 아닌 스펙트럼맵을 사용한 컬러렌더링 기법을 제안한다. 스펙트럼 기반 카메라 특성화를 통해 획득된 영상의 스펙트럼 정보를 3D 모델링 및 렌더링에 사용하기 위한 스펙트럼맵으로 생성하고 고속렌더링에 적용하기 위해 이를 최적화하였다. 스펙트럼맵을 사용하여 광원 및 주변환경에 의한 컬러 변화에 대한 스펙트럼 렌더링이 가능하게 되었다.
컴퓨터의 발전과 함께 삼차원 게임의 그래픽 성능도 향상되고 있다. 삼차원 게임 사용자들의 요구사항인 다양한 맵의 제공을 위해 맵 에디터 프로그램이 출시되고 있다. 본 논문에서는 기존의 맵 에디터 프로그램들이 안고 있는 문제점을 해결하는 새로운 맵 에디터를 제시하려 한다. 제시된 에디터의 효율성 및 우수성을 예제를 통해 설명한다.
본 연구의 목적은 관광을 위하여 전체적인 지형을 쉽게 이해하고, 전반적인 위치를 암기하기 쉽게 하는 3차원 지도 개발이다. 이를 위하여 파노라마 전경의 블록 유닛 형태 그리고 파노라마 블록 유닛 전경의 색채계획에 관하여 논하였다. 우선 도로 블록을 제작하기 위하여 28 종류를 정의하였고, 이를 기초로 12종류의 주요 그룹을 제작하였다. 그리고 파노라마 블록 유닛을 제작하기 위하여 지도에 표현된 지형 42 종류를 정의하였다. 후, 조합되어지는 방식의 유사도 따라서 5종류의 그룹으로 분류하였고 그리고 표현되어지는 면적의 크기에 따라서 5종류의 그룹으로 분류하였다. 이를 기초로 파노라마 블록 유닛을 3차원 그래픽 구조물의 형태로 디자인하였다. 마지막으로 파노라마 블록 유닛 각각을 5가지의 다른 색깔 클래스로 구분하여 색채를 계획하였다. 색채 계획의 타당성을 조사하기 위하여 문 스팬스의 미적 측정값을 조사하였다. 결과 값은 0.5보다 크므로 제작된 칼라의 조합은 잘 조화된 것으로 평가되었다.
This paper describes an algorithm that improves 3D reconstruction result using a multi-sensor fusion disparity map. We can project LRF (Laser Range Finder) 3D points onto image pixel coordinates using extrinsic calibration matrixes of a camera-LRF ( ) and a camera calibration matrix ( ). The LRF disparity map can be generated by interpolating projected LRF points. In the stereo reconstruction, we can compensate invalid points caused by repeated pattern and textureless region using the LRF disparity map. The result disparity map of compensation process is the multi-sensor fusion disparity map. We can refine the multi-sensor 3D reconstruction based on stereo vision and LRF using the multi-sensor fusion disparity map. The refinement algorithm of multi-sensor based 3D reconstruction is specified in four subsections dealing with virtual LRF stereo image generation, LRF disparity map generation, multi-sensor fusion disparity map generation, and 3D reconstruction process. It has been tested by synchronized stereo image pair and LRF 3D scan data.