로봇과 인간의 상호작용에서 언어에 의한 정보 전달은 상호작용의 한계가 있으므로, 더욱 원활하고 효율적인 의사소통과 나아가 로봇의 감정 표현까지 구현하기 위해서는 비언어적 커뮤니케이션이 필요하다.
본 연구에서는 쇼핑을 지원하는 로봇을 전제로 하여 쇼핑 행태에 따른 7가지 비언어적 정보를 도출하였다. 도출된 비언어적 정보의 요소로서 표정을 선정하고, 2D 분석을 통하여 얼굴 구성요소를 코드화 하였다.
얼굴 구성요소의 코드를 조합한 3D 애니메이션을 이용하여 비언어적 정보의 표현에 대한 유의성을 분석하였 다. 분석 결과, 제안된 비언어적 정보의 표현 방법은 높은 수준의 유의성을 보여 비언어적 정보 연구의 기초자료 로서 활용 가능성이 확인되었다. 다만, '당황'의 경우 코드화된 얼굴 구성 요소의 모양 적용에 한계가 있으며 보 다 체계적 연구가 요구된다.
본 연구에서는 다양한 색채환경에 대한 반응을 파악하기 위해 3차원 가상환경 인터페이스를 개발하고, 개발된 인터페이스에 대해 사용자가 어떻게 감성적으로 인터렉션하는지를 평가하였다. 3차원 가상환경은 후면 투사형 대형화면을 통해 제시되었으며, 가구를 포함한 실내 환경요소에 12가지 색채조합을 적용한 후, 피실험자들에게 색채조합에 대한 반응과 아울러 가상환경 인터페이스를 통한 감성적 인터렉션을 함께 평가하도록 하였다. 총 34명의 대학생들이 실험에 참여하였으며, 피실험자들은 대형화면 (8'×6')에 제시되는 고화질의 색채 환경 속에서 표준 입력장치를 사용하여 360도로 시선을 움직일 수 있었다. '공간적 실재감(Spatial Presence)', '주제와 연관성(Topic Involvement)', 및 '유쾌함(Enjoyment)'에 관한 자기보고형 설문지를 통해 가상환경파의 인터랙션을 통한 감성 및 인지적 반응을 파악하였다. 현 연구는 향후 디자인 연구, 특히 환경디자인 연구에 3차원 가상환경 인터페이스를 적용하고자 하는 연구자들이 사용자 인터랙션을 사전에 이해하는데 기여할 것으로 기대된다.