아케이드 슈팅게임은 과거 1970년대 후반부터 1990년 후반까지 대중적으로 큰 인기를 끌며 게임시장을 주도했다. 하지만 2000년대 이후 많은 PC와 콘솔의 보급으로 아케이드 게임이 급속도로 쇠퇴하기 시작했다. 하지만 최근 국내에서 하락세를 보였던 아케이드 게임이 크게 상승세를 보였고 앞으로도 점점 상승할 가능성이 높아 보인다. 따라서 본 논문은 아케이드 게임의 특징인 빠른 손동작을 최신 기술과 접목시켜 새로운 입력 방식을 개발함으로 더 높은 효용성을 끌어내어 검증 한다. 기존에 슈팅게임에서의 제스처 인터페이스 사용은 이미 그 효용성이 검증되었다. 다만 좀 더 복잡한 완성형 게임에서의 적용하기엔 미흡한 부분들이 있다. 이에 슈팅게임들의 요소를 좀 더 세분화하여 분석 후 각 요소들을 제스처에 매핑하였다. 기존 게임에선 조이스틱을 손으로 흔들며 진행하는게 일반적인 방식으로 본 게임에선 사용자가 직접 손을 상하좌우로 움직여 조작한다. 또한 진행에 필요한 스킬과 이벤트들을 각각의 매핑 된 제스처 로 인터랙션 한다. 개발된 인터페이스는 슈팅게임 'Cure'에 적용하여 G-Start, HCI creative Award 등에서 전시되었다.
In this paper, it suggests how to input what it needs under gesture based which is able to put its text 3 times faster than an existing way with voice based by a person who is a visually impaired person with a smart device that is flat display without a physical button. The suggesting way is a text input method based on gesture that after setting the touch display of the smart phone to 8 directions, then, it inputs number, English/Korean tests and special characters with initial location and central point of input texts following drag motion of the users or it controls and processes all applications in the smart devices naturally. It tries to prove efficiency of this method through real test to the visually impaired.
인터넷 통신의 보편화에 따라 멀티미디어 관련 콘텐츠 서비스가 이루어지고 있으며, 이러한 서비스는 교육용 학습 콘텐츠 및 시스템 분야로 확장되고 있다. 고급화된 멀티미디어 학습 시스템을 지원하기 위해 3D 그래픽스 기반의 학습 서비스 시스템이 개발되고 있지만 대부분의 시스템이 마우스와 키보드와 같은 컨트롤 기반의 콘텐츠를 가지고 있어 현실감이 떨어지는 단점이 있다. 본 논문에서는 Kinect를 이용하여 사용자 손 영역을 추출하고, 추출된 사용자 손영역에서 손 제스처를 인식하여 가상공간에서 전자교과서를 선택하고, 열고, 페이지를 넘기는 시스템을 소개한다.
유아용 체감형 게임은 유아 놀이 공간 축소로 인한 안전한 유아 놀이 공간 부족에 대한 해결책 중 하나로 대두되고 있다. 이에 따라 본 연구에서는 유아용 체감형 게임 인터페이스에 활용 가능하고 유아의 동작 특성이 고려된 유아 교육적으로 적합하고 체계적으로 정리된 유아 동작 데이터베이스가 필요성을 제기하고 유아의 상체 동작을 선정하여 데이터베이스를 구축했다. 동작 데이터베이스는 센서와 카메라의 두 디바이스를 모두 사용한 7개의 한 손 동작과 카메라만을 사용한 7개의 두 손 동작 데이터로 구성되었다. 유아 동작 데이터베이스는 각 연령별로 남자 유아 5명, 여자 유아 5명으로 만3세에서 만 5세의 유아 30명을 대상으로 동작이 수집되었다. 데이터베이스는 총 14개 동작을 한 동작마다 3번씩 반복하여 수집하였다. 수집된 데이터베이스는 유아용 체감형 게임에 적용 가능하고 유아가 쉽게 따라하는 것이 가능한 동작들로써 연구용으로 외부에 공개 및 배포되어 유아 대상의 체감형 게임 개발에 도움이 될 것이다.
현재의 유비쿼터스 환경의 홈 네트워크 제품 사용자는 단일 사용자가 아닌 다수의 사용자가 사용하는 네트워크 행태를 취하고 있다. 변화하는 사용환경과 시스템들은 현재와는 다른 요구사항을 가지고 있으며, 이에 따른 사용자 중심의 디자인과 제품 인터페이스 체계의 연구활동은 국내외에서 활발하게 이루어지고 있다. 다양한 모바일 디바이스 및 홈 네트워크 제품의 보급화가 빠르게 성장하면서 이를 쉽게 제어하기 위한 다양한 제어방식이 연구되고 있다. 이중 음성인식기술을 비롯한 표정은 안면표정인식기술의 개발이 활발히 진행되고 있다. 모션감지 센서를 활용한 사용자 제스처 콘트롤 체계는 아직까지는 초보적인 단계에 있으나, 제품 제어에 있어서 향후 근미래에는 자연스러운 인터랙티브 인터페이스의 활용도가 높아질 전망이다. 이에 본 연구에서는 효과적인 디바이스 제어를 위한 제스처 유형의 자연스러운 사용언어체계 개발 방법 및 결과 그리고 사용자 맨탈모델와 메타포 실험을 통한 연구내용을 정리하였다. 기존 사용자의 제스처 유형의 자연스러운 사용언어를 분석하면서 디바이스 제어방식으로서 활용 가능성을 검토할 수 있었으며, 동작 감지 카메라 및 센서를 활용한 새로운 디바이스 제어방식 개발과정의 연구를 통하여 제스처 유형의 자연스러운 언어 체계 개발 및 과정을 정립하였다.
최근 가상현실 기술의 발전으로 가상의 3D 객체와 자연스러운 상호작용이 가능하도록 하는 사용자 친화적인 손 제스처 인터페이스에 대한 연구가 활발히 진행되고 있다. 그러나 대부분의 연구는 단순하고 적은 종류의 손 제스처만 지원되고 있는 실정이다. 본 논문은 가상환경에서 3D 객체와 보다 직관적인 방식의 손 제스처 인터페이스 방법을 제안한다. 손 제스처 인식을 위 하여 먼저 전처리 과정을 거친 다양한 손 데이터를 이진 결정트리로 1차 분류를 한다. 분류된 데이 터는 리샘플링을 한 다음 체인코드를 생성하고 이에 대한 히스토그램으로 특징 데이터를 구성한다. 이를 기반으로 학습된 MCSVM을 통해 2차 분류를 수행하여 제스처를 인식한다. 본 방법의 검증을 위하여 3D 블록을 손 제스처를 통하여 조작하는 ‘Virtual Block’이라는 게임을 구현하여 실험한 결 과 16개의 제스처에 대해 99.2%의 인식률을 보였으며 기존의 인터페이스보다 직관적이고 사용 자 친화적임을 알 수 있었다.
본 논문은 기존 립모션 장비에 홀로그램과 햅틱 장비를 결합함으로써 향상된 몰입감과 사용 용이성을 제공할 수 있는 사용자 인터페이스를 제시한다. 립모션은 사용자 손동작의 물리적 행 동이 직접 가상의 화면상에 영향을 주는 장치인데, 화면상의 가상 손모양을 제어해야 한다는 점과 가상환경에서의 영향을 사용자에게 전달할 수 없다는 한계를 가진다. 우리는 홀로그램을 립모션과 결합시켜 사용자로 하여금 실제 손과 가상 화면을 같은 공간에 배치함으로써 몰입감 을 향상시킨다. 아울러 사용자의 손에 촉각을 전달할 수 있는 햅틱 장비를 장착하여 감각의 상 호 작용을 실현하는 프로타입을 제시한다.