최근 기술이 발전함에 따라 다양한VR (Virtual Reality) 및AR (Augmented Reality) 장치들이 등장하고 있다. 이 러한 장치들의 대부분의 콘텐츠는 사용자 상호작용을 위해 컨트롤러에 의존하고 있으나 컨트롤러는 휴대하 기 어렵고 분실하기 쉽다는 단점이 있다. 또한, 컨트롤러를 통한 사용자 인터페이스는 장치에 익숙하지 않은 사용자들이 불편함을 느낄 수 있고 새로 인터페이스를 배워야 하는 한계가 있다. 이러한 문제를 해결하기 위 해Oculus Quest는 핸드 트래킹 기술을 도입하여 사용자가 자연스러운 손 제스처를 인터페이스로 사용할 수 있게 하였다. 그러나 핸드 트래킹을 활용하는 방법은 그 어려움 때문에 아직 널리 연구되지 않았고 아직 활 용되지 못하고 있다. 이에 VR 콘텐츠와 상호작용하는 데 손을 사용하는 방법을 탐구하고, 그것을 이용하여 콘텐츠를 만드는 방법을 설명한다
Identifying plausible scenarios is necessary to evaluate the performance of the repository reliably over a very long period. All features, events, and processes (FEPs) expected in the repository should be comprehensively well-defined and structured into scenarios based on the relation analysis. A platform for the FEP DB management and relation analysis is needed to facilitate the efficient composition of the scenarios. For this purpose, the CYPRUS program was developed, but abandoned due to suspended FEPs and scenario research. Thus, it became necessary to build a new easy-tomaintain platform that inherits the legacy of CYPRUS and reflects the latest research. The data structure and user interface configuration were derived to develop a new platform. The new platform provides extensive data such as the assessment context, the FEP DB, the interaction between FEP contents, the relevance to other project FEPs, the influence on performance, the scenarios for the TSPA, the AMF, and the PA Data. The platform displays the long-term evolution FEPs developed by KAERI, the international and major project FEPs in table format. The correlation between FEP items is composed of a detailed interaction matrix and visualized as the chord diagram or arc diagram. The relevance and linkages between the project FEP items are mapped and presented in the form of network diagrams and network tables. The platform designed in this study will be used to manage the FEP DB, analyze and visualize the relationship between the FEP and scenarios, and finally construct the performance assessment scenarios. It is expected that the platform itself will be used as a part of the knowledge management system and facilitate efficient collaboration and knowledge exchange among experts.
본 연구의 목적은 음성 인터페이스(Voice User Interface, VUI)를 이루는 설계변수 중 사용자에게 긍정적인 감성을 유발하는 설계변수를 확인하는 것이다. 특히, 사용자의 성별과 설계변수의 조절 효과를 분석하여 VUI와 상호작용하는 동안 사용자가 만족할 수 있는 적절한 설계변수 수준을 찾아보고자 하였다. 선행연구를 통해 VUI에 사용되는 음성 설계변수 중에서 사용자의 감성 만족도에 영향을 미칠 수 있는 설계변수 6가지를 도출하였다. 설계변수는 수준을 조절할 수 있도록 Wizard of OZ를 활용하여 VUI 시스템을 구현하였고, 6가지 설계변수의 수준을 조합하여 사용자와 음성으로 대화를 할 수 있도록 구성하였다. 실험에 참여한 사용자는 총 80명으로, 남/여 성비를 고려하여 각 40명씩 모집하였다. 사용자는 VUI와 주어진 임무에 대한 정답을 알아내기 위해 자연스러운 대화를 진행하며, 그동안의 얼굴 표정 변화에 대한 이미지 데이터를 수집 및 표정 분석 소프트웨어를 통해 Valence 점수로 변환하였다. Valence 데이터 를 기반으로 빈도 및 카이제곱 분석을 통해 확인한 결과, 사용자의 성별과 AI gender간의 조절효과가 유의한 것으로 나타났다. 이 결과는 VUI를 설계할 때 사용자의 성별 차이를 고려하는 것이 좋다는 것을 의미한다. 결론적으로, 남성사용자의 경우 성인/남성/높은 톤의 음성, 여성 사용자의 경우 성인/여성/중간톤의 음성이 향후 만족스러운 인터랙션 구현을 위한 VUI 설계에 주요한 가이드라인인 것을 확인하였다. 본 연구의 결과를 통해 향후 다양한 인적 요소를 고려하여 UX 관점에서 인간-AI 상호작용을 보다 섬세하게 분석할 수 있을 것이며, 표정을 통한 실시간 감성 측정을 위한 기초연구로 활용될 수 있을 것이다.
The continuous development of in-vehicle information systems in recent years has dramatically enriched drivers’ driving experience while occupying their cognitive resources to varying degrees, causing driving distraction. Under this complex information system, managing the complexity and priority of information and further improvement in driving safety has become a key issue that needs to be urgently solved by the in-vehicle information system. The new interactive methods incorporating the augmented reality (AR) and head-up display (HUD) technologies into in-vehicle information systems are currently receiving widespread attention. This superimposes various onboard information into an actual driving scene, thereby meeting the needs of complex tasks and improving driving safety. Based on the qualitative research methods of surveys and telephone interviews, this study collects the information needs of the target user groups (i.e., beginners and skilled drivers) and constructs a three-mode information database to provide the basis for a customized AR-HUD interface design.
국내 고준위 방사성폐기물 심층처분시스템에 대한 프로세스 기반의 종합성능평가체계(APro) 개발을 위하여 사용자 편의성이 향상된 모델링 인터페이스를 구축하였다. APro의 모델링 인터페이스는 프로그래밍 언어인 MATLAB을 이용하여 구축되었고, 다중물리현상 모사가 가능한 COMSOL과 지화학반응 계산이 가능한 PHREEQC를 계산 엔진으로 활용하여 연산 자분리 방식을 적용하였다. APro는 모델링 영역을 기존의 정형화된 처분시스템으로 제한함으로써 모델의 자유도는 낮지만, 사용자 편의성을 향상시켰다. 처분시스템에서 고려되는 주요 현상들을 모듈화하였고, 이를“Default process”와 다수의“Alternative process”로 구분하여 사용자가 선택할 수 있도록 함으로써 모델의 유연성을 높였다. APro는 크게 입력자료 부분과 계산실행 부분으로 구성된다. 기본 입력자료는 하나의 EXCEL 파일에 일정한 포맷으로 정리되고, 계산실행 부분은 MATLAB을 이용하여 코딩되었다. 최종적인 전체 계산 결과는 독립적인 COMSOL 파일 형태로 생성되도록 하여 COMSOL을 이용한 계산 결과의 후처리가 가능하도록 하였다.
In this paper, we analyze user's manipulation and reaction in an accelerometer-based game interface, as compared with a touch joystick-based game interface. To roll the ball, the user carefully grabs and adjusts the smartphone with both hands in the accelerometer-based game interface; while the user very quickly clicks the up, down, left, right, buttons in the touch joystick-based game interface, because it is already familiar to the user. The accelerometer-based game interface is relatively more immersive and interesting than the touch joystick-based game interface; because the user gets more desired results by elaborately operating the game with both hands rather than by clicking the buttons with the thumb.
온라인 쇼핑을 이용하는 사람들의 수는 시간이 지날수록 기하급수적으로 증가하고 있다. 그 중에서도 오픈마 켓은 가장 각광받고 있는 온라인 시장이다. 현재 오픈마켓은 너무 많은 상품들로 인해 고객들이 원하는 상품을 찾을 때 많은 어려움을 겪고 있다. 따라서 오픈마켓은 효율적인 상품을 제공할 수 있도록 인터페이스를 개선해 야 한다. 본 연구는 국내 오픈마켓 주요 4사의 메인 화면을 기준으로 웹 인터페이스를 분석하였고, 분석요인에 대한 만족도 평가를 진행하였다. 분석결과, 고객들이 어떠한 요인을 선호하는지에 대해서 알 수 있었으며, 설문 응답자로부터 가장 높은 만족도를 얻은 오픈마켓과 응답자들의 선호 요인이 인과관계를 가짐을 확인하였다.
Recently, the technology for smart phones has shown a quantum leap so the market share of mobile games is gradually increasing. User Interface(UI) is a crucial factor in the success of a mobile game. Thus, the mobile game UI evaluation is undoubtedly important. Currently, survey and heuristic evaluation methods are widely used in terms of evaluation. However, these methods have not been proven to show the user experiences. This study suggests a new method using ‘eye tracking’ technology which focuses on where on the mobile screen the user concentrates the most, where the user shows the most interest and how the user’s eyes move on the screen. Experiments have been conducted to verify the availability of eye tracking technology along with the differences between the traditional methods and the eye tracking method.
The purpose of this study is to conduct basic research on development of game interface for the elderly by verifying the difference in user experience based on the type of interface. The methodology of playtest combining experimental research and survey was applied with subjects of elderly users consisting of 47 men and 48 women being ages 60 and up. The effects of user experience between natural user interface and the pad-type interface were compared and analyzed through repeated measure MANOVA in terms of emotional response, ease of use and flow. The NUI game showed higher emotional responses such as pleasure and dominance. On the other hand, there was no difference in arousal. The NUI game also presented higher ease of use in the process of game play and it also had higher autotelic experience, action-awareness merging, sense of control and ambiguous feedback experience. These results may contribute to the development of serious game and natural user interface for the elderly by empirically identifying the effects of user experience on NUI.
As a macroscopic research for the interface of MMORPG(Massive Multiplayer Online Role Playing Game) in Korea, I have analyzed the introduction background & mutual characteristic of each interface according to the development shifts of MMORPG. The MMORPG of Korea, in the mid-1990s, was started while taking a foreign MUD (Multi User Dungeon) games, which used 'Text Interface' based on the keyboard. When Information and communication infrastructure was expanded in earnest in the late 1990s, Computer games interface was rapidly changed to GUI(Graphic User Interface) based on 2D graphic from text-based UI. So, Games of this period used the 'Point & Click Interface' that uses the mouse only to move character and carry out combat. Since graphic technology was changed to 3D in the middle of 2000's, The interface of MMOGPG for three-dimensional representation was naturally changed to 'keyboard control Interface' which used both mouse and keyboard. Recently, 'Action Control Interface' that was hardly used to MMORPG was appeared due to progress of game programming technology. And 'Diversity of play pattern' & 'Non-targeting' are attributes of 'Action Control Interface', which is differentiated with other interfaces.
본 연구는 실물형 인터페이스 개념과 특징을 설명하고 있는 선행연구를 대상으로 실물형 인터페이스디자인에 대한 특성을 토출하여 이를 토대로 실물형 인터페이스 디자인 가이드라인을 제안하였다. 도출된 인터페이스 디자인 가이드 라인의 특성은 물리적 조작성, 기기의 용이성 및 편리성, 지각적 표현성, 상황인지 및 공간성, 그리고 사회적 상호작용으로 구분되었으며 25개의 세부항목이 추출되었다. 개발된 가이드라인은 사용자와의 상호작용 측면이 강조된 것으로 이를 실제공간의 체험형 전시물들에 적용하여 평가함으로써 현 실물형 인터페이스 디자인의 특성을 분석하였다. 조사대상으로 선정된 국립과학 박물관의 전시 설치물들 중 실물형 인터페이스 평가가 가능하다고 판단되는 15개의 설치물을 대상으로 개발된 디자인 가이드 라인에 따라 전문가 평가를 하였다. 평가결과 신체모션을 이용한 인터페이스에 대한 점수가 가장 높았으며 이들은 상황인지 및 공간성 영역에서 높은 평가를 받았다. 상황인지 및 공간성은 새로이 확장된 실물형 인터페이스 특성으로 최근 그 중요성이 강조되고 있다. 분석 결과 대부분의 설치물들은 버튼과 조이스틱 위주의 물리적 조작성을 제공하는 설치물이 가장 많았으나 향후 시각, 청각, 촉각 등의 다감각 인터페이스나 사용자가 직접 설치장치들을 재배열하는 인터렉션 개발 등이 필요하였다. 본 연구는 실물형 인터페이스 디자인을 평가할 수 있는 기준을 제시하였다는데 그 의의가 있으며 실물형 인터페이스디자인이 적용된 전시 설치물들이 개발되고 적용됨에 있어 발전 방향을 모색하는데 도움을 줄 것으로 기대한다. 향후 개발된 실물형 인터페이스 디자인 가이드 라인에 따라 전문가 평가뿐만 아니라 실제 사용자들을 대상으로 하는 사용자 경험 평가가 병행되어야 할 것이다.
지금은 인터넷 통신의 대중화와 통신 기술의 발달로 멀티미디어 콘텐츠가 많이 개발되었다. 특히 비디오 게임에 대한 시장이 커지고 있다. 사용자의 몰입감을 향상시키기 위해 사용자와의 상호작용 기능을 지원하는 멀티미디어 콘텐츠가 지속적으로 증대되고 있다. 본 논문에서는 실세계에서 사용자의 움직임을 3D 위치 정보로 변환하여 얻을 수 있는 움직임 센싱 장치인 Microsoft의 Kinect[1]와 SURF 알고리즘[2]을 이용하여 3D 가상공간에서 3차원 오브젝트를 선택하여 변환할 수 있는 3D 사용자 인터페이스 시스템을 제안한다. 제안한 시스템을 사용을 통해 몰입감과 편리성이 증대되었음을 알았다.
본 논문에서는 적외선 카메라가 실시간 영상을 입력받아 사용자의 주시선을 추적하고 이를 인터페이스로 사용하는 방법을 제안하였다. 기술 검증을 위해 사용자의 의도적인 주시선 움직임에 따른 주시선 추적 시스템의 정확도와 반응속도에 대한 실험을 하였으며, 실험결과 평균 93%정도의 움직임 인식률을 보였고, 격렬한 움직임의 경우 84% 정도의 정확도를 보여주었으며, 이를 통하여 시스템의 신뢰성을 확인 할 수 있었다. 이와 같은 영상기반 주시선 사용자 인터페이스는 교육용 소프트웨어 개발이나 스포츠, 액션 등의 활동성 있는 게임의 개발에 적합하며, 이외에 3차원으로 구현된 문화원형 박물관, 모델하우스, 시뮬레이션 프로그램(군사훈련, 조종, 외과수술 등), 엔터테인먼트 등 다양한 분야에서 3D 입체영상 콘텐츠를 편리하게 이용 가능할 수 있도록 만들어 준다.
디지털 기술의 발전과 제품의 정보화로 인해 최근 사용자 인터페이스 디자인의 중요성이 더욱 더 증대되고 있다. 따라서 사용자 인터페이스의 개선이 어느정도 효과가 있는지를 체계적이고 합리적인 방법으로 측정하고 관리하는 것이 필요하다. 본 연구는 사용자 인터페이스 디자인에 있어서 사용성이 얼마나 개선되었는지를 나타내는 측정 가능한 '사용성 개선지수'를 개발하는 것을 목적으로 한다. 먼저 기존의 사용성 평가방법과 선행연구에 대한 분석을 통해 사용성 개선지수 개발을 위한 사용성 측정 및 평가방법에 대한 틀을 마련하였다. 다음으로는 측정 가능한 사용성의 특성을 분류, 정의하고 이를 바탕으로 사용성 개선지수 산출 프로세스를 제안하였다. 현재의 사용성 수준을 측정하고 문제점을 분석하여 사용성을 개선한 대안을 제시하고, 개선된 사용성 수준을 측정하여 개선전과 개선 후의 사용성 수준을 비교할 수 있게 하였다. 개발된 사용성 개선지수는 실제 제품의 사용성평가와 개선작업을 사례연구로 진행하여 그 적용 가능성을 확인하였다. 본 연구는 목표에 의한 UI디자인을 가능하게 하고 사용성을 체계적이고 합리적인 방법으로 개선하고 관리하는데 도움을 줄 수 있을 것으로 기대한다.
본 연구에서는 다양한 색채환경에 대한 반응을 파악하기 위해 3차원 가상환경 인터페이스를 개발하고, 개발된 인터페이스에 대해 사용자가 어떻게 감성적으로 인터렉션하는지를 평가하였다. 3차원 가상환경은 후면 투사형 대형화면을 통해 제시되었으며, 가구를 포함한 실내 환경요소에 12가지 색채조합을 적용한 후, 피실험자들에게 색채조합에 대한 반응과 아울러 가상환경 인터페이스를 통한 감성적 인터렉션을 함께 평가하도록 하였다. 총 34명의 대학생들이 실험에 참여하였으며, 피실험자들은 대형화면 (8'×6')에 제시되는 고화질의 색채 환경 속에서 표준 입력장치를 사용하여 360도로 시선을 움직일 수 있었다. '공간적 실재감(Spatial Presence)', '주제와 연관성(Topic Involvement)', 및 '유쾌함(Enjoyment)'에 관한 자기보고형 설문지를 통해 가상환경파의 인터랙션을 통한 감성 및 인지적 반응을 파악하였다. 현 연구는 향후 디자인 연구, 특히 환경디자인 연구에 3차원 가상환경 인터페이스를 적용하고자 하는 연구자들이 사용자 인터랙션을 사전에 이해하는데 기여할 것으로 기대된다.
사용자들이 경험하는 감성 품질과 그 특성을 이해하는 것은 인터랙티브 제품의 사용자 인터페이스를 디자인하는데 있어 매우 중요한 일이다. 본 논문은 사용자 인터페이스와 관련된 감성 품질에 대한 일련의 실험연구와 분석을 통해 감성 품질에 대한 체계적인 접근 방안을 제시하고자 하였다. 우선 실제 사용자와 사용자 인터페이스 디자인 분야의 전문가들이 참여한 조사와 실험을 통해 6가지 차원들(유용성, 사용편의성, 심미성, 자극성, 정체성, 조화성)과 18가지 요소들로 구성된 감성 품질 프레임웍을 개발하였다. 다음으로 규명된 감성 품질들을 척도화한 후 실제 인터랙티브 제품과 사용자들을 대상으로 한 실험 연구를 통해 인터랙티브 제품의 다양한 감성 품질을 측정하고 각 품질의 차원들이 제품의 전반적인 만족도에 미치는 영향을 파악할 수 있음을 예시하였다. 마지막으로 품질 차원들 사이의 상대적인 중요도와 감성 품질의 변화를 가져올 수 있는 상황요인 등에 대한 분석과 논의를 통해 감성 품질의 구현과 관련된 향후 연구를 위한 기반 지식을 제공하였다.
신기술의 지속적인 적용으로 휴대폰의 사용 난이도가 높아짐에 따라 user interface의 중요성이 강조되고 있다. User interface 개발 프로세스의 복잡도와 이에 따르는 로드 또한 지속적으로 높아지고 있다. 본 논문에서는 체계화된 휴대폰 user interface의 개발 방법론에 대하여 논의하였다. 기존 휴대폰 개발 프로세스를 검토하고, 이에 따르는 개발상의 이슈사항을 살피고, 4단계의 가이드라인 적용을 통한 user interface 개발 프로세스를 제안하고 있다. 기존 유저 인터페이스와 관련한 연구들은 대부분 개발 대상에 대해 집중되어 있으나 좋은 user interface는 좋은 UI개발 프로세스를 통하여 실현될 수 있으며, 때문에 UI 매니지먼트 레벨의 논의는 제품 UI 개발과는 별도로 다루어질 필요가 있다. 본 논문에서 제시된 4단계 가이드라인은 휴대폰의 UI 개발뿐만 아니라 타제품 및 서비스의 UI개발에도 응용될 수 있을 것으로 사료된다.