최근 기술이 발전함에 따라 다양한VR (Virtual Reality) 및AR (Augmented Reality) 장치들이 등장하고 있다. 이 러한 장치들의 대부분의 콘텐츠는 사용자 상호작용을 위해 컨트롤러에 의존하고 있으나 컨트롤러는 휴대하 기 어렵고 분실하기 쉽다는 단점이 있다. 또한, 컨트롤러를 통한 사용자 인터페이스는 장치에 익숙하지 않은 사용자들이 불편함을 느낄 수 있고 새로 인터페이스를 배워야 하는 한계가 있다. 이러한 문제를 해결하기 위 해Oculus Quest는 핸드 트래킹 기술을 도입하여 사용자가 자연스러운 손 제스처를 인터페이스로 사용할 수 있게 하였다. 그러나 핸드 트래킹을 활용하는 방법은 그 어려움 때문에 아직 널리 연구되지 않았고 아직 활 용되지 못하고 있다. 이에 VR 콘텐츠와 상호작용하는 데 손을 사용하는 방법을 탐구하고, 그것을 이용하여 콘텐츠를 만드는 방법을 설명한다
As the 4th industrial revolution emerges, the implementation of smart factories are essential in the manufacturing industry. However, 80% of small and medium-sized enterprises that have introduced smart factories remain at the basic level. In addition, in root industries such as injection molding, PLC and HMI software are used to implement functions that simply show operation data aggregated by facilities in real time. This has limitations for managers to make decisions related to product production other than viewing data. This study presents a method for upgrading the level of smart factories to suit the reality of small and medium-sized enterprises. By monitoring the data collected from the facility, it is possible to determine whether there is an abnormal situation by proposing an appropriate algorithm for meaningful decision-making, and an alarm sounds when the process is out of control. In this study, the function of HMI has been expanded to check the failure frequency rate, facility time operation rate, average time between failures, and average time between failures based on facility operation signals. For the injection molding industry, an HMI prototype including the extended function proposed in this study was implemented. This is expected to provide a foundation for SMEs that do not have sufficient IT capabilities to advance to the middle level of smart factories without making large investments.
본 연구의 목적은 음성 인터페이스(Voice User Interface, VUI)를 이루는 설계변수 중 사용자에게 긍정적인 감성을 유발하는 설계변수를 확인하는 것이다. 특히, 사용자의 성별과 설계변수의 조절 효과를 분석하여 VUI와 상호작용하는 동안 사용자가 만족할 수 있는 적절한 설계변수 수준을 찾아보고자 하였다. 선행연구를 통해 VUI에 사용되는 음성 설계변수 중에서 사용자의 감성 만족도에 영향을 미칠 수 있는 설계변수 6가지를 도출하였다. 설계변수는 수준을 조절할 수 있도록 Wizard of OZ를 활용하여 VUI 시스템을 구현하였고, 6가지 설계변수의 수준을 조합하여 사용자와 음성으로 대화를 할 수 있도록 구성하였다. 실험에 참여한 사용자는 총 80명으로, 남/여 성비를 고려하여 각 40명씩 모집하였다. 사용자는 VUI와 주어진 임무에 대한 정답을 알아내기 위해 자연스러운 대화를 진행하며, 그동안의 얼굴 표정 변화에 대한 이미지 데이터를 수집 및 표정 분석 소프트웨어를 통해 Valence 점수로 변환하였다. Valence 데이터 를 기반으로 빈도 및 카이제곱 분석을 통해 확인한 결과, 사용자의 성별과 AI gender간의 조절효과가 유의한 것으로 나타났다. 이 결과는 VUI를 설계할 때 사용자의 성별 차이를 고려하는 것이 좋다는 것을 의미한다. 결론적으로, 남성사용자의 경우 성인/남성/높은 톤의 음성, 여성 사용자의 경우 성인/여성/중간톤의 음성이 향후 만족스러운 인터랙션 구현을 위한 VUI 설계에 주요한 가이드라인인 것을 확인하였다. 본 연구의 결과를 통해 향후 다양한 인적 요소를 고려하여 UX 관점에서 인간-AI 상호작용을 보다 섬세하게 분석할 수 있을 것이며, 표정을 통한 실시간 감성 측정을 위한 기초연구로 활용될 수 있을 것이다.
This study aims to propose a conceptual design of information displays for supporting responsive actions under severe accidents in Nuclear Power Plants (NPPs). Severe accidents in NPPs can be defined as accident conditions that are more severe than a design basis accident and involving significant core degradation. Since the Fukushima accident in 2011, the management of severe accidents is increasing important in nuclear industry. Dealing with severe accidents involves several cognitively complex activities, such as situation assessment; accordingly, it is significant to provide human operators with appropriate knowledge support in their cognitive activities. Currently, severe accident management guidelines (SAMG) have been developed for this purpose. However, it is also inevitable to develop information displays for supporting the management of severe accidents, with which human operators can monitor, control, and diagnose the states of NPPs under severe accident situations. It has been reported that Ecological Interface Design (EID) framework can be a viable approach for developing information displays used in complex socio-technical systems such as NPPs. Considering the design principles underlying the EID, we can say that EID-based information displays can be useful for dealing with severe accidents effectively. This study developed a conceptual design of information displays to be used in severe accidents, following the stipulated design process and principles of the EID framework. We particularly attempted to develop a conceptual design to make visible the principle knowledge to be used for coping with dynamically changing situations of NPPs under severe accidents.
현재 교량과 같은 토목구조물의 설계프로세스는 1차 설계 후 구조 검토를 수행하여 기준에 부적합할 경우 재설계하는 과정을 반복 하여 최종적인 성과품을 만드는 것이 일반적이다. 이러한 반복 과정은 설계에 소요되는 기간을 연장시키는 원인이 되며, 보다 수준 높 은 설계를 위해 투입되어야 할 고급 엔지니어링 인력을 기계적인 단순 반복 작업에 소모하고 있다. 이러한 문제는 설계 과정 자동화를 통하여 해결할 수 있으나, 설계 과정에서 사용되는 해석프로그램은 이러한 자동화에 가장 큰 장애요인이 되어 왔다. 본 연구에서는 기 존 설계 과정 중 반복작업을 대체하고자 강화학습 알고리즘과 외부 해석프로그램을 함께 제어할 수 있는 인터페이스를 포함한 교량 설계 프로세스에 대한 AI기반 자동화 시스템을 구축하였다. 이 연구를 통하여 구축된 시스템의 프로토타입은 2경간 RC라멘교를 대 상으로 제작하였다. 개발된 인터페이스 체계는 향후 최신 AI 및 타 형식의 교량설계 간 연계를 위한 기초기술로써 활용될 수 있을 것 으로 판단된다..
모바일 환경에서 3D 가상현실 응용 프로그램을 개발하는 방법 중 하나로 유니티 3D 가 많이 이용되고 있다. 유니티 3D 엔진을 이용하여 3D 가상현실 서비스가 가능하나 3D 가상현실 장면의 저장, 교환, 전송을 다양한 장치에서 사용하기 위해서는 표준화된 데이터 형식이 필요하다. 이를 위해서 유니티 3D 엔진에서 국제표준 ISO/IEC 19775-1 X3D (Extensible 3D)를 사용할 수 있다면 모바일 환경에서 가상현실 응용 서비스를 위한 3차원 장면 생성과 교환이 가능하게 된다. 본 논문에서는 유니티 3D 엔진을 이용하여 X3D 가상현실을 생성, 변경 및 시뮬레이션 할 수 있도록 3D 장면 접근 인터페이스 구현 방법에 대해 기술한다. 이를 위해서 유니티 3D 엔진에서 X3D 파일의 오브젝트를 처리할 수 있도록 C# 프로그래밍 언어를 이용하여 오브젝트 저장을 위한 데이터 구조를 정의하고 이 데이터에 접근하여 값을 입출력하는 언어 바인딩 함수를 정의한다. 그리고, 유니티 3D 엔진과 C# 바인딩 함수를 사용하여 X3D 데이터를 파싱하고 건물 모델링 생성, 멀티 텍스처 매핑 등 여러 오브젝트들을 생성하고 제어하는 모습을 보여준다.
본 연구는 인공지능 기술과 메신저용 챗봇의 인터페이스 융합을 통해 의사소통능력 개발을 위한 외국어 학습의 효과를 검증하는 목적으로 수행되었다. 이를 위해 첫째, 자체 학습이 가능한 로봇 기반과 인공지능 기술과 디지털 융합기술을 적용한 학습시스템을 설계하여 학습 성취도에 미치는 영향을 조사하였다. 둘째, 휴머노이드 로봇의 인간과의 상호작용 구현 능력을 검증하고 인터페이스 프로그램을 자기학습의 알고리즘으로 의사소통 능력 학습에 적용하여 그 효과를 검증하고자 하였다. 셋째, 아이팟, 아이폰, 아이패드, 매킨토시PC, iTV 등 모든 기기에 아이튠즈와 앱스토어를 탑재하고 있는 클라우드 앱과 페이스북 메신저 챗봇의 다양한 콘텐츠를 학습시스템에 활용하였다. 연구 대상은 충남 천안시 대학에서 재학 중인 학생 120명이었다. 실험집단과 통제집단의 사전 시험, 사후 시험, 학습 활동에 대한 평가를 통한 성취도를 분석하고 또한 실험집단의 설문 조사를 통하여 통계분석을 하였다. 연구결과는 다음과 같다. 첫째, 로봇은 학생과 같은 콘텐츠 사용자, 교사 같은 콘텐츠 제작자, 실제 자료 콘텐츠 간의 상호작용을 강화할 수 있어 외국어교육에 있어 매우 효과적이다. 둘째, 교육용 로봇 기반 학습시스템은 학습자에게 자기 주도학습의 동기를 부여하였다. 셋째, 사전 테스트와 사후 테스트 결과는 제안된 학습시스템이 로봇과 인공지능 앱을 기반으로 한 학습시스템이 학생들의 성취도 향상에 효과적이었다.
국내 고준위 방사성폐기물 심층처분시스템에 대한 프로세스 기반의 종합성능평가체계(APro) 개발을 위하여 사용자 편의성이 향상된 모델링 인터페이스를 구축하였다. APro의 모델링 인터페이스는 프로그래밍 언어인 MATLAB을 이용하여 구축되었고, 다중물리현상 모사가 가능한 COMSOL과 지화학반응 계산이 가능한 PHREEQC를 계산 엔진으로 활용하여 연산 자분리 방식을 적용하였다. APro는 모델링 영역을 기존의 정형화된 처분시스템으로 제한함으로써 모델의 자유도는 낮지만, 사용자 편의성을 향상시켰다. 처분시스템에서 고려되는 주요 현상들을 모듈화하였고, 이를“Default process”와 다수의“Alternative process”로 구분하여 사용자가 선택할 수 있도록 함으로써 모델의 유연성을 높였다. APro는 크게 입력자료 부분과 계산실행 부분으로 구성된다. 기본 입력자료는 하나의 EXCEL 파일에 일정한 포맷으로 정리되고, 계산실행 부분은 MATLAB을 이용하여 코딩되었다. 최종적인 전체 계산 결과는 독립적인 COMSOL 파일 형태로 생성되도록 하여 COMSOL을 이용한 계산 결과의 후처리가 가능하도록 하였다.
손끝은 최고의 촉각 센서이자 최고의 운동 기관이다. 많은 기술자들은 손끝의 감각에 의존하여 그들의 정확하고 숙련된 솜씨로 결과물을 만들곤 한다. 컴퓨터 게임 역시 섬세한 조작을 요구하는 분야임에도 불구하고 제작과 구현의 어려움 때문에 대부분의 게임 인터페이스들은 촉각이나 손이 나타내는 복잡한 표현들은 고려하지 않는다. 또한 VR이 빠르게 발전하고 있고 여러 종류의 가상 환경 몰입형 입력 장치들이 나타나고 있지만, 그들의 기술 수준은 게임 패드에 각종 센서가 추가된 정도에 머무르고 있다. 본 논문에서는 손가락의 위치를 통한 3D 인터페이스를 설계하는 방법론을 소개한다. 전통적으로 손을 인식하는 입력 방식에서는 주로 몇몇 제스쳐와 간단한 표현들을 인식하는데 그쳤으며, 상대적으로 미소한 손가락 관절의 움직임이나 손과 손 사이의 상호작용 등의 복잡한 제스쳐에 대해서는 전혀 고려하지 못하고 있다. 본 방법론은 이러한 표현들을 어떻게 구현할 것인지 제시하며, 손가락의 위치나 각도 등 복합적인 데이터를 계산하여 의미 있는 정보들을 도출해낼 수 있게 한다. 또한 실험을 위해 구현된 간단한 프로그램에서는 구체적으로 어떻게 작동하는지와 무엇을 표현할 수 있는지 보여준다. 이를 통해 3D와 몰입형 가상 환경에서 손이 나타내는 복잡한 표현들을 구현하는데 적용될 수 있을 것으로 예상된다.
최근 가상현실 기술이 대중들에게 인기와 관심을 가지기 시작하면서 다양한 콘텐츠가 등장하고 있다. 특히 가상현실 디바이스를 활용한 가상현실 게임이 사용자와 시장에서 많은 관심을 받고 있으며 가상 현실 게임이 많이 개발되고 있는 추세이다. 가상현실 게임의 특징은 가상현실 디바이스를 통해 현존감 을 느끼며 몰입감을 극대화 시킬 수 있다는 장점을 가지고 있다. 이러한 장점을 활용하여 가상현실의 공간형 디스플레이 환경에서 디바이스의 인터페이스를 통해 여러 상호작용 아이템과의 상호작용을 할 수 있어 현존감 있는 경험이 가능하다. 이러한 특징을 극대화하여 사용자에게 보다 높은 몰입감과 흥미를 발생 할 수 있는 방안을 연구 하고자 한다. 설계 방안을 제시하기에 앞서 대중화된 가상현실 게임내의 상호작용 아이템과 인터페이스 설계방식을 분석하여 몰입감을 증대 시킬 수 있는 방안을 찾는 것이 본 연구에 목적이다. 연구에서 게임의 인터페이스와 상호작용 아이템간의 관계를 정리하였고 이를 기반으로 가상현실 게임 사례를 들어 가상현실 게임 내의 아이템 인터페이스의 설계 방식을 비교 분석하는 연구를 진행하였다. 연구를 통해 보다 몰입감이 높은 가상현실 게임의 인터페이스 설계 방안의 기반이 되는 선행연구가 될 것으로 기대한다.
아케이드 슈팅게임은 과거 1970년대 후반부터 1990년 후반까지 대중적으로 큰 인기를 끌며 게임시장을 주도했다. 하지만 2000년대 이후 많은 PC와 콘솔의 보급으로 아케이드 게임이 급속도로 쇠퇴하기 시작했다. 하지만 최근 국내에서 하락세를 보였던 아케이드 게임이 크게 상승세를 보였고 앞으로도 점점 상승할 가능성이 높아 보인다. 따라서 본 논문은 아케이드 게임의 특징인 빠른 손동작을 최신 기술과 접목시켜 새로운 입력 방식을 개발함으로 더 높은 효용성을 끌어내어 검증 한다. 기존에 슈팅게임에서의 제스처 인터페이스 사용은 이미 그 효용성이 검증되었다. 다만 좀 더 복잡한 완성형 게임에서의 적용하기엔 미흡한 부분들이 있다. 이에 슈팅게임들의 요소를 좀 더 세분화하여 분석 후 각 요소들을 제스처에 매핑하였다. 기존 게임에선 조이스틱을 손으로 흔들며 진행하는게 일반적인 방식으로 본 게임에선 사용자가 직접 손을 상하좌우로 움직여 조작한다. 또한 진행에 필요한 스킬과 이벤트들을 각각의 매핑 된 제스처 로 인터랙션 한다. 개발된 인터페이스는 슈팅게임 'Cure'에 적용하여 G-Start, HCI creative Award 등에서 전시되었다.
최근 홈로봇에 대한 관심이 인공지능의 발전과 함께 급증하고 있다. 단순히 대화가 가능한 로봇이 아니라 소니의 아이보와 같은 펫로봇 형태를 비롯해 교육, 엔터테인먼트, 안내, 청소와 같은 각기의 세부적인 기능에 특화되어 있는 로봇들이 속속들이 우리 앞에 나타나고 있다. 한편, 클라우드기반의 인공지능 알고리즘과 음성인식을 이용한 AI스피커가 단순히 소리를 전달하는 기능을 뛰어넘어 명령을 알아 듣고 이를 실행하거나 이에 대한 답을 제공하는 기기로 진화하고 있다. 이러한 기능의 변화는 텍스트에서 그래픽유저인터페이스로 진화된 MMI(Man-Machine Interface)의 새로운 세대를 예고하고 있다. 본 연구에서는 홈로봇의 현황과 홈로봇에 적용될 ABI(Audio Base Interface, 음성기반인터페이스)로서 AI스피커에 대해서 고찰하고 있다.
자율주행자동차의 가장 큰 특성은 자율주행시스템이 인간의 운전을 대신한다는 것이다. 자율주행시스템이 인간의 직접 운전을 가능하게 하는 핵심기술은 운행 차량 내부 통신기술, 각종 센서와 CPU(중앙처리장치) 의 인터페이스(Interface) 디자인 소프트웨어 알고리즘기능으로 요약할 수 있다. 인터페이스의 매개체 기능은 사물의 경계 부분과 그 지점에서의 통신, 접속을 용이하게 하는 것을 의미하며 하드웨어 인터페이스 디자인 , 소프트웨어 인터페이스 디자인 사용자 인터페이스 디자인의 세 가지로 구분된다. 그러나 각각의 시스템 핵심기술 요소의 인터페이스가 제대로 작동하지 않으면 기존 인간의 직접 운전으로 발생하는 자동차 사고보다 더 치명적 인 경우가 예상되고 유기적인 인터페이스 디자인 기능을 검증하여 사고 원인을 명확하게 밝히는 것 또한 쉽지 않다. 또한, 사고의 원인을 블랙박스 등 데이터 수집 장치를 통해 시간적, 공간적 상황 자료를 수집한다고 하더라도 이를 곧바로 자율주행 자동차 사고의 원인으로 확정하고 법적 책임을 부과할 지는 매우 불명확하다. 따라서 본 연구에서는 인터페이스(Interface) 디자인 소프트웨어 알고리즘에 의해 운행되는 자율주행자동차의 독특한 특성을 도외시하고 사고 시, 단순히 운행자 중심의 일반적인 민사배상책임 논리를 적용하거나 자동차 결함이라는 차량 제조자의 제조물책임을 인정하는 것에 의문을 제기하고 인터페이스(Interface) 디자인 소프트웨어 알고리즘 결함에 따른 합리적인 법 해석 원리와 제도적 개선안을 제시하려 한다. 또한, 본 연구는 자율주행 인터페이스 디자인의 중요성을 확인하고 차량 주행시 안정성 확보를 위한 효과적인 산업 디자인 기능과 효용성을 접목시키려는 목적으로 법, 제도적 측면과의 융합적 연구를 시도하였다.
In this paper, we propose English word display interfaces to improve short-term memory: a basic display, a rotation change display, a size change display, and a color change display. Using these display interfaces, we apply the word recall memory test to users. Experimental results show that the users recall more English words in the rotation change display and the color change display, as compared with the basic display and the size change display. Also, the users think that the rotation change display and the color change display are more helpful for short-term memory than the basic display and the size change display. It describes that the word display interface can have an influence on short term memory.
In this paper, we analyze user's manipulation and reaction in an accelerometer-based game interface, as compared with a touch joystick-based game interface. To roll the ball, the user carefully grabs and adjusts the smartphone with both hands in the accelerometer-based game interface; while the user very quickly clicks the up, down, left, right, buttons in the touch joystick-based game interface, because it is already familiar to the user. The accelerometer-based game interface is relatively more immersive and interesting than the touch joystick-based game interface; because the user gets more desired results by elaborately operating the game with both hands rather than by clicking the buttons with the thumb.