기술의 발전은 예술에도 큰 영향을 준다. 기술이 발전함에 따라 예술계의 양상은 변화하였다. 그러나 단순 기술집약적, 기술 제안 예술이 늘어남에 따라 예술적 가치를 중요시하는 작품을 위한 연구가 필요하다. 따라서 본 연구에서는 현존감을 주는 매체 VR을 활용한 인터랙티브 아 트를 연구하며 몰입감을 주는 미디어아트 제작을 도모함으로써 예술적 가치의 확장을 보여준 다. 몰입감을 위한 비교를 위해 실사 영상 작품과 VR 게임 작품을 관조형 작품과 참여형 작품 으로 제작하고 전시하여 관객들에게 차이점과 연관성을 제시하고 설문조사를 통해 분석한다.
본 연구는 농촌 리얼리티쇼 팬들의 형성 요인을 분석한다. 관객이 리 얼리티쇼를 더 진정성 있게 판단할수록 더 많은 사람들이 좋아하며, 새 로운 미디어 시대에 관객 참여는 리얼리티쇼의 중요한 부분이다. 이 연 구는 인지된 진정성(perceived authenticity)과 관객 참여가 농촌 리얼 리티쇼 팬 형성에 미치는 영향을 분석하는 방법을 사용한다. 연구 결과에 따르면 농촌 리얼리티쇼 팬 형성 요소를 향상시키기 위해서는 출연자의 개성(cast members eccentricity)을 강화하고, 대표성(representativeness)을 낮추며, 출연자의 솔직함(candidness)을 높이고, 제작자의 조작(producer manipulation)을 줄이며, 관객 참여(audience involvement)를 증가시켜야 한다. 본 연구는 <농사짓자>라는 사례를 바탕으로 농촌 리얼리티쇼의 팬 형성을 촉진하는 관련 조치를 정리하여 한국과 중국에서 자체 개발한 오 리지널 리얼리티쇼 제작에 대한 참고 자료를 제공하며, 다른 유형의 리 얼리티쇼 팬 형성 요소에 대한 이론적 연구의 기초를 마련한다.
본 사례 연구는 실시간 음성인식을 결합한 설치 작품의 기술, 언어학과 인터랙티브 아트의 융합을 탐구하는 것을 목표로 한다. 따라서 음성인식 기술이 언어라는 축을 통해 ‘Spect’actor’에게 어떻게 전달할 수 있는지에 대한 예술적 관점과 심도 깊은 이해를 도모하고자 한다. 본 연구는 음성인식 기술을 통한 미디어아트 해석 의 가능성을 전반으로 확대하고, 특히 인터랙티브 미디어아트 분야에서 회화적 자동 음성인식을 통한 미디어 아트 해석의 가능성을 넓히고자 합니다.
본 논문은 언리얼 엔진(Unreal Engine) 기반의 가상환경에서 인공지능 시각화의 대표적인 시스템인 Stable Diffusion을 이용하여 다양한 형태의 인터렉티브 레벨 디자인 구현 방법을 분석하고 제안한다. Stable Diffusion 은 Midjourney와 함께 대표적인 인공지능 시각화 시스템이며 다양한 프로그램 및 툴에 응용되고 있으며 프롬 프트 입력 기반으로 Text to Image, Image to Image는 물론이며 간단한 추가 작업으로 바디 모션 변화까지 자 연스럽게 적용되는 인공지능 시각화 시스템이다. Unreal engine은 현재 5.2까지 업데이트 된 대표적인 게임 엔 진이며 본 연구에서는 5.1을 사용하였다. Unreal Engine은 게임은 물론 애니메이션, 영화CG, 건축, 디지털 트윈 까지 광범위하게 사용되고 있으며 게임 엔진이지만 게임 이외의 콘텐츠 저작 툴로써 점점 더 많이 이용되고 있는 프로그램이다. 본 논문은 이 Stable Diffusion과 Unreal engine을 접목시켜 효과적인 인터랙티브 레벨 구현 을 할 수 있는 프로세스에 관해 분석하고 제안한다. 이미 인공지능은 다양한 2D, 3D콘텐츠에 접목이 시도되 어 실제 퍼블리싱가지 이어지고 있는 시대라고 할 수 있다. 본 연구는 현재 Unreal Engine과 인공지능을 효과 적으로 융합하여 시각적 결과물을 구현하는 방법론을 분석하였으며 효과적으로 구축할 수 있는 토대를 확인 하였다.
디지털 정보 기술의 급속한 발전에 따라 사람들은 점점 더 자연스럽고 편리한 방식으로 인간과 컴퓨터의 상호작용을 실현하는 경향이 있습니다. 본고에서는 Leap Motion 센서를 하드웨어 플랫폼으로 하고 Unity3D 와 Leap Motion 플러그인을 소프트웨어 플랫폼으로 하여 가상 거문고의 상호작용 설계를 개발합니다. 또한 Leap Motion 장치의 개발과 연구를 통해 Leap Motion 센서에서 수집된 제스처 정보의 처리와 인식을 알고리 즘으로 구현하고, 제스처 인식 알고리즘을 이용하여 서로 다른 제스처를 분리하여 서로 다른 응답을 가능하 게 합니다.
랜덤은 게임의 재미에 핵심적인 역할을 한다. 이는 랜덤의 불확실성이 플레이어에게 놀라움을 주기 때문이다. 고전적 게임에서 랜덤은 일반적으로 게임 플레이에 활용되어 왔다. 이러한 랜덤은 스토리텔링에 참여하지 않은 반면, 현재는 인터랙티브 스토리텔링의 서술구조에 랜덤 시스템이 활용된 게임이 계속 등장하고 있으며 많은 플레이어들의 인정을 받고 있다. 이러한 게임들은 플레이어들에게 개인화된 경험을 제공할 뿐만 아니라 게임 스토리텔링 자체도 다양하게 만든다. 이러한 랜덤은 직접적으로 스토리텔링에 참여하며, 스토리텔링의 완전성과 논리성 을 보장하기 위해 항상 통제된 시스템이다. 랜덤 시스템에 있어 합리적인 디자인과 랜덤에 대한 효과적인 통제가 고전적 인터랙티브 스토리텔링에 새로운 가능성을 준다고 할 수 있다. 본 연구는 이러한 랜덤 시스템을 통제적 랜덤 스토리텔링 시스템으로 정의하였고, 그의 필수요소에 대해 분석과 요약을 시도하였다. 그다음에 게임 '레인즈'를 중심으로 통제적 랜덤 스토리텔링 시스템의 구체적인 구조와, 인터랙티브 스토리텔링 측면에서 어떤 특징이 있는지 연구하였다. 마지막으로 실제 게임 개발에 있어, 이러한 통제적 랜덤 스토리텔링 시스템의 활용 방법과 장단점에 대해 검토였다. 연구를 통하여 통제적 랜덤 스토리텔링 시스템은 전통적 인터랙티브 스토리텔링 게임의 트리 구조를 풀고 생성적 스토리의 효과를 실현하면, 생성 가능한 스토리 텔링 양상의 수를 크게 증가시킨다는 사실을 발견하였다. 그러나 이는 독립적 사건의 디자인와 밸런스 디자인에 대한 요구가 높아 비논리적 스토리텔링 양상을 생성하기 쉽다.
시각장애인들에게는 길 찾기 및 탐색이 어려운 과제이기 때문에, 이들의 독립적이고 자율적인 이동성 향상에 대한 연구가 필요하다. 그러나 기존의 점자 촉각 지도는 여러 문제점을 가지고 있다. 이를 해결하기 위해 기술의 발달과 함께 촉각 지도에 다른 인터랙션 방식을 더하려는 시도들이 존재해왔다. 본 연구는 이러한 흐름 속에서 새로운 대화 형 인터랙티브 촉각 지도 인터페이스를 개발하였다. 촉각 탐색을 하는 동안 사용자의 터치를 인식하여 음성 피드백 을 제공하며, 사용자가 음성 에이전트와 대화를 나눌 수 있고 이를 통해 관심 지점에 대한 정보나 경로 안내를 받을 수 있다. 사용성 테스트를 진행하기 위해 프로토타입을 제작하였으며, 실제 시각장애인들을 대상으로 프로토타입 사 용 후 설문 및 인터뷰를 통한 실험을 진행하였다. 점자를 사용한 기존 촉각 지도보다 본 연구에서 제작된 인터랙티브 촉각 지도 프로토타입이 시각장애인들에게 더욱 높은 사용성을 제공하였다. 시각장애인들은 본 연구의 프로토타입을 사용했을 때 더 빨리 시작 지점 및 관심 지점을 찾을 수 있었고 더 높은 독립성 및 확신을 가질 수 있었다고 보고하였다. 본 연구는 시각장애인의 지도 이용 및 경험을 향상시킬 수 있는 새로운 촉각 지도 인터페이스를 제시하였다. 실험에서 프로토타입의 개선 방향에 대한 다양한 피드백을 받을 수 있었다. 아직 개발 단계에 있기 때문에, 이를 반영한 후속 연구를 통해 이를 더욱 발전시킬 수 있을 것이다.
편집이라는 작업은 1895년 이후 110년 동안 다듬어진 2차원 영상 문법의 기술적 요소이자 쇼트(컷)를 연결하는 연출의 핵심이었다. 그러나 2013년 <Windy Day>가 나오면서 영상 문법에 대한 새로운 담론을 요구하고 있다. <Windy Day>는 프레임이 없이 360도 감상이 가능하며 시선과 연동하여 캐릭터 행동과 쇼트의 길이가 달라지는 리얼타임 360 도 3D애니메이션으로서 VR콘텐츠의 출발점이 되었다. 본고에서는 이러한 <Windy Day>의 의의를 소개하고 그동안 VR콘텐츠를 시점과 서사구조, 프레임 등의 개념으로 분석한 것과 달리 ‘인터랙티브 편집’이라는 새로운 시각으로 분석하였다. ‘인터랙티브 편집’은 본 연구에서 처음 제안하는 개념으로서 실시간 3D애니메이션의 속성인 시점에 따라 상호작용으로 영상 쇼트의 연출, 쇼트의 길이와 연결 등 편집적 행위가 실시간으로 발생한다는 점에 집중한 것이다. <Windy Day>는 롱테이크 형식으로 하나의 쇼트만 존재하므로 편집의 의미에 맞는 분석을 위해 공간의 변경에 따른 ‘암묵적 쇼트’를 정의하였다. <Windy Day>에는 350도로 주관적 감상이 가능한 8개의 ‘암묵적 쇼트’가 있으며 각 쇼트를 자연스럽게 연결하기 위해 시점을 유도할 수 있는 캐릭터의 액션과 장면 전환 명령을 위한 공간 트리거를 발견할 수 있었다. 연구가 개발자에게는 다소 기초적인 내용일 수 있으나 영상산업 발전의 중요한 계기가 된 ‘영상 편집’을 인터랙티브 개념으로 정의하고 <Windy Day>를 소개함과 함께 내용을 분석하였다는 데 의의를 찾을 수 있다.
Digital signage in a smart store would engage and invoke responses from consumers because good in-store experiences are more important than ever. Thus, the present study investigates consumer perceptions of interactive digital signage integrating technology acceptance model. Specifically, the current study examined 1) the effects of personal and fashion innovativeness on interactivity; 2) the effect of interactivity on perceived usefulness, ease of use, and enjoyment; and 3) the effects of perceived usefulness, ease of use, and enjoyment on intentions to use the products and the store, visit the store, and engage in word-of-mouth. As a pre-study, two researchers visited the smart stores of six brands in Seoul, all of which integrate various technologies in the fashion field. A video clip was developed as a stimulus to the study. A total of 214 responses were gathered and analyzed. The results were as follows. Personal innovativeness has a significantly positive effect on interactivity, whereas fashion innovativeness has no significant effect. Interactivity had positive effects on the perceived usefulness, ease of use, and enjoyment. Consumer responses (i.e., intentions to use, visit, and engage in word-of-mouth) were predicted by usefulness and enjoyment, but not by ease of use. The findings of this study could provide the fashion industry and retailers practical and valuable insights into enhancing consumers’ in-store experiences through the use of interactive digital signage.
현재 많은 샌드박스 게임들이 출시되고 있으며, 또한 많은 게임들이 샌드박스 게임의 요소를 게임 속에 추가하고 있다. 극도로 높은 자유도에 수많은 게임사용자들이 매료되었기 때문이다. 게임에 자유도를 제공하는 주요 요소 중의 하나가 바로 인터랙티브 스토리텔링이다. 이는 게임 설계 과정에서 매우 중요한 부분으로서 게임의 배경을 제공하고 게임의 현실성을 향상시키며, 게임 몰입도를 높여서 게임에 대한 게임사용자의 흥미를 오랫동안 유지시킬 수 있다. 게임 인터랙티브 스토리텔링 시스템의 주요 구성 요소로는 게임 배경 인터랙티브 스토리텔링과 게임 캐릭터 인터랙티브 스토리텔링이 있다. 이 두 가지 구성 요소는 모두 실제의 게임 모드에 따라 서로 다른 방향으로 진화할 수 있다. 본 연구에서는 성공적으로 게임 인터랙티브 스토리텔링을 설계한 게임인 The Elder Scrolls 5 Skyrim 을 사례로 삼아, 게임 가운데 존재하는 대량의 인터랙티브 스토리텔링 사례 및 이에 대한 게이머의 체험을 분석하였다. 또한 분석 결과를 공통점에 따라 정리하였고, 이를 토대로 게임 인터랙티브 스토리텔링 설계의 보편적인 원칙들을 도출하였다. 그리고 게임에 대한 게임사용자의 주관적이고 직관적인 요소를 통해 명확한 인터랙티브 스토리텔링 설계 모델을 구축하고, 게임 인터랙티브 스토리텔링 을 설계할 때 활용할 수 있는 정성적인 설계 기준과 틀을 마련하고자 하였다. 또한 샌드박스 게임에서의 보편적인 인터랙티브 스토리텔링 설계 방법을 모색하고 피해야할 사항들을 살펴보았다.
최근에는 게임을 플레이어가 직접 즐기는 것 뿐만 아닌 인터넷 방송을 통해 시청하는 경우도 늘어났다. 따라서 예전처럼 기술력을 바탕으로 한 화려한 그래픽뿐만 아니라 플레이어 또는 시청자에게 인상 깊은 스토리를 전달해주는 것 또한 중요해졌다. 본 논문은 게임에서 스토리를 전달하는 방법 중 퀘스트를 인터랙티브 스토리텔링을 고려하여 레벨디자인 할 수 있는 저작도구를 설계하고 구현하였다. 구현된 퀘스트 레벨디자인 저작도구는 NPC, 필드(몬스터), 아이템과 같은 배경 설정을 한 뒤 이들을 연결해주는 인터랙션 설정을 마치면 여러 유형의 퀘스트가 설정해준 내용을 바탕으로 생성된다. 이러한 방식으로 생성된 퀘스트는 인과 관계가 명확하여 플레이어로 하여금 퀘스트의 내용을 쉽게 납득할 수 있도록 도와준다. 또 퀘스트 레벨디자인 저작도구는 프로그래밍을 모르는 기획자도 쉽게 사용할 수 있고 이를 이용하면 시간과 비용이 많이 드는 퀘스트 기획, 제작에 사용할 수 있을 것이다.
These days, contents is not only exists as one genre, but also repeatedly develop to other genre by affect or fusion and developing another contents. This means entertainment industry enters overall OSMU(One Source Multi Use) age. With development of the CG technology filming of the game is actively progressing. Like “Tomb Raider”,“Resident evil”, There is some successful filming of the game case. In other side, there is many fail case of filming of the game also exist.
In this paper we study game element analysis by method of film element analysis for making interactive movie of the game. For this study we using the actantial model of Algirdas Julien Greimas and the five element of film of Linda Seger. With two method, we study modeling interactive movie event flow, to be helpful for film development and possibility suggest through this study result.
In recent years, the interactive systems with large display have been on the rise, and research on these systems is increasing. While prior research has explored various interaction techniques and input devices developed for large display, it focused on interaction devices used at specific distances from the display. This research introduces a multi-scale user interaction approach that utilizes a multi-touch screen, freehand gestures and mobile interfaces to help users seamlessly interact with the interactive system regardless of their distance from the display. An experiment was conducted to evaluate how users adopted the multi-scale user interaction to more effectively perform various user interaction tasks. The result showed that the multi-scale user interaction helped users improve their overall task performance. It also found that users tended to utilize different multi-scale user interfaces to complete different kinds of tasks.
Storytelling in games is different from storytelling in other media in that it must interact with the user. The existing storytelling engine is not appropriate for interactive storytelling in games, so interactive storytelling engine is developed to supplement this shortcoming. However, the interactive storytelling engine uses methods that manages game events. Thus it is not appropriate for games with stories that are composed mainly of characters. This research examines the defects to propose improvement suggestions to apply the existing storytelling engine to games. This would be useful in developing stories that interact with the player in games.
For several years, keyboard and mouse have been used as the main interacting devices between users and computer games, but they are becoming outdated. Gesture-based human-computer interaction systems are becoming more popular owing to the emergence of virtual reality and augmented reality technologies. Therefore research on these systems has attracted a significant attention. The researches focus on designing the interactive interfaces between users and computers. Human-computer interaction is an important factor in computer games because it affects not only the experience of the users, but also the design of the entire game. In this research, we develop an particle filter-based face tracking method using color distributions as features, for the purpose of applying to gesture-based human-computer interaction systems for computer games. The experimental results proved the efficiency of particle filter and color features in face tracking, showing its potential in designing human-computer interactive games.
CIn this paper, I discuss the minimization of the user interface of the interactive fairy tale content based on BCI and Motion Sensing Technology. For this reason, 3 version intervention interfaces of the interactive fairy tale content with Microsoft's Kinect as a non-contact motion sensing device and NeuroSky's MindWave EEG biosensor device as a BCI interface were produced and experimented. The experiments have been accomplished for four children of the first or the second graders by examining three different interactive intervention interfaces: 1) attention indicator by sparkling light; 2) the attention indicator plus behavior instructions; and 3) an indication bar for the attention level plus behavior instructions. As a result of this experimental observations, it shows that the visualized interface such as icons helps the participating children communicate with the fairy tale content system. In addition, they do communicate well without the visualized graphical interfaces when they are demanded by the realistic actions. Whereas, some communication problems have been found neither the realistic actions are requested nor the attention indicators are provided definitely.
본 연구에서는 소셜 비디오 플랫폼 환경에서 동영상 기반 커뮤니케이션을 통해 동영상을 시청하는 사용자와 타인 들 간의 관계가 사용자의 긍정적 감정과 사회적 소속감에 어떠한 영향을 미치는지 살펴보았다. 해당 연구에서는 사 회 충격 이론(Social Impact Theory)과 자기 점검 이론(Self-Monitoring Theory)이라는 심리학 이론을 토대로 동영상 기반의 새로운 상호작용 수단을 활용한 대안을 검증하기 위해 실제 동영상 기반의 소셜 비디오 플랫폼 환경을 구축 하여 실험 연구를 진행하였다. ANOVA 분석 결과, 동영상을 보는 환경에서 타인의 모습이 실시간으로 보일 때, 또는 나 자신의 얼굴이 화면에 함께 제시될 때, 그렇지 않을 때 보다 사용자는 긍정적인 감정과 사회적 소속감을 더 크게 느끼는 것을 확인할 수 있었다. 또한 위의 두 조건이 동시에 제공될 때가 그렇지 않을 때보다 사용자들이 느끼는 긍정적 감정의 증가 폭이 더 컸다. 본 연구 결과를 통해 궁극적으로 새로운 소셜 비디오 플랫폼의 형태에 대한 통찰을 얻을 수 있을 것이라 기대한다.
This research introduces the development of fairy tale system directed behavior training game platform with brainwaves and motion sensing cognitive technologies for Attention Deficit Hyperactivity Disorder (ADHD) children. The system includes three major functions: 1) the brainwaves and motion recognition; 2) the interactive intervention with narrative contents; and 3) the sensor and intervention data management. The narrative contents combined with fairy tales and other elements for the game platform including characters, perspectives, quests, and scenes are integrated into the system. While a child is playing a given fairy tale, the child’s brainwaves and motion sensing data are transmitted to the system. This system simultaneously controls the intervention procedure, helping the child concentrate on the story and accomplish quests appropriately. The main contribution of this system is to help children with ADHD manage their behavior by continuously intervening them to increase the attention to the fairy tales and feel confidence on themselves with the improved test results.
This research introduces the interactive fairy tale system based on BCI and Motion Sensing Technology for Children with ADHD. ADHD is a specific disorder which shows deficits in sustained attention, behavioral inhibition, resistance to distraction, and the regulation of one’s activity level to the demands of a situation (hyperactivity or restlessness). The interactive fairy tale system implemented on the Unity3D engine is expected to keep track of a player's time-varying brainwave and motion logs through NeuroSky’s MindWave Brain-Computer Interface (BCI) and Microsoft’s Kinect motion sensing technology. The proposed system helps us take a closer look at the player's behavior than performing a video shoot or direct observation. In addition, as the system keeps the observed data, it is possible to constantly track the changes on the player's brainwave and behavior, and synthetically assess the effect of the proposed approach from many different aspects.
본 논문은 상황, 시간, 성격에 따른 정서적 특징이 반영된 인공정서를 개발하고, 이를 가진 인터랙티브 캐릭터를 스마트폰을 통해 개발하는 것을 목적으로 한다. 본 논문의 인공정서는 외부의 정서적 자극과 내부의 욕구에 의한 정서 표현을 위해 정서 모듈과 추동 모듈을 갖는다. 정서 모듈은 시간, 성격, 서로 다른 정서 간의 상호관계에 따른 정서의 변화를 담당하는 모듈이다. 추동 모듈은 장시간에 걸친 욕구 변화에 따라 정서적 민감도에 영향을 주는 모듈이다. 또한 방어기제에 의한 정서표현을 위해, 정서를 정서모듈과 추동모듈에 영향을 받는 제 1경로와, 받지 않는 제 2경로로 나누어 처리한다. 이러한 구조를 갖는 인공정서를 가진 인터랙티브 캐릭터를 스마트폰을 통해 개발하였다. 또한 동일한 입력이 주어졌을 때 상황, 시간, 성격에 따라 어떠한 정서적 차이를 갖고 표현을 하는지 시뮬레이션 하였다. 본 논문의 결과물은 인공정서를 가진 인터랙티브 캐릭터를 실제적으로 구현하고, 스마트폰을 통해 표현함으로서 인공정서의 개인화를 가능하도록 한 것에 의의가 있다.