최근 딥러닝은 자기공명영상 검사에서의 화질 개선을 위해 다양하게 활용되고 있다. 하지만 다양한 자기공명영상 검사에서 딥러닝이 적용된 기법과 상황에 대한 평가는 부족한 편이다. 이에 본 연구에서는 모션 ACR(American College of Radiology) 팬텀을 활용하여 일반적인 상황과 움직이는 상황에서 T2-PROPELLER(periodically, rotated overlapping parallel lines with enhanced reconstruction, PROPELLER)와 T2-FSE(fast spin echo, FSE) 기법의 화질을 비교 평가해 보고자 하였다. 연구 결과 움직이지 않는 상황에서의 딥러닝 프로세스를 적용하였을 때 유의미한 신호대잡음비와 대조대잡음비의 상승을 보였다. 하지만 팬텀에 움직임을 주는 동적인 상황 에서 딥러닝 프로세스를 적용하였을 때 유의미한 화질 개선을 보이지 않았다. 이러한 결과는 딥러닝 프로세스를 절대 적으로 사용하기보다 다양한 상황에 맞게 선택적으로 적용하는 것이 필요할 것으로 사료된다.
본 연구에서는 노인의 건강 증진 및 건강 유지를 위해 노인 맞춤형 운동 애플리케이션 개발을 목표로, 스마트폰을 활용한 실시간 동작 추적 기술과 영상과 사진을 바탕으로 한 AI 학습을 통 해 단계별 동작 인식과 판단이 가능한 운동 동작 모델을 구현하였다. 노인 맞춤형 운동 애플리 케이션은 실시간 피드백을 지원하고, 노인의 운동 능력과 신체 가동 범위에 적합하게 단계적 운동이 가능하도록 구현되어야 할 것이다. 이를 위해 본 논문에서는 골포스트 스퀴즈(Goal Post Squeeze) 운동 동작을 대상으로 하여 이를 일련의 단위 동작으로 설계하고, MoveNet 포 즈 추정 기법을 기반으로 동작 인식 모델을 개발하였다. 구현한 운동 동작 모델에 대한 작동 실험 결과 단계별 데이터 인식과 판단, 정동작과 오동작 판단, 수평유지를 판단하고 이를 바탕 으로 사용자에게 실시간 피드백을 제공할 수 있음을 확인하였다.
최근 미디어아트와 공연예술 분야에서 예술과 기술의 융합을 활용한 다원예술의 공연들이 늘어나고 있다. 공연 자와 관객들 사이의 실시간 커뮤니케이션이 이루어지는 공연예술은 관람객들이 전시의 형태로 이를 감상하는 미 디어아트와는 달리, 작가의 의도를 공연자의 퍼포먼스와 배경, 무대장치들을 통해 간접적으로 전달하는 형태를 취한다. 본 연구는 비언어적 커뮤니케이션의 형태로 관객들의 실시간 소통이 중요한 예술공연에서, 게임엔진과 실시간 인터렉션 기술들을 접목한 공연사례들을 분석해보자 한다. 게임과 영상 분야에서 주로 사용되었던 언리 얼 엔진과 비주얼 인터렉션 기술들은 실시간 리얼타임 비주얼 출력이라는 강력한 이점으로 인해 다양한 분야에 서 폭넓게 활용되고 있고, 예술공연 분야로도 점차 확대되고 있다. 따라서 미디어아트 공연분야에서 실시간 인터 렉션 기술이 접목된 다원예술 공연들을 살펴보고 어떠한 시도와 움직임들이 있는지 살펴보고 분석해보고자 한 다. 이를 통해 미디어아트 분야 뿐만 아니라, 공연예술 및 다원예술 분야에서도 미디어아트와 실시간 인터렉션 공연을 접목시킨 다양한 형태의 예술공연들이 늘어나고 관련 제작 및 방법론 연구에 도움이 되고자 한다.
본 논문은 일반적인 상황이 아닌 전시라는 특수한 환경에서의 영상기반 AI 모션캡쳐 적용방법의 다양한 시도 를 살펴보았다. 이전의 방식을 살펴보면서 다양한 전시 환경과 조건에 따라 활용 가능한 방법을 연구하고, 장 단점을 서술하여 인터렉션 전시공간에 적용 가능한 영상기반 AI 모션캡쳐 모션캡쳐 기술의 필요성과 적용 가 능성을 설명한다. 또한 MIVA 프로젝트를 진행하면서 전시공간이라는 비규격화 된 공간에서의 불편한 점을 파 악하고 이에 대한 대응할 수 있는 기술적인 환경 구성에 대하여 정리하였다. 또한 실제 공간에서 캡쳐 프로그 램을 설치하고 전시에 적용하면서 생기는 문제점을 파악하고 해결하면서 적절하게 적용 가능한 모션캡쳐 기 술 환경 파이프라인을 제안한다.
To solve the pathological problems of the musculoskeletal system based on evidence, a sophisticated analysis of human motion is required. Traditional optical motion capture systems with high validity and reliability have been utilized in clinical practice for a long time. However, expensive equipment and professional technicians are required to construct optical motion capture systems, hence they are used at a limited capacity in clinical settings despite their advantages. The development of information technology has overcome the existing limit and paved the way for constructing a motion capture system that can be operated at a low cost. Recently, with the development of computer vision-based technology and optical markerless tracking technology, webcam-based 3D human motion analysis has become possible, in which the intuitive interface increases the user-friendliness to non-specialists. In addition, unlike conventional optical motion capture, with this approach, it is possible to analyze motions of multiple people at simultaneously. In a non-optical motion capture system, an inertial measurement unit is typically used, which is not significantly different from a conventional optical motion capture system in terms of its validity and reliability. With the development of markerless technology and advent of non-optical motion capture systems, it is a great advantage that human motion analysis is no longer limited to laboratories.
VR은 사용자가 가상 공간에 완전히 몰입하고 상호 작용할 수 있는 가상 세계이다. 본 연구는 스톱모션 애니 메이션을 VR 애니메이션으로 제작할 시 효과적인 객체 표현 방법에 대한 내용을 제시하고자 한다. 실험 결 과 데이터는 VR 스톱모션 애니메이션 및 일반 스톱모션 애니메이션, VR게임 등 다양한 콘텐츠에 적용이 가 능하다. 3D 오프젝트의 변화되는 형태를 앵글별로 3D 스캔한 후 게임엔진에서 다양하게 활용할 수 있도록 데이터화 한 뒤 콘텐츠에 적용하여 구현한다. 기존 스톱모션 애니메이션에서 느낄 수 있는 수작업 느낌을 살리되 디지털적인 이펙트를 추가적으로 이용할 수 있는 장점이 있다. 기존의 스톱 모션 애니메이터들이 접 근하기 힘든 영역을 작업하는데 필요한 세가지 모듈을 구현하여 실험하였다. VR 콘텐츠 제작에서 오브젝트 의 표현과 관련된 분야의 발전에 기여하게 될 것이며 새로운 방향을 제시할 것이다. 향후 연구에서는 각 캐 릭터 관절의 움직임에 따른 3D 스캔 데이터 관련 연구를 수행할 예정이다.
Leap Motion is a virtual reality controller which allows users to interact with the virtual objects using their bare hands. However, the controller only allows the detection of hands up to 60cm from the sensor, which means that users cannot interact with virtual objects outside the same range in the virtual space. In this paper, we propose a new interaction method to overcome the limitation of the manipulation range. The movement of virtual hands in the virtual space is accelerated by the velocity of the hand movement and the range of the reachable virtual space is expended to the current view of the virtual space. Experimental results show that users can manipulate long-distance objects in a coherent and convenient way.
In this paper, we developed 3D games which use lip-motion input device and displayed it on a non-glass 3D display using integral video method. The games called Jenga and Cubes are developed by using unity3D. Potential immersion and usability of games displayed by integral video method is experimentally tested. Experiment participants played the test games and are surveyed to measure immersion and potential usability. In this survey, the immersion scored 3.83 out of 5 in average, and we confirmed relatively higher satisfaction than 2D display. Positive results on implementation of non-glass 3D display on game contents are obtained from the experiment and survey.
This study aims to explore game backgrounds and content generation using motion graphics. Motion graphics can be utilized to generate contents in various fields including games, cartoons, movies, animations, characters, advertisements, etc. This study identifies how game backgrounds and game scenes are simply generated by utilizing motion graphics. And synthesizing techniques are used to generate game backgrounds and game scenes. Also, for game backgrounds and characters, motion graphics are applied to simply express special effects such as various flames, blazes, thunderbolts, etc. On the subject of secondary school students, this study evaluates their game background and character generation competencies with two methods to develop game industry and improve content personnel. Evaluation results of 88 points and 85 points are shown from the evaluation of the last results for evaluation items according to the standard of 100 points, and it suggests that game development personnel and character content production personnel be reserved with professional education and support in the future.
This research introduces the development of fairy tale system directed behavior training game platform with brainwaves and motion sensing cognitive technologies for Attention Deficit Hyperactivity Disorder (ADHD) children. The system includes three major functions: 1) the brainwaves and motion recognition; 2) the interactive intervention with narrative contents; and 3) the sensor and intervention data management. The narrative contents combined with fairy tales and other elements for the game platform including characters, perspectives, quests, and scenes are integrated into the system. While a child is playing a given fairy tale, the child’s brainwaves and motion sensing data are transmitted to the system. This system simultaneously controls the intervention procedure, helping the child concentrate on the story and accomplish quests appropriately. The main contribution of this system is to help children with ADHD manage their behavior by continuously intervening them to increase the attention to the fairy tales and feel confidence on themselves with the improved test results.
The need for contents that uses motion capture has increased recently. Motion capture realizes the various motions as the data collected through the marker reacts to the characters after being converted to digital data. However, if generalizing the various methods that have been conducted so far, it is somewhat unreasonable to complete animation only with motion capture. The existing motion capture field have been carried out based on the equipment operation and technology development and the advanced research of motion capture-producing pipeline for the production of animation is insufficient as well. This study suggests the realistic animation-producing pipeline by modeling, character setup, calibration, motion capture, data modification and integration of animation for each phase based on such methods.
The paper suggests Game Motion Library Tool that utilizes Kinect 2.0 to simplify pipeline of character motion production that fits into the game concept and to use saved motion data actively. In order to develop Game Motion Library Tool, motion library was constructed to be organize motion data with BVH file which was produced by using Max Script language that can enable FBX file and motion data collected through Kinect 2.0 to be used in 3ds Max, and then BVH file was brought to the 3ds Max to convert it to BIP file automatically and applied in characters.
This research introduces the interactive fairy tale system based on BCI and Motion Sensing Technology for Children with ADHD. ADHD is a specific disorder which shows deficits in sustained attention, behavioral inhibition, resistance to distraction, and the regulation of one’s activity level to the demands of a situation (hyperactivity or restlessness). The interactive fairy tale system implemented on the Unity3D engine is expected to keep track of a player's time-varying brainwave and motion logs through NeuroSky’s MindWave Brain-Computer Interface (BCI) and Microsoft’s Kinect motion sensing technology. The proposed system helps us take a closer look at the player's behavior than performing a video shoot or direct observation. In addition, as the system keeps the observed data, it is possible to constantly track the changes on the player's brainwave and behavior, and synthetically assess the effect of the proposed approach from many different aspects.
In this research we investigate motion controller performance for mobile robots according to changes in the control loop sampling time. As a result, we suggest a proper range of the sample time, which can minimize final posture errors while improving tracking capability of the controller. For controller implementation into real mobile robots, we use a smooth and continuous motion controller, which can respect robot’s path curvature limitation. We examine motion control performance in experimental tests while changing the control loop sampling time. Toward this goal, we compare and analyze experimental results using two different mobile robot platforms; one with real-time control and powerful hardware capability and the other with non-real-time control and limited hardware capability.
화살깍지벌레(Unaspis Yanonensis (Kuwana))는 노린재목 깍지벌레과(Diaspididae)에 속하는 곤충으로 감귤의 중요한 해충으로 알려져 있다. 본 연구는 화살깍지벌레 부화 약충이 감귤 잎에서의 정착행동을 구명하기 위하여 모션트래킹 기술을 이용하였고 다음과 같은 결과를 얻었다. 화살깍지벌레 수컷 약충은 정착 군집내에서 일정한 방향성을 보였는데 좌우 30° 범위 내에서 86.1%의 약충이 정착하였다. T-제곱표본조사법을 이용하여 수컷 정착군집분 내 개체들의 분포양식을 분석하였다. 수컷 약충의 최인접 개체와의 평균거리는 0.45 mm 이었다. 공간분포양상을 나타내는 C-지수값(Index of spatial pattern)은 0.58을 보였고, C=0.5와 같다는 귀무가설의 통계검정 결과 유의성이 인정되어 집중분포로 나타났다. 분산지수 I-지수값(Distance index of dispersion)은 2.29를 보였고, 2.0과 같은지 통계 검정한 결과 임의분포(random)로 나타났다. 모션 경로 추적 기술(Motion tracking technology)을 이용한 약충의 이동경로를 분석하였다. 수컷 약충의 이동경로는 암컷 성충과 기존 정착 약충 근처에서 좁게 움직이며 회전하는 특성을 보였고, 암컷 약충은 잎 경계면의 영향을 받으며 직선적인 이동경로를 나타냈다. 수컷은 암컷보다 90° 이상 회전 각도 및 기정착된 부화 약충과의 접촉횟수가 훨씬 많았으며, 이미 정착된 수컷 약충이 2마리 이하일 때 새로 나온 부화 약충의 정착까지의 시간이 유의하게 증가하였다. 암컷 어미성충에서 새로 나온 수컷 부화 약충이 정착 직전 최후로 접촉한 약충 개체를 기준으로 했을 때 새로 정착한 약충의 정착각도는 평균 11.4°로 정착각도의 방향성이 일치했다.
As more computer game integrates with video and working under mobile environments, it requires seamless bandwidth limited video transport environment including integrated game video compression and real time video conference between game users. Video transmission system consists of encoder and decoder. In communication environment, when the encoder transmits the stream data to the decoder, the bit-stream is alternated or lost because of various channel noises. Altered and lost bit-stream data cause the loss of the video data intensity value or motion vector (MV) value. These lost data cause serious damage of the video quality. In this paper, we propose MV recovery method because MV is essential information to keep the better video quality. To recover the lost MV, we use adjacent block’s MV as input data of Kalman filter to estimate the optimized value for current block’s lost MV. In our experimentation with the standard video image: Mobile&Calendar and Susie, our proposed method achieved 0.497dB ~ 1.898dB improvements on video quality over no MV recovery and achieved average 0.03dB ~ 0.725dB improvements over SRMC scheme.
본 논문에서는 모션그래픽을 이용한 다양한 콘텐츠 제작 기법에 대해서 나타내었다. 모션그래픽은 영상 커뮤니케이션 언어로서 움직이는 그래픽이라고 할 수 있다 모션그래픽의 특징은 콘텐츠에 상용 작용한다 움직임은 시간과 공간의 개념을 가지고 있다 움직임은 애니메이션으로 표현되어 게임으로 응용된다 모션 그래픽은 이미지 비디오 사운드 등의 요소들을 이용하여 창의적이고 효과적인 영상들을 만든다 모션그래픽은 웹 문서를 포함하여 비디오 제작 게임 등 다양한 콘텐츠들을 제작 할 수 있다 본 논문에서는 모션 콘텐츠 제작을 위하여 다양한 콘텐츠 표현 기법들을 나타냈다.
캐릭터 애니메이션 생성을 위해서는 대용량의 기하 모델 데이터와 모션 데이터 처리를 요구한다. 본 연구에서는 이러한 캐릭터 애니메이션 데이터를 다기종 컴퓨터 환경에서 교환하여 사용할 수 있는 방법에 대해서 기술한다. 캐릭터는 일반 그래픽스 도구를 이용하여 H-Anim ISO/IEC JTC1 SC24 표준화 그룹과 Web3D Consortium에 의해 제정된 국제표준인 H-Anim 기반에서 새로 확장된 구조로 제작한다. H-Anim은 현재 인간형 캐릭터 구조의 전송이나 저장에 필요한 계층적 데이터 구조를 X3D 기반으로 정의하고 있으나 캐릭터의 움직임 표현이나 전송을 위한 애니메이션 데이터에 대해서는 정의되어 있지 않다. 본 연구에서는 H-Anim 표준에 애니메이션에 필요한 추가적인 기능을 새로 제공하여 캐릭터 애니메이션 데이터가 호환성을 가질 수 있도록 데이터 형식을 정의하고, 이 때 H-Anim 구조를 만족시키도록 해주기 위한 캐릭터 모델링의 조건과 제작 방법을 설명한다.