논문 상세보기

A Study on Game Character Learning Based on Player Behavior KCI 등재

사용자 행동 기반 게임 캐릭터 학습에 관한 연구

  • 언어ENG
  • URLhttps://db.koreascholar.com/Article/Detail/380723
구독 기관 인증 시 무료 이용이 가능합니다. 4,500원
한국컴퓨터게임학회 논문지 (Journal of The Korean Society for Computer Game)
한국컴퓨터게임학회 (Korean Society for Computer Game)
초록

모바일 게임 시장이 스마트폰 중심으로 변화되기 시작하면서 모바일 게임에서는 오토 플레이 시스템이 적용되기 시작하였다. 오토플레이 시스템은 버튼 한번으로 게임을 자동으로 진행하는 시스템 이며 현재 거의 대부분의 모바일 게임에서 적용되었고 PC게임에서 까지 이러한 시스템이 적용되고 있다. 하지만 이러한 오토 플레이 시스템의 성능은 매우 비효율적으로 행동하고 있으며 본 논문에서는 플레이어의 행동 패턴을 기반으로 학습한 인공지능을 제안하고자 한다. 본 논문에서 제안하는 인공지능 모델은 플레이어가 게임을 진행하면서 게임 데이터와 플레이어가 입력한 버튼 값을 학습 데이터로 저장하고 학습데이터를 DNN(Deep Neural Network) 신경망 모델을 사용하여 학습하였다. 게임에서는 플레이어가 중복적으로 다른 버튼을 동시에 누르기 때문에 Output Layer를 다층으로 분류하여 학습을 진행했다. 본 논문 실험에서는 20명의 실험자들에게 제안하는 인공지능 모델을 사용함으로써 결과를 기록하였고 트랙을 일정하게 벽을 부딪치지 않고 달린 플레이어 데이터만 제대로 학습되어 결과를 얻을 수 있었고 그렇지 않은 플레이어의 데이터는 캐릭터가 제대로 이동하지 않아 결과 값을 얻을 수가 없었다. 또한 간단한 아케이드 게임을 만들어 강화학습과 비교하였으며 강화학습보다 성능은 좋지 않았지만 학습속도가 약 10배 빨랐다.

The autoplay system is a system that automatically plays the game with the one click of a button. Currently, almost all mobile games use this system, and some PC games also use this system. However, this autoplay system tends to play games inefficiently. In this paper, we propose artificial intelligence based on the player's behavior pattern to improve the disadvantages of autoplay system. The artificial intelligence model proposed in this paper stores game data and input button values when a player plays a game as learning data. This stored data was learned using DNN (Deep Neural Network) model. In the game, because the player repeatedly presses another button at the same time, we proceeded to use the multiple Output Layers. We loaded the learned data back into Unity3D and applied it to the character to check the result. It was found that the lap time and the movement path were different each time it was executed. In this paper, we record the results by using the artificial intelligence model proposed by 20 experimenters. Only the data of the player with the constant track without crashing against the wall was learned properly, and the data of the player who did hit the wall could not get the result because the character did not move properly. We also made a simple arcade game to compare reinforcement learning with our AI model. The performance was not as good as reinforcement learning, but the learning speed was about 10 times faster.

목차
ABSTRACT
1. Introduction
2. Related research
    2.1 Auto Play
    2.2 Replay a Game
    2.3 Deep Learning
3. Main subject
    3.1 Proposed artificial intelligence
    3.2 Data Collection
    3.3 Learning
4. Experiment
    4.1 Performance evaluation of proposed models
    4.2 Comparison with Reinforcement Learning
5. Conclusion
Reference
국문초록
결론 및 향후 연구
저자
  • Hye Moon LEE(Graduate School of Advanced Imaging Science, Multimedia and Film, Chung-Ang University) | 이혜문
  • Ji Hyeong SON(Graduate School of Advanced Imaging Science, Multimedia and Film, Chung-Ang University) | 손지형
  • Jae Min KIM(Graduate School of Advanced Imaging Science, Multimedia and Film, Chung-Ang University) | 김재민
  • Won Hyung LEE(Graduate School of Advanced Imaging Science, Multimedia and Film, Chung-Ang University) | 이원형 Correspondence to