스텔스 게임에서 플레이어의 행동을 예측하는 것은 게임 디자인에 있어서 핵심적인 역할을 한다. 하지만, 플레이어와 게임 환경 간의 상호작용이 실시간으로 일어난다는 점에서 이러한 예 측 프로세스를 자동화하는 것은 어려운 문제이다. 본 논문은 동적 환경에서의 스텔스 움직임을 예측하기 위한 강화학습 방법을 소개하며, 이를 위해 Q-learning과 인공신경망이 통합된 형태 의 모델이 액션 시뮬레이션을 위한 분류기로 활용된다. 실험 결과들은 이러한 시뮬레이션 에이 전트가 동적으로 변하는 주변 상황에 민감하게 반응함을 보여주며, 따라서 게임 레벨 디자이너 가 다양한 게임 요소들을 결정하는데 유용함을 보여준다.
NPC, 특히 적 캐릭터들의 인공지능은 게임의 설계 단계에 있어 난이도를 조절하기 위해 핵심적인 요소이다. 지능적인 적들은 게임을 보다 도전적으로 만들 뿐 아니라, 동일한 게임 환경에서도 유저들 에게 다양한 경험을 제공할 수 있다. 오늘날 대부분의 게임 유저들은 다수의 적들과 상호작용을 하기 때문에, 적 캐릭터들의 협업을 제어하는 것은 이전 어느 때보다 그 중요성이 크다고 할 수 있다. 본 연구는 팩맨 게임의 적 인공지능에 구현될 수 있는 A* 알고리즘 기반의 협력전술을 제안한다. 17명 의 피실험자로부터 얻은 설문 결과는 제안된 협력전술을 따르는 적으로 구성된 레벨이, 기존 팩맨게 임에서의 적들 또는 비협력적인 적들로 구성된 레벨들보다 더 어렵고 흥미로웠음을 보여준다.