게임 콘텐츠가 점점 복잡해짐에 따라 기존의 수동 테스트 및 스크립트 기반 테스트 방법 은 비용과 테스트 범위 측면에서 한계를 보이고 있다. 본 연구에서는 픽셀 수준의 시각 정 보만을 사용하여 게임의 그래픽 사용자 인터페이스(GUI)와 상호작용하는 딥 강화학습(DRL) 기반 자동 게임 테스트 에이전트를 제안한다. 제안된 에이전트는 ResNet18 기반 시각 인식 모듈과 Proximal Policy Optimization(PPO) 알고리즘을 결합하여, 게임에 대한 어떠한 선 해 정보 없이도 게임 내 장애물을 만났을 때 점프, 웅크리기, 벽 오르기와 같은 회피 방법 을 효과적으로 선택할 수 있다. 실험 결과, 제안된 에이전트는 다양한 장애물 구성 환경에 서 무작위 기준 모델 대비 더 높은 과제 성공률과 안정적인 학습 성능을 보였으며, 이를 통해 블랙박스 게임 환경에서 DRL 기반 자동 테스트의 실현 가능성을 입증하였다.
As game content becomes more complex, conventional manual and script-based testing methods face limitations in cost and coverage. This study presents a Deep Reinforcement Learning (DRL)–based automated game testing agent that interacts with a game’s graphical user interface (GUI) using only pixel-level visual inputs. By combining a ResNet18-based visual perception module with the Proximal Policy Optimization (PPO) algorithm, the agent handles in-game obstacles such as jumping, crouching, and wall-climbing without access to internal game code. Experimental results show that the proposed agent outperforms a random baseline in task success rate and learning stability across diverse obstacle configurations, demonstrating the feasibility of DRL-based automated testing in black-box game environments.