최근 소프트웨어 유통망(ESD)를 통해 유통되는 게임이 늘어남에 따라 사용자들이 원하는 게임을 찾는데 어려움을 겪고 있다. 이에 따라 사용자들이 원하는 게임을 찾기 쉽게 태그를 생성하는 모델의 필요성이 대두 되고 있다. 본 논문에서는 태그를 생성하는 모델을 BERT를 통해 설계하였다. 태그 100개 중 가장 적합한 태그를 4개 추출하기 위해 입력된 문장에 대해 각 태그별로 이진분류를 수행하고 이진분류 당시의 Softmax 값이 가장 컸던 태그 4개를 선택했다. 또한, 모델의 정확도를 위해서 약 33억 개의 다국어 단어로 학습한 pre-trained Multilingual BERT 모델과 약 5천만 개의 한국어 단어로 학습한 KoBERT 모델을 가져와 한국어 데이터로 학습(finetuning) 시켜 사용하였다. 실험에서 BERT 모델은 KoBERT 모델보다 F- 점수에서 9.19 % 더 나은 성능을 보입니다. 이는 언어 학습 데이터 세트의 크기가 특정 언어인 한국어 특성보다 더 중요하다는 것을 나타낸다.