earticle

논문검색

A Study on Game Character Learning Based on Player Behavior

원문정보

사용자 행동 기반 게임 캐릭터 학습에 관한 연구

Hye Moon LEE, Ji Hyeong SON, Jae Min KIM, Won Hyung LEE

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

The autoplay system is a system that automatically plays the game with the one click of a button. Currently, almost all mobile games use this system, and some PC games also use this system. However, this autoplay system tends to play games inefficiently. In this paper, we propose artificial intelligence based on the player's behavior pattern to improve the disadvantages of autoplay system. The artificial intelligence model proposed in this paper stores game data and input button values when a player plays a game as learning data. This stored data was learned using DNN (Deep Neural Network) model. In the game, because the player repeatedly presses another button at the same time, we proceeded to use the multiple Output Layers. We loaded the learned data back into Unity3D and applied it to the character to check the result. It was found that the lap time and the movement path were different each time it was executed. In this paper, we record the results by using the artificial intelligence model proposed by 20 experimenters. Only the data of the player with the constant track without crashing against the wall was learned properly, and the data of the player who did hit the wall could not get the result because the character did not move properly. We also made a simple arcade game to compare reinforcement learning with our AI model. The performance was not as good as reinforcement learning, but the learning speed was about 10 times faster.

한국어

모바일 게임 시장이 스마트폰 중심으로 변화되기 시작하면서 모바일 게임에서는 오토 플레이 시스템이 적 용되기 시작하였다. 오토플레이 시스템은 버튼 한번으로 게임을 자동으로 진행하는 시스템 이며 현재 거의 대부분의 모바일 게임에서 적용되었고 PC게임에서 까지 이러한 시스템이 적용되고 있다. 하지만 이러한 오 토 플레이 시스템의 성능은 매우 비효율적으로 행동하고 있으며 본 논문에서는 플레이어의 행동 패턴을 기 반으로 학습한 인공지능을 제안하고자 한다. 본 논문에서 제안하는 인공지능 모델은 플레이어가 게임을 진행 하면서 게임 데이터와 플레이어가 입력한 버튼 값을 학습 데이터로 저장하고 학습데이터를 DNN(Deep Neural Network) 신경망 모델을 사용하여 학습하였다. 게임에서는 플레이어가 중복적으로 다른 버튼을 동시 에 누르기 때문에 Output Layer를 다층으로 분류하여 학습을 진행했다. 본 논문 실험에서는 20명의 실험자들 에게 제안하는 인공지능 모델을 사용함으로써 결과를 기록하였고 트랙을 일정하게 벽을 부딪치지 않고 달린 플레이어 데이터만 제대로 학습되어 결과를 얻을 수 있었고 그렇지 않은 플레이어의 데이터는 캐릭터가 제 대로 이동하지 않아 결과 값을 얻을 수가 없었다. 또한 간단한 아케이드 게임을 만들어 강화학습과 비교하였 으며 강화학습보다 성능은 좋지 않았지만 학습속도가 약 10배 빨랐다.

목차

ABSTRACT
1. Introduction
2. Related research
2.1 Auto Play
2.2 Replay a Game
2.3 Deep Learning
3. Main subject
3.1 Proposed artificial intelligence
3.2 Data Collection
3.3 Learning
4. Experiment
4.1 Performance evaluation of proposed models
4.2 Comparison with Reinforcement Learning
5. Conclusion
Reference
<국문초록>

저자정보

  • Hye Moon LEE 이혜문. Graduate School of Advanced Imaging Science, Multimedia and Film, Chung-Ang University
  • Ji Hyeong SON 손지형. Graduate School of Advanced Imaging Science, Multimedia and Film, Chung-Ang University
  • Jae Min KIM 김재민. Graduate School of Advanced Imaging Science, Multimedia and Film, Chung-Ang University
  • Won Hyung LEE 이원형. Graduate School of Advanced Imaging Science, Multimedia and Film, Chung-Ang University

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 4,500원

      0개의 논문이 장바구니에 담겼습니다.