모바일 게임 시장이 스마트폰 중심으로 변화되기 시작하면서 모바일 게임에서는 오토 플레이 시스템이 적용되기 시작하였다. 오토플레이 시스템은 버튼 한 번으로 게임을 자동으로 진행하는 시스템이며 현재 대부분의 모바일 게임에서 적용되었고 PC 게임에서까지 이러한 시스템이 적용되고 있다. 기존 오토플레이 시스템은 캐릭터가 비효율적으로 행동하며 플레이어마다 게임에서 추구하는 가치가 다르기 때문에 이를 보완하고자 사용자의 행동을 기반으로 학습하는 ...
모바일 게임 시장이 스마트폰 중심으로 변화되기 시작하면서 모바일 게임에서는 오토 플레이 시스템이 적용되기 시작하였다. 오토플레이 시스템은 버튼 한 번으로 게임을 자동으로 진행하는 시스템이며 현재 대부분의 모바일 게임에서 적용되었고 PC 게임에서까지 이러한 시스템이 적용되고 있다. 기존 오토플레이 시스템은 캐릭터가 비효율적으로 행동하며 플레이어마다 게임에서 추구하는 가치가 다르기 때문에 이를 보완하고자 사용자의 행동을 기반으로 학습하는 인공지능을 연구했으며 본 논문에서는 플레이어의 행동 패턴을 기반으로 학습한 인공지능을 제안하고자 한다. 본 논문에서 제안하는 인공지능 모델은 플레이어가 게임을 진행하면서 게임 데이터와 플레이어가 입력한 버튼 값을 학습 데이터로 저장하고 학습 데이터를 DNN(Deep Neural Network) 신경망 모델을 사용하여 학습하였다. 레이싱 게임은 계속 앞으로 달려야 하는 게임이고 게임의 특성상 한 가지 버튼만 누르지 않고 동시에 두 가지 이상 버튼을 누르고 게임을 진행하기 때문에 한쪽으로 값이 치우치는 문제가 발생하기 때문에 Output Layer를 다층으로 분류하여 학습을 진행했다. Unity3D 엔진을 사용하여 레이싱 게임을 제작하고 플레이어가 트랙을 달려 학습 데이터를 수집하였다. 학습은 python 언어를 사용하였으며 Tensorflow와 Keras딥 러닝 라이브러리를 사용하여 딥 러닝 모델을 설계하였다. 학습이 끝난 데이터를 다시 Unity3D로 불러와 캐릭터에 적용해 결과를 확인하였으며 매번 실행 할 때마다 이동 경로와 Lap Time이 다르다는 것을 알 수 있었다. 본 논문 실험에서는 실험자들을 무작위로 20명을 지정하여 제안하는 인공지능 모델을 사용함으로써 결과를 기록하였고 트랙을 일정하게 벽을 부딪치지 않고 달린 플레이어 데이터만 제대로 학습되어 결과를 얻을 수 있었고 그렇지 않은 플레이어의 데이터는 캐릭터가 제대로 이동하지 않아 결과 값을 얻을 수가 없었다. 또한, 간단한 아케이드 게임을 만들어 강화 학습과 비교하였으며 강화 학습보다 성능은 좋지 않았지만, 학습속도가 약 10배 빨랐다. 마지막으로 향후에는 본 논문에서 제안하는 시스템으로 오토 플레이 시스템뿐만 아니라 게임 레벨디자인과 게임 QA 등 반복적인 작업이 필요한 곳에 활용될 것이며 게임뿐만 아니라 다양한 분야에서도 활용될 것이라 예상된다.
모바일 게임 시장이 스마트폰 중심으로 변화되기 시작하면서 모바일 게임에서는 오토 플레이 시스템이 적용되기 시작하였다. 오토플레이 시스템은 버튼 한 번으로 게임을 자동으로 진행하는 시스템이며 현재 대부분의 모바일 게임에서 적용되었고 PC 게임에서까지 이러한 시스템이 적용되고 있다. 기존 오토플레이 시스템은 캐릭터가 비효율적으로 행동하며 플레이어마다 게임에서 추구하는 가치가 다르기 때문에 이를 보완하고자 사용자의 행동을 기반으로 학습하는 인공지능을 연구했으며 본 논문에서는 플레이어의 행동 패턴을 기반으로 학습한 인공지능을 제안하고자 한다. 본 논문에서 제안하는 인공지능 모델은 플레이어가 게임을 진행하면서 게임 데이터와 플레이어가 입력한 버튼 값을 학습 데이터로 저장하고 학습 데이터를 DNN(Deep Neural Network) 신경망 모델을 사용하여 학습하였다. 레이싱 게임은 계속 앞으로 달려야 하는 게임이고 게임의 특성상 한 가지 버튼만 누르지 않고 동시에 두 가지 이상 버튼을 누르고 게임을 진행하기 때문에 한쪽으로 값이 치우치는 문제가 발생하기 때문에 Output Layer를 다층으로 분류하여 학습을 진행했다. Unity3D 엔진을 사용하여 레이싱 게임을 제작하고 플레이어가 트랙을 달려 학습 데이터를 수집하였다. 학습은 python 언어를 사용하였으며 Tensorflow와 Keras 딥 러닝 라이브러리를 사용하여 딥 러닝 모델을 설계하였다. 학습이 끝난 데이터를 다시 Unity3D로 불러와 캐릭터에 적용해 결과를 확인하였으며 매번 실행 할 때마다 이동 경로와 Lap Time이 다르다는 것을 알 수 있었다. 본 논문 실험에서는 실험자들을 무작위로 20명을 지정하여 제안하는 인공지능 모델을 사용함으로써 결과를 기록하였고 트랙을 일정하게 벽을 부딪치지 않고 달린 플레이어 데이터만 제대로 학습되어 결과를 얻을 수 있었고 그렇지 않은 플레이어의 데이터는 캐릭터가 제대로 이동하지 않아 결과 값을 얻을 수가 없었다. 또한, 간단한 아케이드 게임을 만들어 강화 학습과 비교하였으며 강화 학습보다 성능은 좋지 않았지만, 학습속도가 약 10배 빨랐다. 마지막으로 향후에는 본 논문에서 제안하는 시스템으로 오토 플레이 시스템뿐만 아니라 게임 레벨디자인과 게임 QA 등 반복적인 작업이 필요한 곳에 활용될 것이며 게임뿐만 아니라 다양한 분야에서도 활용될 것이라 예상된다.
As the strategic target of the mobile game market began to change to focus on smartphones, the autoplay system began to be applied in mobile games. The autoplay system is a system that automatically plays the game with the one-click of a button. Currently, almost all mobile games use this system, an...
As the strategic target of the mobile game market began to change to focus on smartphones, the autoplay system began to be applied in mobile games. The autoplay system is a system that automatically plays the game with the one-click of a button. Currently, almost all mobile games use this system, and some PC games also use this system. However, this autoplay system tends to play games inefficiently. In this paper, we propose artificial intelligence based on player 's behavior pattern to improve disadvantages of autoplay system. The artificial intelligence model proposed in this paper stores game data and input button values when a player plays a game as learning data. This stored data was learned using DNN (Deep Neural Network) model. In the game, because the player repeatedly presses another button at the same time, we proceeded to classify the Output Layer in multiple layers. The Unity3D engine was used to create the racing game, and the player gathered training data on the track. We used the python language and designed the deep learning model using Tensorflow and Keras deep learning library. We loaded the learned data back into Unity3D and applied it to the character to check the result. It was found that the lap time and the movement path were different each time it was executed. In this paper, we record the results by using the artificial intelligence model proposed by randomly assigning 20 experimenters. Only the data of the player with constant track without crashing against the wall was learned properly, and the data of the player who did hit the wall could not get the result because the character did not move properly. We also made a simple arcade game to compare reinforcement learning with our AI model. Performance was not as good as reinforcement learning, but the learning speed was about 10 times faster.
As the strategic target of the mobile game market began to change to focus on smartphones, the autoplay system began to be applied in mobile games. The autoplay system is a system that automatically plays the game with the one-click of a button. Currently, almost all mobile games use this system, and some PC games also use this system. However, this autoplay system tends to play games inefficiently. In this paper, we propose artificial intelligence based on player 's behavior pattern to improve disadvantages of autoplay system. The artificial intelligence model proposed in this paper stores game data and input button values when a player plays a game as learning data. This stored data was learned using DNN (Deep Neural Network) model. In the game, because the player repeatedly presses another button at the same time, we proceeded to classify the Output Layer in multiple layers. The Unity3D engine was used to create the racing game, and the player gathered training data on the track. We used the python language and designed the deep learning model using Tensorflow and Keras deep learning library. We loaded the learned data back into Unity3D and applied it to the character to check the result. It was found that the lap time and the movement path were different each time it was executed. In this paper, we record the results by using the artificial intelligence model proposed by randomly assigning 20 experimenters. Only the data of the player with constant track without crashing against the wall was learned properly, and the data of the player who did hit the wall could not get the result because the character did not move properly. We also made a simple arcade game to compare reinforcement learning with our AI model. Performance was not as good as reinforcement learning, but the learning speed was about 10 times faster.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.