게임의 발전에 따라 게임에 등장하는 NPC(Non-Player Character)들의 지능 또한 중요성을 더해 가고 있다. 단순히 이동하고 플레이어를 공격하기만 하는 수준을 넘어서 WPC들 역시 다양한 기술과 전술을 사용하는 것이 최근의 MMORPG 게임의 추세이다. 본 논문에서는 신경망과 유전자 알고리즘을 이용하여 롤플레잉 게임에 사용되는 캐릭터에게 학습 및 적응 능력을 부여하는 방법을 제안한다. 제안된 지능 캐릭터가 얼마나 게임의 규칙과 전술을 잘 학습하고 적응하는지를 살펴보기 위하여 본 논문에서는 간단한 게임 모델을 제작하여 실험하였다. 캐릭터는 탱커(Tanker), 딜러(Dealer), 힐러(Healer)의 3가지 종류가 있으며, 지능 캐릭터 집단은 신경망과 유전 알고리즘으로 학습되고 FSM으로 움직이는 적 캐릭터 집단과의 전투를 통해 학습한다. 실험 결과 지능 캐릭터가 전투를 통해 자신과 적의 능력에 따른 적절한 전투 방식을 스스로 학습하고, 게임 규칙의 변화에 적응하는 것을 볼 수 있었다.
게임의 발전에 따라 게임에 등장하는 NPC(Non-Player Character)들의 지능 또한 중요성을 더해 가고 있다. 단순히 이동하고 플레이어를 공격하기만 하는 수준을 넘어서 WPC들 역시 다양한 기술과 전술을 사용하는 것이 최근의 MMORPG 게임의 추세이다. 본 논문에서는 신경망과 유전자 알고리즘을 이용하여 롤플레잉 게임에 사용되는 캐릭터에게 학습 및 적응 능력을 부여하는 방법을 제안한다. 제안된 지능 캐릭터가 얼마나 게임의 규칙과 전술을 잘 학습하고 적응하는지를 살펴보기 위하여 본 논문에서는 간단한 게임 모델을 제작하여 실험하였다. 캐릭터는 탱커(Tanker), 딜러(Dealer), 힐러(Healer)의 3가지 종류가 있으며, 지능 캐릭터 집단은 신경망과 유전 알고리즘으로 학습되고 FSM으로 움직이는 적 캐릭터 집단과의 전투를 통해 학습한다. 실험 결과 지능 캐릭터가 전투를 통해 자신과 적의 능력에 따른 적절한 전투 방식을 스스로 학습하고, 게임 규칙의 변화에 적응하는 것을 볼 수 있었다.
As the development of games continues, the intelligence of NPC is becoming more and more important. Nowadays, the NPCs of MMORPGS are not only capable of simple actions like moving and attacking players, but also utilizing variety of skills and tactics as human-players do. This study suggests a meth...
As the development of games continues, the intelligence of NPC is becoming more and more important. Nowadays, the NPCs of MMORPGS are not only capable of simple actions like moving and attacking players, but also utilizing variety of skills and tactics as human-players do. This study suggests a method that grants characters used in RPG(Role-Playing Game) an ability of training and adaptation using Neural network and Genetic Algorithm. In this study, a simple game-play model is constructed to test how suggested intellect characters could train and adapt themselves to game rules and tactics. In the game-play model, three types of characters(Tanker, Dealer, Healer) are used. Intellect character group constructed by NN and GA, and trained by combats against enemy character group constructed by FSM. As the result of test, the proposed intellect characters group acquire an appropriate combat tactics by themselves according to their abilities and those of enemies, and adapt change of game rule.
As the development of games continues, the intelligence of NPC is becoming more and more important. Nowadays, the NPCs of MMORPGS are not only capable of simple actions like moving and attacking players, but also utilizing variety of skills and tactics as human-players do. This study suggests a method that grants characters used in RPG(Role-Playing Game) an ability of training and adaptation using Neural network and Genetic Algorithm. In this study, a simple game-play model is constructed to test how suggested intellect characters could train and adapt themselves to game rules and tactics. In the game-play model, three types of characters(Tanker, Dealer, Healer) are used. Intellect character group constructed by NN and GA, and trained by combats against enemy character group constructed by FSM. As the result of test, the proposed intellect characters group acquire an appropriate combat tactics by themselves according to their abilities and those of enemies, and adapt change of game rule.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
있고 다양한 즐거움을 맛볼 수 있게 해 줄 것이다. 본 논문에서는 사용자가 NPC와의 전투에서 긴장감과 다양한 즐거움을 느낄 수 있게 하기 위해 게 임 내의 NPC가 지능적으로 행동하고 상황의 변화에 스스로 적응할 수 있는 방법을 제안한다.
본 논문에서는 지능 캐릭터의 학습과 검증을 위해 간단한 게임 모델을 만들었다. 이 모델은 RPG 게임의 전투를 단순화 시킨 것으로, 각각 4개의 캐릭터로 이루어진 두 팀이 제한된 2차원 공간 내에서 전투를 벌여 그 결과에 따라 점수를 획득한다.
여기에 죽인 상대방 캐릭터의 숫자마다 추가 점수를 주고, 아군 캐 릭터 의 사망시 점수를 깎도록 했다. 이러한 방식으로 게임 규칙의 변화에 따른 적응능력을확인하기 위해 학습 도중 게임 규칙을 변화시켜서 지능 캐릭터 집단이 이에 적응하는지를 확인했다. 표 3은 기본 게임 규칙을 이용해 300세대까지 학습시켰을 때의 세대별 점수표이다.
가설 설정
1. 적을 발견하면 자신에게 가장 많은 적대(Aggro) 수치를 지닌 적을 공격한다. 적대 수치는 캐릭터가 특정 상대로부터 받은 데미지에 비례한다.
3. 체력이 일정 이하인 캐릭터는도주한다.
제안 방법
여기에 죽인 상대방 캐릭터의 숫자마다 추가 점수를 주고, 아군 캐 릭터 의 사망시 점수를 깎도록 했다. 이러한 방식으로 게임 규칙의 변화에 따른 적응능력을확인하기 위해 학습 도중 게임 규칙을 변화시켜서 지능 캐릭터 집단이 이에 적응하는지를 확인했다.
2 절에서 구현한 신경망의 구조는 입력 노드 29개, 은닉 노드 50개, 출력 노드 10개이므로 총 노드 수는 29*50+50*10 = 1950개가 된4. 유전자 코드의 길이가 길기 때문에 교배 방식은 다점 교배를 사용했으며, 교차점은 10개로 설정했다.
지능 캐릭터의 평가는 상대방 캐릭터와 300턴간 전투를 벌인 후 상대방 캐릭터의 남은 체력이군 캐릭터의 남은 체력 으로평가했다. 여기에 죽인 상대방 캐릭터의 숫자마다 추가 점수를 주고, 아군 캐 릭터 의 사망시 점수를 깎도록 했다.
대상 데이터
각 세대의 개체수는 100개로, 학습은 총 1000 세대 동안 진행되었다.
본 논문의 게 임 모델에서는, 각 팀은 전사 1명 , 도적 1명 , 마법사 1명, 사제 1명으로 구성된다.
실험에서는모든파티의 구성을동일하게 하며, 전사 1명, 도적 1명, 마법사 1명, 사제 1명으로 구성된다.
은닉 노드는 50-100개 사이로 설정해 본 결과 50개로도 결과에 큰 차이가 없었으며, 본 실험에서는 50개의 은닉 노드를 사용했다.
이론/모형
돌연변이는 세대가 진행됨에 따라 변이의 강도를 점점 줄여나가는 비균등 변이 (non-uniform mutation)를 사용했다. 사용된 변이 공식은 (1)과 같으며, 이는 일반적으로 사용되는 비균등 변이 공식을 단순화한 것이다.
성능/효과
또한 실험에서 지능 캐 릭터 집단은 FSM으로 설계된 상대 캐릭터 집단에 비해 우수한 성능을 보여 주었다. 700세대 이후의 각 세대의 가장 우수한 개체들은 상대 캐릭터 집단을 전멸시키고 4명중 2명, 혹은 3명이 생존했으며, 상대 캐릭터 집단이 보여주지 못한 효율적인 전투 방식을 찾아내기도 했다.
전 세대의 가장 우수한 개체가 그대로 다음 세대로 넘 어오기 때문에 평균 적합도는 상승하지만 각 세대의 최우수 개체는 계속 유지되다가, 그보다 더 뛰어난 개체가 둥장하면 바뀌는 경향을 보였다. 지능 캐릭터 집단은 100세대가 지나기 전에 모든 캐릭터들이 한 명의 적을 집중적으로 공격하는 것이 유리하다는 것을 학습했다.
이는 실제 게임에서도 이러한 학습 방법이 효과를 발휘할 수 있음을 의미한다. 제안된 캐릭터 학습 방법은 게임 내의 NBC들이 좀 더 다양하고 인간이 조작하는 것에 가까운 행동을 보임으로서 사용자들에게 긴장감과 즐거움을 줄 수 있으며, 게임의 규칙이나 환경이 변화해도 스스로 학습함으로서 개발자의 부담을 줄일 수 있다.
학습 결과 적합도는 완만하게 상승하다가 특정 시점을 기준으로 급격히 상승하고, 이후 다시 완만한 상승이나 정체를 반복했다. 전 세대의 가장 우수한 개체가 그대로 다음 세대로 넘 어오기 때문에 평균 적합도는 상승하지만 각 세대의 최우수 개체는 계속 유지되다가, 그보다 더 뛰어난 개체가 둥장하면 바뀌는 경향을 보였다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.