$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"
쳇봇 이모티콘
안녕하세요!
ScienceON 챗봇입니다.
궁금한 것은 저에게 물어봐주세요.

논문 상세정보

2D 슈팅 게임 학습 에이전트의 성능 향상을 위한 딥러닝 활성화 함수 비교 분석

Comparison of Deep Learning Activation Functions for Performance Improvement of a 2D Shooting Game Learning Agent

초록

최근 강화 학습을 통해 게임을 학습하는 인공지능 에이전트를 만드는 연구가 활발히 진행되고 있다. 게임을 에이전트에게 학습 시킬 때 어떠한 딥러닝 활성화 함수를 사용하는지에 따라 그 학습 성능이 달라진다. 본 논문은 2D 슈팅 게임 환경에서 에이전트가 강화 학습을 통해 게임을 학습할 경우 어떤 활성화 함수가 최적의 결과를 얻는지를 비교 평가 한다. 이를 위해 비교 평가에서 사용할 메트릭을 정의하고 각 활성화 함수에 따른 메트릭 값을 학습 시간에 따라 그래프로 나타내었다. 그 결과 ELU (Exponential Linear Unit) 활성화 함수에 1.0으로 파라미터 값을 설정할 경우 게임의 보상 값이 다른 활성화 함수보다 평균적으로 높은 것을 알 수 있었고, 가장 낮은 보상 값을 가졌던 활성화 함수와의 차이는 23.6%였다.

Abstract

Recently, there has been active researches about building an artificial intelligence agent that can learn how to play a game by using re-enforcement learning. The performance of the learning can be diverse according to what kinds of deep learning activation functions they used when they train the agent. This paper compares the activation functions when we train our agent for learning how to play a 2D shooting game by using re-enforcement learning. We defined performance metrics to analyze the results and plotted them along a training time. As a result, we found ELU (Exponential Linear Unit) with a parameter 1.0 achieved best rewards than other activation functions. There was 23.6% gap between the best activation function and the worst activation function.

표 / 그림 (18)

질의응답 

키워드에 따른 질의응답 제공
핵심어 질문 논문에서 추출한 답변
Gym
Gym은 무엇인가?
OpenAI에서 강화 학습 알고리즘을 개발하고 비교하기 위해 만든 툴킷

Gym은 OpenAI에서 강화 학습 알고리즘을 개발하고 비교하기 위해 만든 툴킷이다[6] . 이 툴킷을 사용하면 각종 아타리 (Atari) 게임 등을 플레이 할 수 있는 학습 에이전트를 만드는데 도움을 준다.

강화 학습
강화 학습의 목표는 무엇인가?
주어진 환경에서 특정 행동을 취하는 정책을 세우고, 그 정책을 따라 행동했을 때 보상을 극대화할 수 있도록 하는 것이다.

강화 학습(Re-enforcement learning)으로 비디오 게임을 딥러닝(Deep learning) 에이전트에게 학습 시키는 것은 현재 매우 활발히 연구되는 주제 중의 하나이다. 강화 학습의 목표는 주어진 환경에서 특정 행동을 취하는 정책을 세우고, 그 정책을 따라 행동했을 때 보상을 극대화할 수 있도록 하는 것이다. 이를 위해 fixed Q-targets,DQN (Deep Q-Learning), double DQN, DDQN (Dueling DQN), PER (Prioritized Experience Replay), A3C (Asynchronous Advantage Actor-Critic) 등의 강화 학습 알고리즘이 제시되었으며 이중 A3C가 가장 성능이 뛰어난 것으로 알려져 있다 [1] .

슈팅 게임
슈팅 게임의 경우 총알을 발사하면 일정 시간이 흘러야 적을 맞출 수 있고 이때 점수가 올라가는 것과 같은데, 이러한 게임을 신경망으로 학습하기 위해 사용되는 것은?
주로 RNN (Recurrent Neural Network)이나 LSTM (Long Short Term Memory)을 사용한다

예를 들어 슈팅 게임의 경우 총알을 발사하면 일정 시간이 흘러야 적을 맞출 수 있고 이때 점수가 올라가는 것과 같다.이러한 게임을 학습하기 위해서는 이전 상태를 기억했다가 추후 어떤 행동을 하는 것이 가장 좋을지 결정할 때사용해야 하는데 신경망에서는 이를 위해 주로 RNN (Recurrent Neural Network)이나 LSTM (Long Short Term Memory)을 사용한다 [3, 4] .

질의응답 정보가 도움이 되었나요?

저자의 다른 논문

참고문헌 (0)

  1. 이 논문의 참고문헌 없음

이 논문을 인용한 문헌 (0)

  1. 이 논문을 인용한 문헌 없음

문의하기 

궁금한 사항이나 기타 의견이 있으시면 남겨주세요.

Q&A 등록

원문보기

원문 PDF 다운로드

  • ScienceON :

원문 URL 링크

원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다. (원문복사서비스 안내 바로 가기)

이 논문과 연관된 기능

이 논문 조회수 및 차트

DOI 인용 스타일

"" 핵심어 질의응답