최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기대한임베디드공학회논문지 = IEMEK Journal of embedded systems and applications, v.15 no.5, 2020년, pp.261 - 268
박진수 (Korea National University of Transportation(KNUT)) , 이호정 (Korea National University of Transportation(KNUT)) , 황두연 (Korea National University of Transportation(KNUT)) , 조수선 (Korea National University of Transportation(KNUT))
Genetic algorithms find the optimal solution by mimicking the evolution of natural organisms. In this study, the genetic algorithm was used to enable Pac-Man's reinforcement learning, and a simulator to observe the evolutionary process was implemented. The purpose of this paper is to reinforce the l...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
강화학습이란 무슨 방법인가? | 강화학습은 시행착오를 통해 수집되는 수많은 데이터 속에 숨어 있는 패턴을 학습을 통해 찾아내는 방법이다. 또한 강화학습은 주어진 환경 안에서 현재 상황을 인식하여, 실행 가능한 행동 중 최대의 보상을 얻을 수 있는 행동을 선택하는 기계 학습분야 중 하나이다 [1]. | |
강화학습이 이용되는 분야는? | 또한 강화학습은 주어진 환경 안에서 현재 상황을 인식하여, 실행 가능한 행동 중 최대의 보상을 얻을 수 있는 행동을 선택하는 기계 학습분야 중 하나이다 [1]. 강화학습이 이용되는 분야로서는 게임, 금융, 자율주행자동차 등이 있으며, 그외에도 다양한 분야에서 활용되고 있다 [2]. | |
유전 알고리즘은 어떻게 이루어지는가? | 유전 알고리즘이란 자연세계의 생물 진화를 모방한 알고리즘이다. 교배 연산 (crossover)과 변이연산 (mutation)을 거쳐 최적해를 찾아내는 기법으로, 이 연산들은 유전자 (gene)로 이루어진 한 세대(generation) 안에서 이루어진다 [6]. 특히 변이 연산 기법은 지역 최적해에 빠지는 것을 막을 수 있는데, 다른 최적화 알고리즘과의 차이이자 큰 장점으로 작용할 수 있다. |
R.S. Sutton, A.G. Barto, Reinforcement Learning :An Introduction, 2nd Edition, MIT Press, Cambridge, MA, 2018.
H.H. Lee, T.Y. Kim, M.J. Choi, "Deep Reinforcement Learning Application in Aerospace Filed with Unity," KSAS, Proc. of Conference, pp. 522-523, 2019 (in Korean).
S.Y. Jang, H.J. Yoon, N.S. Park, J.K. Yun, Y.S. Son, “Research Trends on Deep Reinforcement Learning,” ETRI Electronics and Telecommunications Trends, Vol. 34, No. 4, pp. 1-14, 2019(in Korean).
Y.W. Shin, “Control of Intelligent Characters Using Reinforcement Learning,” JICS, Vol. 8, No. 5, pp. 91-97, 2007 (in Korean).
Y.W. Shin, T.C. Chung, “Improvement of Sequential Prediction Algorithm for Player's Action Prediction,” JICS, Vol. 11, No. 3, pp. 25-32, 2010 (in Korean).
S.Y. Park, P.W. Park, J.M. Kim, J.H. Borm, S.W. Lee, “A Study on Searching Optimal Path for Robot Using Genetic Algorithm,” J. Korean Soc. Precis. Eng., Vol. 35, No. 12, pp. 1147-1155, 2018 (in Korean).
J.N. Kim, H.T. Kim, C.W. Ahn, "Routing Algorithm for Multiple Environment Using Genetic Algorithm," Proceedings of KIISE Conference, 38(2A), pp. 333-336, 2011 (in Korean).
J.M. Kim, S.J. Kim, S.M. Hong, "Players Adaptive Monster Generation Technique Using Genetic Algorithm," JIC, Vol. 18, No. 2, pp. 43-51, 2017 (in Korean).
S.W. Park, W.H. Lee, "Genetic Algorithm for Game Monster Generation," Proceedings of the Korea Contents Association Conference, Vol. 4, No. 2, pp. 811-814, 2006 (in Korean).
T.Y. Kim, J.S. Choi, "Game Difficulty Controlling Using Evolutionary Algorithm," Journal of the Korean Society for Computer Game, No. 11, pp. 20-27, 2007 (in Korean).
C.H. Jung, C.Y. Park, S.D. Chi, J. Kim, "The Battle Warship Simulation of Agent-based with Reinforcement and Evolutionary Learning," Journal of the Korea Society for Simulation, Vol. 21, Issue 4, pp. 65-73, 2012 (in Korean).
T.R. Arungpadang, Y.J. Kim, "A Study on Dual Response Approach Combining Neural Network and Genetic Algorithm," Journal of the Korean Institute of Industrial Engineers, Vol. 39, No. 5, pp. 361-366, 2013 (in Korean).
D.H. Oh, "A Study on Pathfinding in Game Environment Using Genetic Algorithm and Neural Network," Proceedings of the Korea Information Processing Society Conference, Vol. 23, No. 2, pp. 607-608, 2016 (in Korean).
O.K. Kwun, J.K. Park, "Control of RPG Game Characters using Genetic Algorithm and Neural Network," Journal of Korea Game Society, Vol. 6, No. 2, pp. 13-22, 2006 (in Korean).
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.