최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기The journal of the institute of internet, broadcasting and communication : JIIBC, v.17 no.5, 2017년, pp.119 - 124
김성환 (한성대학교 컴퓨터공학과) , 김영웅 (한성대학교 컴퓨터공학부)
In 1997, IBM's DeepBlue won the world chess championship, Garry Kasparov, and recently, Google's AlphaGo won all three games against Ke Jie, who was ranked 1st among all human Baduk players worldwide, interest in deep running has increased rapidly. DeepPurple, proposed in this paper, is a AI chess e...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
딥퍼플 체스엔진의 구성 요소는? | 본 논문은 딥러닝에 기반을 둔 인고지능 체스엔진인 딥퍼플(DeepPurple) 개발에 대해 기술한다. 딥퍼플 체스엔진은 크게 몬테카를로 트리탐색과 컨볼루션 신경망으로 구현된 정책망 및 가치망으로 구성되어 있다. 딥러닝을 통해 구축된 정책망을 통해 다음 수를 예측하고, 가치망을 통해 주어진 상황에서의 판세를 계산한 후, 몬테카를로 트리탐색을 통해 가장 유리한 수를 선택하는 것이 기본 원리이다. | |
딥러닝에 대한 관심이 급증한 이유는? | 1997년 IBM의 딥블루가 세계 체스 챔피언인 카스파로프를 이기고, 최근 구글의 알파고가 중국의 커제에게 완승을 거두면서 딥러닝에 대한 관심이 급증하였다. 본 논문은 딥러닝에 기반을 둔 인고지능 체스엔진인 딥퍼플(DeepPurple) 개발에 대해 기술한다. | |
몬테카를로 트리 탐색의 기본 원리는? | 정책망과 가치망을 완성하면, 이 두 개의 모델만으로도 어느 정도의 패턴을 파악한 결과를 알 수 있지만, 딥퍼플의 경우 충분한 성능을 확보하기 위해 몬테카를로 트리 탐색(Montecarlo tree search: MCTS)알고리즘[2]을 사용한다. MCTS의 기본 원리는 동일한 상황에서 수많은 시뮬레이션을 반복함으로써 결과적으로 가장 좋은 선택을 찾는 것이다. 이 기본 원리를 바탕으로 딥퍼플의 시뮬레이션은 트리 탐색 방법으로서 선택(selection), 확장 (expansion), 시뮬레이션, 역전달(back propagation) 총 4단계를 통해 이루어진다. |
Clark, Christopher and Storkey, Amos. "Teaching deep convolutional neural networks to play Go", arXiv preprint arXiv:1412.3409, 2014.
Browne, C. B., Powley, E., Whitehouse, D., Lucas, S. M., Cowling, P. I., Rohlfshagen, P.,Tavener, S., Perez, D., Samothrakis, S., & Colton, S. "A survey of Monte Carlo tree search methods". IEEE Transactions on Computational Intelligence and AI in Games, Vol. 4 No. 1, pp.1-43, 2012. DOI: https://doi.org/10.1109/TCIAIG.2012.2186810
Barak Oshri and Nishith Khandwala, "Predicting Moves in Chess using Convolution Neural Networks", http://github.com/BarakOshiri/ConvChess
Matthew Lai., "Giraffe: Using Deep Reinforcement Learning to Play Chess", arXiv:1509.01549v2, 2015.
https://en.wikipedia.org/wiki/Elo_rating_system
Jonathan Baxter, Andrew Tridgell, and Lex Weaver "TDLeaf( $\lambda$ ) Combining Temporal Difference Learning with Game-Tree Search"Australian Journal of Intelligent Information Processing Systems, 1998.
https://en.wikipedia.org/wiki/FIDE_World_ Rankings.
https://www.unrealengine.com/ko/what-isunreal-engine-4.
http://www.kingbase-chess.net/
https://en.wikipedia.org/wiki/Forsyth_Edwards_Notation
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.