최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국시뮬레이션학회논문지 = Journal of the Korea Society for Simulation, v.21 no.4, 2012년, pp.65 - 73
정찬호 (한국항공대학교 컴퓨터공학과) , 박철영 (한국항공대학교 컴퓨터공학과) , 지승도 (한국항공대학교 컴퓨터공학과) , 김재익 (국방과학연구소)
Due to the development of technology related to a weapon system and the info-communication, the battle system of a warship has to manage many kinds of human intervention tactics according to the complicated battlefield environment. Therefore, many kinds of studies about M&S(Modeling & Simulation) ha...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
유전 알고리즘이란 무엇인가? | 유전 알고리즘은 자연 선택의 원리와 자연계의 생물 유전학에 기본 이론을 두며 병렬적이고 전역적(Global)인 탐색 알고리즘으로서, 최근에 생물의 진화과정, 즉 자연선별과 유전법칙 등을 모방한 진화전략(Evolution Strategies), 유전 프로그래밍(Genetic Programming)등 여러 형태의 이론과 기법들이 최적해 탐색 알고리즘이 필요한 산업, 공학 등의 다양한 분야에서 활용되고 있다[16]. | |
에이전트 기반의 국방 M&S 시스템 연구가 활발히 진행되는 이유는 무엇인가? | 함정 전투체계는 무기체계, 정보통신 등의 기술 발전으로 인한 복잡한 전장 환경에 따라 인간이 개입하여 다양한 전술을 운용해야 한다. 따라서 에이전트 기반의 국방 M&S 시스템의 연구가 최근 들어 활발히 진행되고 있다. | |
강화 학습이란 무엇인가? | 강화 학습(Reinforcement Learning)은 동적 환경 하에 있는 에이전트(Agent)의 행동에 대한 보상(Reward)을 최대화하는 상태-행동 규칙이나 행동 발생 전략을 찾는 학습법이다. 즉 보상의 최대화라고 하는 목적만을 가지고 있기 때문에 본질적으로 불확실성과 지연 보상이 존재하지만 환경으로부터의 보상과 벌칙만으로 우수한 정보를 획득할 수 있다는 장점 때문에 애초에 정답이 없는 문제의 접근의 길을 열어주고 있다. |
A. Ilachinski, "Towards a Science of Experimental Complexity: An Artificial Life. Approach to Modeling Warfare", Proceedings of 5th Experimental Chaos Conference. Orlando. FL. 2000.
Michael Babilot, "COMPARISON OF A DISTRIBUTED OPERATIONS FORCE TO A TRADITIONAL FORCE IN URBAN COMBAT", The Master's Thesis of Naval Postgraduate School, September, 2005.
Easton A., and Barlow M., "CROCADILE: An Agent Based Distillation System Incorporating Aspects of Constructive Simulation", Proceedings of SimTect 2002, Melbourne Australia, 13-16 May, 2002.
Yang A., H. A. Abbass and R. Sarker, "Evolving Agents for Network Centric Warfare", Proceedings of the 2005 GECCO Conference on Genetic and Evolutionary, pp. 25-29, June 2005.
Lovgsdon J., D. Nash and M. Barnes, "OneSAF Tutorial", 2008 Defense Modeling and Simulation Conference (DMSC), Olando, FL, USA, March 2008.
Yong-Jun You, Sung-Do Chi, Chan-Ho Jung et al, "A Study of Agent-based No-Human-in-the-Loop Battleship Warfare M&S System", The 7th Conference of marine weapon, pp. 29, 2008.
M. Mitchell, and S. Forrest, "Genetic Algorithms and Artificial Life", ArtificialLife, MITPress, Cambrige,1995.
Young-Kwang Kim, Jang-Se Lee, Sung-Do Chi, "Endomorphic Modeling of Intelligent Systems : Intelligent Card Game Players", Journal of KIISE, Vol. 26, No. 12, pp. 1507-1518, 1999.
L. P. Kaelbling, M. L. Littman, and A. W. Moore, "Reinforcement learning : a survey", Journal of Artificial Intelligence Research 4, 237-285, 1996.
B. P. Zeigler, "Some Properties of Modified Demster- Shafer Operators in Rule-Based Inference Systems", Int. J. General Systems, 1987.
Amandeep Singh Sidhu, Narendra S. Chaudhari, and Ghee Ming Goh, "Hierarchical Reinforcement Learning Model for Military Simulations", International Joint Conference on Neural Networks, Canada, July 2006.
NGAI Chi Kit, "Reinforcement-Learning-Based Autonomous Vehicle Navigation in a Dynamically Changing Environment", for the Degree of Doctor of Philosophy at The University of Hong Kong, November 2007.
Dong-Jin Lee, Hyo-Choong Bang, "Missile Evasive Strategies for Unmanned Aircrafts using Reinforcement Learning", The Conference of The Korean Society for Aeronautical & Space Sciences, pp 470-475, 2012.
Dong-Jin Lee, Hyo-Choong Bang, "Adaptive Linear Quadratic Regulator for Unmanned Helicopters via Reinforcement Learning", The Conference of The Koxrean Society for Aeronautical & Space Sciences, pp 1343-1346, 2011.
D.E. Goldberg, "Genetic Algorithm in Search, Optimization & Machine Learning", Addison-Wesley, 1989.
A.S. Yilmaz, B.N. McQuay, H. Yu, A.S. Wu, and J.C. Sciortino. "Evolving Sensor Suites for Enemy Radar Detection", In Genetic and Evolutionary Computation Conference Proceedings, Part II, pp. 2384-2395. July 2003.
S.W. Soliday. "A Genetic Algorithm model for mission planning and dynamic resource allocation of airborne sensors", In Proceedings, 1999 IRIS National Symposium on Sensor and Data Fusion, Laurel, MD, May 1999.
Sung-Young Lee, Sung-Ho Jang, Jong-Sik Lee, "Modeling and Simulation of Optimal Path Considering Battlefieldsituation in the War-game Simulation", Journal of The Korea Society for Simulation, Vol. 19, No. 3, pp. 27-35, 2010.
Jung-Hong Cho, Jung-Hae Kim, Jea-Soo Kim et al, "Optimal Acoustic Search Path Planning Based on Genetic Algorithm in Discrete Path System", Journal of The Korean Society of Ocean Engineers, Vol. 20, No. 1, pp. 69-76, 2006.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.