최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국경영과학회지 = Journal of the Korean Operations Research and Management Science Society, v.40 no.3, 2015년, pp.63 - 72
진효원 (국방대학교 운영분석학과) , 김수환 (국방대학교 운영분석학과) , 정치정 (한국과학기술원 산업시스템공학과) , 이문걸 (국방대학교 운영분석학과)
This paper presents the issue that is predicting the movement of an agent in an enclosed space by using the MDP (Markov Decision Process). Recent researches on the optimal path finding are confined to derive the shortest path with the use of deterministic algorithm such as
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
MDP 모델링에서 상태란 무엇인가? | 상태(state)는 봉쇄선을 기준으로 안쪽을 보통상태 (normal state), 바깥쪽을 목적상태(object state)라고 정의하며, Snormal 은 보통상태의 집합을, Sobject 는 목적상태의 집합을 나타낸다. | |
에이전트 입장에서 가장 탈출하기 용이한 경로 ㆍ지역이 어디인지 예측하는 모델에 대한 가정은 무엇인가? | 가정 1:탐색자로부터 추적을 당하고 있는 에이전트는 최초 봉쇄구역의 중앙에 위치하며, 봉쇄구역을 탈출하는 것을 목표로 한다. 이를 위해 일정한 속도로 쉬지 않고 움직인다. 가정 2:봉쇄선은 사람이나 장비가 지키고 있으므로 에이전트가 쉽게 탈출할 수 없다. 단, 탈출 가능성이 낮지만 탈출이 불가능한 것은 아니다. 가정 3:에이전트는 이동하는 과정에서 노출을 줄이고, 체력을 비축할 수 있으며, 평소에 경험하거나 훈련받은 지형을 선택해서 움직인다. 가정 4:에이전트는 이동 과정에서 자신이 선택한 지역으로 100% 이동할 수는 없다(체력 고갈, 방위 장비 고장, 탐색자 사전 선점 등이 원인). | |
POMDP가 MDP 보다 계산 과정이 다소 복잡한 이유는 무엇인가? | 국내에서는 마코프 의사결정 프로세스 기반의 문제와 관련, 무인기의 임무 할당 및 정찰 경로 선택에 POMDP(Partially Observable MDP)가 적용된 연구가 있다[1]. POMDP는 기본적으로 MDP의 논리를 근간으로 하지만, 에이전트의 시야가 자신의 주변(관찰이 가능한 상태의 집합)으로 한정되어 있고 자신의 현 위치를 알지 못한다는 것을 전제로 하기 때문에 연산 과정이 MDP보다 다소 복잡하다. 해당 논문에서는 무인기가 가지는 보상에 대해 대공 미사일에 의한 격추(-), 목표물 정찰 성공(+), 임무를 완수하지 못할 경우 매시간당 보상 삭감(-) 등을 구조화함으로써 효과적인 임무 경로를 제시했다. |
김동호, 이재송, 최재득, 김기응, "복수 무인기를 위한 POMDP 기반 동적 임무 할당 및 정찰임무 최적화 기법", 정보과학회지, 제39권, 제6호(2011), pp.453-463.
민대기, "추계 계획법을 이용한 수술실 약 모델과 Newsvendor 비율의 자원 효율성에 한 향 분석", 경영과학, 제28권, 제2호(2011), pp.17-29.
방수남, 허 준, 손홍규, 이용웅, "지형공간정보 및 최적탐색기법을 이용한 최적침투경로 분석", 대한토목학회논문집, 제26권, 제1D호(2006), pp. 195-202.
육군본부, "대침투작전 전투기술", 야전교범 3-0-2, 2009.
윤봉규, "전장 모델링 실무자를 위한 마코프 체인에 대한 소고", 국방과학기술, 제2권, 제3호(2009), pp.47-61.
정석윤, 허 선, "마코프 재생과정을 이용한 ATM트랙픽 모델링 및 성능분석", 한국경영과학학회지, 제24권, 제3호(1999), pp.83-91.
Abhijit, G., "One Step Sizes, Stochastic Shortest Paths, and Survival Probabilities in Reinforcement Learning," Proceeding of the 40th Conference on Winter Simulation. Winter Simulation Conference, 2008.
Alagoz, O., H. Hsu, A.J. Schaefer, and M.S. Roberts, "Markov Decision Processes:A Tool for Sequential Decision Making under Uncertainty," Medical Decision Making, Vol. 30, No.4(2010), pp.474-483.
Bonet, B. and H. Geffner, "Solving Stochastic Shortest-Path Problem with RTDP," Technical report, University of California, Losangeles, 2002.
Hyeong, S.C., C. M. Fu, H.J. Hu, and M.I. Steven, "Simulation-Based Algorithms for Markov Decision Processes," Springer, 2006.
Kolobov, A., Mausam, and D.S. Weld, "Stochastic Shortest Path MDPs with Dead Ends," HSDIP, Vol.78, No.10(2012), pp.78-86.
Pan, Y., L. Sun, and M. Ge, "Finding Reliable Shortest Path in Stochastic Time-Dependent Network," Procedia-Social and Behavioral Sciences, Vol.96, No.6(2013), pp.451-460.
Ravindra, K.A. and L.T. Magnanti, B.J. Orlin, "Network Flows," Prentice Hall, 1993.
Schaefer, A.J., M.D. Bailey, S.M. Schechter, and M.S. Roberts, "Modeling Medical Treatment using Markov Decision Processes," Handbook of Operations Research/Management Science Applications in Health Care, Kluwer Academic Publisher, 2004.
Swarup, S., G. Eubank, and M.V. Marathe, "Computational Epidemiology as Challenge Domain for Multiagent Systems," Proceeding of International Conference on Autonomous Agents and Multi-agent Systems. International Foundation for Autonomous Agents and Multi-agent Systems, 2014.
Yu, X.-H. and W.W. Recker "Stochastic Adaptive Control Model for Traffic Signal Systems," Transportation Research Part C, Vol.14, No.4(2006), pp.263-282.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.