최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국정보처리학회 2018년도 추계학술발표대회, 2018 Oct. 31, 2018년, pp.715 - 718
백지훈 (한경대학교 전기전자제어공학과) , 오현택 (한경대학교 전기전자제어공학과) , 이승진 (한경대학교 전기전자제어공학과) , 김상훈 (한경대학교 전기전자제어공학과)
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
심층 신경망 모델이 이용한 방법은? | 최근 뇌의 생물학적인 신경연결망을 모방한 다층의 인공 세포와 연결망으로 구성된 심층 신경망과 연결망의 강도(Weight)를 학습시키는 딥 러닝 방법을 이용한 심층 신경망 모델이 수많은 분야에 대한 해결방안으로 제시되고 있다. 그 가운데 Mnih et al (2015)이 고안한 강화학습의 한 방법인 Q-Learning을 심층신경망에 적용시켜 학습시킨 DQN(Deep Q Network)는 Atari의 49개의 게임에 대한 결과 타 알고리즘보다 43개의 게임에서 우위를 차지하였고 29개의 게임에서는 human tester 점수의 75% 이상을 얻어 인간 수준의 제어 능력을 보여주었다[1]. | |
DQN를 고안한 사람은? | 최근 다층의 인공신경망 모델이 수많은 분야에 대한 해결 방안으로 제시되고 있으며 2015년 Mnih이 고안한 DQN(Deep Q Network)는 Atari game에서 인간 수준의 성능을 보여주며 많은 이들에게 놀라움을 자아냈다. 본 논문에서는 Atari DQN Model을 실내 자율주행 모바일 로봇에 적용하여 신경망 모델이 최단 경로를 추종하며 장애물 회피를 위한 행동을 학습시키기 위해 로봇이 가지는 상태 정보들을 84*84 Mat로 가공하였고 15가지의 행동을 정의하였다. | |
연구자는 입력 데이터와 몇 가지의 선택지, 그리고 규칙을 통한 보상을 정의하여 데이터 셋을 만들 필요가 없고 연구자의 개입이 지도 학습 방법에 대해 비교적 적은 강화 학습 방법을 이용하여 심층 신경망 모델의 연결망의 강도를 학습시키는 방법을 선택한 이유는? | 지도 학습(Supervised learning)의 경우 학습 단계에서 많은 입력 데이터와 그에 대한 정답(label)을 필요로 하지만 모델이 상태에 따른 라벨이 붙은 학습 데이터를 만든다는 것은 의미 없는 반복적인 작업이 요구되고 연구자의 성향에 의해 Labeling된 정답이 옳다고 단정 지을 수 없기 때문에 적합하지 않다. 하지만 강화 학습(Reinforcement learning)은 학습자가 능동적으로 환경에 대한 행동을 하고, 이 행동에 대한 평가를 받아 학습이 이루어 진다[4]. 따라서 연구자는 입력 데이터와 몇 가지의 선택지, 그리고 규칙을 통한 보상을 정의하여 데이터 셋을 만들 필요가 없고 연구자의 개입이 지도 학습 방법에 대해 비교적 적은 강화 학습 방법을 이용하여 심층 신경망 모델의 연결망의 강도를 학습시키는 방법을 선택하였다. |
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.