$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Atari Deep Q Network Model을 이용한 장애물 회피에 특화된 실내 자율주행 적용에 관한 연구
A Study about Application of Indoor Autonomous Driving for Obstacle Avoidance Using Atari Deep Q Network Model 원문보기

한국정보처리학회 2018년도 추계학술발표대회, 2018 Oct. 31, 2018년, pp.715 - 718  

백지훈 (한경대학교 전기전자제어공학과) ,  오현택 (한경대학교 전기전자제어공학과) ,  이승진 (한경대학교 전기전자제어공학과) ,  김상훈 (한경대학교 전기전자제어공학과)

초록
AI-Helper 아이콘AI-Helper

최근 다층의 인공신경망 모델이 수많은 분야에 대한 해결 방안으로 제시되고 있으며 2015년 Mnih이 고안한 DQN(Deep Q Network)는 Atari game에서 인간 수준의 성능을 보여주며 많은 이들에게 놀라움을 자아냈다. 본 논문에서는 Atari DQN Model을 실내 자율주행 모바일 로봇에 적용하여 신경망 모델이 최단 경로를 추종하며 장애물 회피를 위한 행동을 학습시키기 위해 로봇이 가지는 상태 정보들을 84*84 Mat로 가공하였고 15가지의 행동을 정의하였다. 또한 Virtual world에서 신경망 모델이 실제와 유사한 현재 상태를 입력받아 가장 최적의 정책을 학습하고 Real World에 적용하는 방법을 연구하였다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 신경망 모델을 강화학습 방법으로 Real world에서 학습 시킨다는 것은 엄청나게 고된 반복적인 노동을 필요로 하여 사실상 불가능에 가깝다. 따라서 본 논문에서는 가상 환경 시뮬레이터 gazebo를 이용하여 가상의 환경 속에서 신경망 모델이 학습을 할 수 있도록 환경을 조성하여 학습하도록 하였다. 또한 단계적인 학습을 통해 안정적인 학습을 할 수 있도록 신경망 모델의 학습 정도에 따라 환경의 난이도를 높여가며 학습을 진행할 수 있도록 단계를 나눠 학습이 진행되도록 하였다.
  • 따라서 연구자는 입력 데이터와 몇 가지의 선택지, 그리고 규칙을 통한 보상을 정의하여 데이터 셋을 만들 필요가 없고 연구자의 개입이 지도 학습 방법에 대해 비교적 적은 강화 학습 방법을 이용하여 심층 신경망 모델의 연결망의 강도를 학습시키는 방법을 선택하였다.본 논문에서는 강화 학습 방법 중 Watkins and Dayan,(1992)에 의해 제안된 TD기법 기반 알고리즘으로행동가치함수 Qπ를 이용하여 최적 정책π*를 찾는 기법인 Q-Learning[2]이 심층 신경망에 적용된 Deep Q-Learning 방법을 통해 모델을 학습시키고자 한다.
  • 그 가운데 Mnih et al (2015)이 고안한 강화학습의 한 방법인 Q-Learning을 심층신경망에 적용시켜 학습시킨 DQN(Deep Q Network)는 Atari의 49개의 게임에 대한 결과 타 알고리즘보다 43개의 게임에서 우위를 차지하였고 29개의 게임에서는 human tester 점수의 75% 이상을 얻어 인간 수준의 제어 능력을 보여주었다[1]. 본 논문은이 기술을 모바일 로봇에 접목시켜 심층 신경망이 학습을 통해 실내 환경에서 장애물 회피에 특화될 수 있도록 유도시키기 위한 연구의 과정이다. 이 연구에서 심층 신경망의 입력 데이터는 Lidar의 2D 스캔을 통한 주변 장애물 거리 정보, ROS의 Gmapping 패키지를 이용하여 미리 작성된 실내 지도에서 로봇의 위치 및 자세 정보, Dijkstra algorithm을 이용한 지도상의 출발지와 목적지에 대한 최단거리 정보를 사용하였다.
  • 이 연구에서 심층 신경망의 입력 데이터는 Lidar의 2D 스캔을 통한 주변 장애물 거리 정보, ROS의 Gmapping 패키지를 이용하여 미리 작성된 실내 지도에서 로봇의 위치 및 자세 정보, Dijkstra algorithm을 이용한 지도상의 출발지와 목적지에 대한 최단거리 정보를 사용하였다. 이를 통해 모델은 학습으로 업데이트된 연결망의 강도에 따라 입력 데이터에 대해 장애물 회피를 위한 최적의 행동을 취할 수 있도록 신경망 모델링 및 학습 방법에 대해 연구를 진행하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
심층 신경망 모델이 이용한 방법은? 최근 뇌의 생물학적인 신경연결망을 모방한 다층의 인공 세포와 연결망으로 구성된 심층 신경망과 연결망의 강도(Weight)를 학습시키는 딥 러닝 방법을 이용한 심층 신경망 모델이 수많은 분야에 대한 해결방안으로 제시되고 있다. 그 가운데 Mnih et al (2015)이 고안한 강화학습의 한 방법인 Q-Learning을 심층신경망에 적용시켜 학습시킨 DQN(Deep Q Network)는 Atari의 49개의 게임에 대한 결과 타 알고리즘보다 43개의 게임에서 우위를 차지하였고 29개의 게임에서는 human tester 점수의 75% 이상을 얻어 인간 수준의 제어 능력을 보여주었다[1].
DQN를 고안한 사람은? 최근 다층의 인공신경망 모델이 수많은 분야에 대한 해결 방안으로 제시되고 있으며 2015년 Mnih이 고안한 DQN(Deep Q Network)는 Atari game에서 인간 수준의 성능을 보여주며 많은 이들에게 놀라움을 자아냈다. 본 논문에서는 Atari DQN Model을 실내 자율주행 모바일 로봇에 적용하여 신경망 모델이 최단 경로를 추종하며 장애물 회피를 위한 행동을 학습시키기 위해 로봇이 가지는 상태 정보들을 84*84 Mat로 가공하였고 15가지의 행동을 정의하였다.
연구자는 입력 데이터와 몇 가지의 선택지, 그리고 규칙을 통한 보상을 정의하여 데이터 셋을 만들 필요가 없고 연구자의 개입이 지도 학습 방법에 대해 비교적 적은 강화 학습 방법을 이용하여 심층 신경망 모델의 연결망의 강도를 학습시키는 방법을 선택한 이유는? 지도 학습(Supervised learning)의 경우 학습 단계에서 많은 입력 데이터와 그에 대한 정답(label)을 필요로 하지만 모델이 상태에 따른 라벨이 붙은 학습 데이터를 만든다는 것은 의미 없는 반복적인 작업이 요구되고 연구자의 성향에 의해 Labeling된 정답이 옳다고 단정 지을 수 없기 때문에 적합하지 않다. 하지만 강화 학습(Reinforcement learning)은 학습자가 능동적으로 환경에 대한 행동을 하고, 이 행동에 대한 평가를 받아 학습이 이루어 진다[4]. 따라서 연구자는 입력 데이터와 몇 가지의 선택지, 그리고 규칙을 통한 보상을 정의하여 데이터 셋을 만들 필요가 없고 연구자의 개입이 지도 학습 방법에 대해 비교적 적은 강화 학습 방법을 이용하여 심층 신경망 모델의 연결망의 강도를 학습시키는 방법을 선택하였다.
질의응답 정보가 도움이 되었나요?
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로