$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

종방향 주행성능향상을 위한 Latent SAC 강화학습 보상함수 설계
On the Reward Function of Latent SAC Reinforcement Learning to Improve Longitudinal Driving Performance 원문보기

전기전자학회논문지 = Journal of IKEEE, v.25 no.4, 2021년, pp.728 - 734  

조성빈 (Dept. of Electrical Engineering, Pusan National University) ,  정한유 (Dept. of Electrical Engineering, Pusan National University)

초록
AI-Helper 아이콘AI-Helper

최근 심층강화학습을 활용한 종단간 자율주행에 대한 관심이 크게 증가하고 있다. 본 논문에서는 차량의 종방향 주행 성능을 개선하는 잠재 SAC 기반 심층강화학습의 보상함수를 제시한다. 기존 강화학습 보상함수는 주행 안전성과 효율성이 크게 저하되는 반면 제시하는 보상함수는 전방 차량과의 충돌위험을 회피하면서 적절한 차간거리를 유지할 수 있음을 보인다.

Abstract AI-Helper 아이콘AI-Helper

In recent years, there has been a strong interest in the end-to-end autonomous driving based on deep reinforcement learning. In this paper, we present a reward function of latent SAC deep reinforcement learning to improve the longitudinal driving performance of an agent vehicle. While the existing r...

주제어

표/그림 (8)

참고문헌 (13)

  1. Z. Zhu and H. Zhao, "A survey of deep RL and IL for autonomous driving policy learning," arXiv preprint, arXiv:2101.01993, 2021. 

  2. H. Abdou et al, "End-to-end deep conditional imitation learning for autonomous driving," Proc. of IEEE ICM'19, pp.346-334, 2019. 

  3. M. Bansal, K. Alex, and O. Abhijit, "Chauffeurnet: Learning to drive by imitating the best and synthesizing the wors," arXiv preprint arXiv: 1812.03079, 2018. 

  4. W. Zeng et al. "End-to-end interpretable neural motion planner," Proc. of the IEEE CVPR'19, 2019. 

  5. J. Chen, E. L. Shengbo, and T. Masayoshi, "Interpretable end-to-end urban autonomous driving with latent deep reinforcement learning," IEEE Trans on Intelli. Transpt. Syst., 2021. 

  6. A. Dosovitskiy et al. "CARLA: An open urban driving simulator," Conf. on Robot Learning. 2017. 

  7. V. Mnih et al. "Human-level control through deep reinforcement learning," Nature, vol.518, no.7540 pp.529-533, 2015. 

  8. R. J. Williams, "Simple statistical gradient-following algorithms for connectionist reinforcement learning," Machine Learning, vol.8, no.3, pp.229-256, 1992. DOI: 10.1007/BF00992696 

  9. T. P. Lillicrap et al. "Continuous control with deep reinforcement learning," arXiv preprint, arXiv: 1349.02971, 2015. 

  10. T. Haarnoja et al. "Soft actor-critic: Off-policy maximum entropy deep reinforcement learning with a stochastic actor," Intern. Conf. on Machine Learning, 2018. 

  11. D. P. Kingma, and W. Max, "Auto-encoding variational bayes," arXiv preprint arXiv:1312.6114, 2013. 

  12. D. Zhao, Z. Xia, and Q. Zhang, "Model-free optimal control based intelligent cruise control with hardware-in-the-loop demonstration," IEEE Comput. Intelli. Mag., vol.12, no.2, pp.56-69, 2017. 

  13. C. Desjardins and B. Chaib-Draa, "Cooperative adaptive cruise control: A reinforcement learning approach," IEEE Trans. on intelli. transpt. syst., vol.12, no.4, pp.1248-1260, 2011. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로