최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기전기전자학회논문지 = Journal of IKEEE, v.23 no.4, 2019년, pp.1381 - 1386
김대호 (Dept. of Software, Gachon University) , 정옥란 (Dept. of Software, Gachon University)
As traffic congestion in cities becomes more serious, intelligent traffic control is actively being researched. Reinforcement learning is the most actively used algorithm for traffic signal control, and recently Deep reinforcement learning has attracted attention of researchers. Extended versions of...
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
적응형 교통신호제어의 역할은? | 적응형 교통신호제어는 교통신호를 동적으로 전환하거나 녹색신호의 길이를 조절한다. 예를 들어, 교차로에서 각 차선의 교통량이 관측되었으면 적응형 교통신호제어는 교통량이 많은 차선에 녹색 신호를 할당함으로써 교통 혼잡을 완화한다. 강화학습은 교통신호제어에 가장 많이 사용되는 알고리즘으로, 알파고(AlphaGo)의 등장 이후로 활발하게 연구되고 있다[6]-[7]. | |
적응형 교통신호제어는 무엇인가? | 적응형 교통신호제어는 교통신호를 동적으로 전환하거나 녹색신호의 길이를 조절한다. 예를 들어, 교차로에서 각 차선의 교통량이 관측되었으면 적응형 교통신호제어는 교통량이 많은 차선에 녹색 신호를 할당함으로써 교통 혼잡을 완화한다. | |
심층 강화학습 알고리즘을 통한 기존의 심층 강화학습 기반 교통신호제어의 한계는 무엇인가? | 또한 심층 강화학습 알고리즘이 다양한 분야에서 높은 성능을 보이면서 심층 강화학습의 확장 버전들이 빠른 속도로 등장했다. 하지만 기존 교통신호제어 연구들은 대부분 단일 교차로 환경에서 진행되었으며, 단일 교차로의 교통 혼잡만 완화하는 방법은 도시 전체의 교통 상황을 고려하지 못한다는 한계가 있다. 본 논문에서는 다중 교차로 환경에서 협력적 교통신호제어를 제안한다. |
J. H. Youn, Y. G. Kang, "Simulation of Traffic Signal Control with Adaptive Priority Order through Object Extraction in Images," Journal of Korea Multimedia Society, Vol.11, No.8 pp.1043-1193, 2008.
Cai, Chen, Chi Kwong Wong, and Benjamin G. Heydecker. "Adaptive traffic signal control using approximate dynamic programming," Transportation Research Part C: Emerging Technologies, Vol.17, No.5 pp.456-474, 2009. DOI: 10.1016/j.trc.2009.04.005
Pandit, Kartik, et al. "Adaptive traffic signal control with vehicular ad hoc network," IEEE Transactions on Vehicular Technolog, Vol.62, No.4 pp.1459-1471, 2013. DOI: 10.1109/TVT.2013.2241460
Maslekar, Nitin, et al. "VANET based adaptive traffic signal control," 2011 IEEE 73rd Vehicular Technology Conference (VTC Spring). IEEE, 2011. DOI: 10.1109/VETECS.2011.5956305
Mannion, Patrick, Jim Duggan, and Enda Howley. "An experimental review of reinforcement learning algorithms for adaptive traffic signal control," Autonomic Road Transport Support Systems. Birkhauser, Cham, pp.47-66, 2016. DOI: 10.1007/978-3-319-25808-9_4
Sutton, Richard S., and Andrew G. Barto. Introduction to reinforcement learning. Vol.2. No.4. Cambridge: MIT press, 1998.
Kaelbling, Leslie Pack, Michael L. Littman, and Andrew W. Moore. "Reinforcement learning: A survey," Journal of artificial intelligence research 4, pp.237-285, 1996.
Li, Li, Yisheng Lv, and Fei-Yue Wang. "Traffic signal timing via deep reinforcement learning," IEEE/CAA Journal of Automatica Sinica, Vol.3, No.3 247-254, 2016. DOI: 10.1109/JAS.2016.7508798
Genders, Wade, and Saiedeh Razavi. "Using a deep reinforcement learning agent for traffic signal control," arXiv preprint arXiv:1611.01142, 2016.
Gao, Juntao, et al. "Adaptive traffic signal control: Deep reinforcement learning algorithm with experience replay and target network," arXiv preprint arXiv:1705.02755, 2017.
Mnih, Volodymyr, et al. "Human-level control through deep reinforcement learning," Nature 518, 7540 pp.529-533, 2015. DOI: 10.1038/nature14236
YoungTae Jo, JinSup Choi, and InBum Jung, "Intersection Traffic Signal Control based on Traffic Pattern Learning for Repetitive Traffic Congestion," Journal of Computing Science and Engineering, Vol.20, No.8, pp.450-465, 2014.
Chen, Ruey-Shun, Duen-Kai Chen, and Szu-Yin Lin. "ACTAM: Cooperative multi-agent system architecture for urban traffic signal control," IEICE transactions on Information and Systems Vol.88, No.1, pp.119-126, 2005.
Van Hasselt, Hado, Arthur Guez, and David Silver. "Deep reinforcement learning with double q-learning," Thirtieth AAAI conference on artificial intelligence. 2016.
Wang, Ziyu, et al. "Dueling network architectures for deep reinforcement learning," arXiv preprint arXiv:1511.06581, 2015.
Schaul, Tom, et al. "Prioritized experience replay," arXiv preprint arXiv:1511.05952 (2015).
Sutton, Richard S. "Learning to predict by the methods of temporal differences," Machine learning Vol.3, No.1, pp.9-44, 1988. DOI: 10.1007/BF00115009
Bellemare, Marc G., Will Dabney, and Remi Munos. "A distributional perspective on reinforcement learning," Proceedings of the 34th International Conference on Machine Learning-Volume 70. JMLR. org, 2017.
Fortunato, Meire, et al. "Noisy networks for exploration." arXiv preprint arXiv:1706.10295, 2017.
Krajzewicz, Daniel, et al. "SUMO (Simulation of Urban MObility)-an open-source traffic simulation," Proceedings of the 4th middle East Symposium on Simulation and Modelling (MESM20002), 2002.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.