$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

YOLOv5와 모션벡터를 활용한 트램-보행자 충돌 예측 방법 연구
A Study of Tram-Pedestrian Collision Prediction Method Using YOLOv5 and Motion Vector 원문보기

정보처리학회논문지. KIPS transactions on software and data engineering. 소프트웨어 및 데이터 공학, v.10 no.12, 2021년, pp.561 - 568  

김영민 (인천대학교 경제학과) ,  안현욱 (고려대학교 전기전자공학부) ,  전희균 (한국철도기술연구원 스마트트램연구실) ,  김진평 (차세대융합기술연구원) ,  장규진 (차세대융합기술연구원 컴퓨터비전 및 인공지능연구실) ,  황현철 (한국철도기술연구원 스마트트램연구실)

초록
AI-Helper 아이콘AI-Helper

최근 자율주행에 관한 기술은 고부가가치 신기술로서 주목받고 있으며 활발히 연구가 진행되고 있는 분야이다. 상용화 가능한 자율주행을 위해서는 실시간으로 정확하게 진입하는 객체를 탐지하고 이동속도를 추정해야 한다. CNN(Convolutional Neural Network) 기반 딥러닝 알고리즘과 밀집광학흐름(Dense Optical Flow)을 사용하는 기존 방식은 실행 속도가 느려 실시간으로 객체를 탐지하고 이동속도를 추정하기에는 한계가 존재한다. 본 논문에서는 트램에 설치된 카메라를 통해 획득된 주행영상에서 딥러닝 알고리즘인 YOLOv5 알고리즘을 활용하여 실시간으로 객체를 탐지를 수행하고, 탐지된 객체영역에서 기존의 밀집광학흐름(Dense Optical Flow) 대신 연산량을 개선한 부분 밀집광학흐름(Local Dense Optical Flow)을 사용하여 객체의 진행 방향과 속력을 빠르게 추정하는 방식을 제안한다. 이를 바탕으로 충돌 시간과 충돌 지점을 예측할 수 있는 모델을 설계하였으며, 이를 통해 트램(Tram)의 주행 중 전방 충돌사고를 방지할 수 있는 시스템에 적용하고자 한다.

Abstract AI-Helper 아이콘AI-Helper

In recent years, autonomous driving technologies have become a high-value-added technology that attracts attention in the fields of science and industry. For smooth Self-driving, it is necessary to accurately detect an object and estimate its movement speed in real time. CNN-based deep learning algo...

주제어

표/그림 (16)

참고문헌 (24)

  1. S. Lee, M. Myung, and T. Kim, "A study on tram traffic accidents characteristics and safety measures," Vol.39, No.4, pp.505-512, 2019. 

  2. A. Manglik, X. Weng, E. Ohn-Bar, and K. M. Kitanil, "Forecasting time-to-collision from monocular video: Feasibility, dataset, and challenges," In 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp.8081-8088, 2019. 

  3. H. Kataoka, T. Suzuki, K. Nakashima, Y. Satoh, and Y. Aoki, "Joint pedestrian detection and risk-level prediction with motion-representation-by-detection," In 2020 IEEE International Conference on Robotics and Automation (ICRA). IEEE, pp.1021-1027, 2020. 

  4. Y. Cai, L. Dai, H. Wang, L. Chen, Y. Li, M. A. Sotelo, and Z. Li, "Pedestrian motion trajectory prediction in intelligent driving from far shot first-person perspective video," IEEE Transactions on Intelligent Transportation Systems, pp.1-16, 2021. 

  5. J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, "You only look once: Unified, real-time object detection," In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.779-788, 2016. 

  6. C. Y. Wang, H. Y. M. Liao, Y. H. Wu, P. Y. Chen, J. W. Hsieh, and I. H. Yeh, "CSPNet: A new backbone that can enhance learning capability of CNN," Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, pp.390-391, 2020. 

  7. J. Park, S. Woo, J. Y. Lee, and I. S. Kweon, "Bam: Bottleneck attention module," arXiv preprint arXiv:1807.06514, 2018. 

  8. S. Elfwing, E. Uchibe, and K. Doya, "Sigmoid-weighted linear units for neural network function approximation in reinforcement learning," Neural Networks, Vol.107, pp.3-11, 2018. 

  9. S. Liu, L. Qi, H. Qin, J. Shi, and J. Jia, "Path aggregation network for instance segmentation," Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.8759-8768, 2018. 

  10. J. Redmon and A. Farhadi, "Yolov3: An incremental improvement," In Computer Vision and Pattern Recognition, pp.1804-2767, 2018. 

  11. T. Y. Lin, et al., "Microsoft coco: Common objects in context," European Conference on Computer Vision. Springer, Cham, pp.740-755, 2014. 

  12. Ultralytics. YOLOv5 [Internet] https://github.com/ultralytics/yolov5 

  13. B. K. Horn and B. G. Schunck, "Determining optical flow," Artificial Intelligence, Vol.17, No.1-3, pp.185-203, 1981. 

  14. A. B. Khalifa, I. Alouani, M. A. Mahjoub, and N. E. B. Amara, "Pedestrian detection using a moving camera: A novel framework for foreground detection," Cognitive Systems Research, Vol.60, pp.77-96, 2020. 

  15. A. Bruhn, J. Weickert, and C. Schnorr, "Lucas/Kanade meets Horn/Schunck: Combining local and global optic flow methods," International Journal of Computer Vision, Vol.61, No.3, pp.211-231, 2005. 

  16. G. Farneback, "Two-frame motion estimation based on polynomial expansion," Scandinavian Conference on Image Analysis. Springer, Berlin, Heidelberg, 2003. 

  17. A. Dosovitskiy, et al., "Flownet: Learning optical flow with convolutional networks," In Proceedings of the IEEE International Conference on Computer Vision, pp.2758-2766, 2015. 

  18. E. Ilg, N. Mayer, T. Saikia, M. Keuper, A. Dosovitskiy, and T. Brox, "Flownet 2.0: Evolution of optical flow estimation with deep networks," In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.2462-2470, 2017. 

  19. M. Bevilacqua, A. Tsourdos, and A. Starr, "Egomotion estimation for monocular camera visual odometer," IEEE International Instrumentation and Measurement Technology Conference Proceedings, pp.1-6, 2016. 

  20. J. Lim and B. Han, "Generalized background subtraction using superpixels with label integrated motion estimation," European Conference on Computer Vision, Springer, Cham, pp.173-187, 2014. 

  21. L. Kurnianggoro, A. Shahbaz, and K. H. Jo, "Dense optical flow in stabilized scenes for moving object detection from a moving camera," 2016 16th International Conference on Control, Automation and Systems (ICCAS), pp.704-708, 2016. 

  22. J. Mao, H. Yu, , X. Gao, and L. Yu, "Complementary motion vector for motion prediction in video coding with longterm reference," In 2019 Picture Coding Symposium (PCS), pp.1-5, 2019. 

  23. M. Muhlhausen, L. Wohler, G. Albuquerque, and M. Magnor, "Iterative optical flow refinement for high resolution images," In IEEE International Conference on Image Processing (ICIP), pp.1282-1286, 2019. 

  24. Y. C. Kuo, C. T. Tsai, and C. H. Chang, "Fast estimation of pedestrian movement," Sensors and Materials, Vol.29, No.6, pp.713-726, 2017, 

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로