$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"

논문 상세정보

도심로 주행을 위한 딥러닝 기반 객체 검출 및 거리 추정 알고리즘 적용

Application of Deep Learning-based Object Detection and Distance Estimation Algorithms for Driving to Urban Area

초록

본 논문은 자율주행 차량 적용을 위한 객체 검출과 거리 추정을 수행하는 시스템을 제안한다. 객체 검출은 최근 활발하게 사용되는 딥러닝 모델 YOLOv4의 특성을 이용해서 입력 이미지 비율에 맞춰 분할 grid를 조정하고 자체 데이터셋으로 전이학습된 네트워크로 수행한다. 검출된 객체까지의 거리는 bounding box와 homography를 이용해 추정한다. 실험 결과 제안하는 방법에서 전반적인 검출 성능 향상과 실시간에 가까운 처리 속도를 보였다. 기존 YOLOv4 대비 전체 mAP는 4.03% 증가했다. 도심로 주행시 빈출하는 보행자, 차량 및 공사장 고깔(cone), PE드럼(drum) 등의 객체 인식 정확도가 향상되었다. 처리 속도는 약 55 FPS이다. 거리 추정 오차는 X 좌표 평균 약 5.25m, Y 좌표 평균 0.97m으로 나타났다.

Abstract

This paper proposes a system that performs object detection and distance estimation for application to autonomous vehicles. Object detection is performed by a network that adjusts the split grid to the input image ratio using the characteristics of the recently actively used deep learning model YOLOv4, and is trained to a custom dataset. The distance to the detected object is estimated using a bounding box and homography. As a result of the experiment, the proposed method improved in overall detection performance and processing speed close to real-time. Compared to the existing YOLOv4, the total mAP of the proposed method increased by 4.03%. The accuracy of object recognition such as pedestrians, vehicles, construction sites, and PE drums, which frequently occur when driving to the city center, has been improved. The processing speed is approximately 55 FPS. The average of the distance estimation error was 5.25m in the X coordinate and 0.97m in the Y coordinate.

참고문헌 (9)

  1. 1. Bochkovskiy, A., Wang, C. Y. and Liao, H. Y. M.(2020), Yolov4: Optimal speed and accuracy of object detection, arXiv preprint arXiv:2004.10934. 
  2. 2. Cao, Y., Wu, Z. and Shen, C.(2018), "Estimating Depth from Monocular Images as Classification Using Deep Fully Convolutional Residual Networks", IEEE Transactions on Circuits and Systems for Video Technology, vol. 28, no. 11, pp.3174-3182. 
  3. 3. Elzayat, I. M., Ahmed, S. M., Mostafa, M. M., Mahmoud, H. R., El Munim, H. A., Ghoneima, M., Darweesh, M. S. and Mostafa, H.(2018), "Real-Time Car Detection-Based Depth Estimation Using Mono Camera", 30th International Conference on Microelectronics(ICM), IEEE, pp.248-251. 
  4. 4. Kriegman, D.(2007), "Homography estimation", Lecture Computer Vision I, Computer Science Engineering(CSE), p.a 252. 
  5. 5. Long, X., Deng, K., Wang, G., Zhang, Y., Dang, Q., Gao, Y., Shen, H., Ren, J., Han, S., Ding, E. and Wen, S.(2020), PP-YOLO: An effective and efficient implementation of object detector, arXiv preprint arXiv:2007.12099. 
  6. 6. Pan, S. J. and Yang, Q.(2010), "A Survey on Transfer Learning", IEEE Transactions on Knowledge and Data Engineering, vol. 22, no. 10, pp.1345-1359. 
  7. 7. Redmon, J. and Farhadi, A.(2018), YOLOv3: An Incremental Improvement, arXiv preprint arXiv:1804.02767. 
  8. 8. Redmon, J., Divvala, S., Girshick, R. and Farhadi, A.(2016), "You only look once: Unified, real-time object detection", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.779-788. 
  9. 9. Zhang, Y., Li, X., Wang, F., Wei, B. and Li, L.(2021), "A Comprehensive Review of One-stage Networks for Object Detection", 2021 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC), 1-6. 

DOI 인용 스타일

"" 핵심어 질의응답