$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

세그멘테이션 기반 차선 인식 네트워크를 위한 적응형 키포인트 추출 알고리즘
Adaptive Key-point Extraction Algorithm for Segmentation-based Lane Detection Network 원문보기

컴퓨터그래픽스학회논문지 = Journal of the Korea Computer Graphics Society, v.29 no.1, 2023년, pp.1 - 11  

이상현 (한국기술교육대학교) ,  김덕수 (한국기술교육대학교)

초록
AI-Helper 아이콘AI-Helper

딥러닝 기반의 이미지 세그멘테이션은 차선 인식을 위해 널리 사용되는 접근 방식 중 하나로, 차선의 키포인트를 추출하기 위한 후처리 과정이 필요하다. 일반적으로 키포인트는 사용자가 지정한 임계값을 기준으로 추출한다. 하지만 최적의 임계값을 찾는 과정은 큰 노력을 요구하며, 데이터 세트(또는 이미지)마다 최적의 값이 다를 수 있다. 본 연구는 사용자의 직접 임계값 지정 대신, 대상의 이미지에 맞추어 적절한 임계값을 자동으로 설정하는 키포인트 추출 알고리즘을 제안한다. 본 논문의 키포인트 추출 알고리즘은 차선 영역과 배경의 명확한 구분을 위해 줄 단위 정규화를 사용한다. 그리고 커널 밀도 추정을 사용하여, 각 줄에서 각 차선의 키포인트를 추출한다. 제안하는 알고리즘은 TuSimple과 CULane 데이터 세트에 적용되었으며, 고정된 임계값 사용 대비 정확도 및 거리오차 측면에서 1.80%p와 17.27% 향상된 결과를 얻는 것을 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

Deep-learning-based image segmentation is one of the most widely employed lane detection approaches, and it requires a post-process for extracting the key points on the lanes. A general approach for key-point extraction is using a fixed threshold defined by a user. However, finding the best threshol...

주제어

참고문헌 (28)

  1. J. Y. Baek, and M. C. Lee, "Lane Recognition Using?Lane Prominence Algorithm for Unmanned Vehicles",?Journal of Institute of Control, Robotics and Systems?(ICROS), Vol. 16, No. 7, pp. 625-631, 2010 

  2. K.-S. Lee, S.-W. Heo, and T.-H. Park, "A Lane?Detection and Tracking Method Using Image?Saturation and Road Width Data", Journal of Institute?of Control, Robotics and Systems (ICROS), Vol. 25,?No. 5, pp. 476-483, 2019 

  3. Z. Kim, "Robust lane detection and tracking in?challenging scenarios," IEEE Transactions on?intelligent trans- portation systems, vol. 9, no. 1,?pp. 16-26, 2008. 

  4. M. Aly, "Real time detection of lane markers in?urban streets," IEEE Intelligent Vehicles Symposium.?pp. 7-12, 2008. 

  5. G. Liu, F. Worgotter, and I. Markelic, "Combining?statistical hough ' transform and particle filter for?robust lane detection and tracking," IEEE Intelligent?Vehicles Symposium. pp. 993-997, 2010. 

  6. K. B. Kim and D. H. Song, "Real time road lane?detection with ransac and hsv color transformation,"?Journal of information and communication?convergence engineering, vol. 15, no. 3, pp. 187-192,?2017. 

  7. T. Zheng, H. Fang, Y. Zhang, W. Tang, Z. Yang, H.?Liu, and D. Cai, "Resa: Recurrent feature-shift?aggregator for lane detection," Proc. of the AAAI?Conference on Artificial Intelligence, vol. 35, no. 4,?pp. 3547-3554, 2021. 

  8. X. Pan, J. Shi, P. Luo, X. Wang, and X. Tang,?"Spatial as deep: Spatial cnn for traffic scene?understanding," Proc. of the AAAI Conference on?Artificial Intelligence, vol. 32, no. 1, 2018. 

  9. D. Neven, B. De Brabandere, S. Georgoulis, M.?Proesmans, and L. Van Gool, "Towards end-to-end?lane detection: an instance segmenta tion approach,"?IEEE intelligent vehicles symposium (IV). pp. 286-291, 2018. 

  10. L. Tabelini, R. Berriel, T. M. Paixao, C. Badue, A.?F. De Souza, and T. Olivera-Santos, "Keep your?eyes on the lane: Attention-guided lane detection,"?arXiv e-prints, pp. arXiv-2010, 2020. 

  11. H. Xu, S. Wang, X. Cai, W. Zhang, X. Liang, and?Z. Li, "Curvelane-nas: Unifying lane-sensitive?architecture search and adaptive point blending," in?European Conference on Computer Vision. pp. 689-704, Springer, 2020. 

  12. L. Tabelini, R. Berriel, T. M. Paixao, C. Badue, A.?F. De Souza, and T. Oliveira-Santos, "Polylanenet:?Lane estimation via deep polynomial regression," in?2020 25th International Conference on Pattern?Recognition (ICPR). pp. 6150-6156, 2021. 

  13. R. Liu, Z. Yuan, T. Liu, and Z. Xiong,?"End-to-end lane shape prediction with?transformers," Proc. of the IEEE/CVF winter?conference on applications of computer vision, pp.?3694-3702, 2021. 

  14. K. He, X. Zhang, S. Ren, and J. Sun, "Deep?residual learning for image recognition," Proc. of the?IEEE conference on computer vision and pattern?recognition, pp.770-778, 2016. 

  15. Tusimple/tusimple-benchmark: [Online]. Available:?https://github.com/TuSimple/tusimple benchmark/ 

  16. Brody Huval, Tao Wang, Sameep Tandon, Jeff Kiske,?Will Song, Joel Pazhayampallil, Mykhaylo Andriluka,?Pranav Rajpurkar, Toki Migimatsu, Royce Cheng-Yue,?Fernando Mujica, Adam Coates, Andrew Y. Ng, "An?empirical evaluation of deep learning on highway?driving," arXiv pre- print arXiv:1504.01716, 2015. 

  17. Z. Qin, H. Wang, and X. Li, "Ultra fast structure-aware deep lane detec tion," in European?Conference on Computer Vision. pp. 276-291,?Springer, 2020. 

  18. S. Yoo, H. S. Lee, H. Myeong, S. Yun, H. Park, J.?Cho, and D. H. Kim, "End-to-end lane marker?detection via row-wise classification," Proc. of the?IEEE/CVF Conference on Computer Vision and?Pattern Recognition Workshops, pp. 1006-1007,?2020. 

  19. X. Li, J. Li, X. Hu, and J. Yang, "Line-cnn:?End-to-end traffic line detection with line proposal?unit," IEEE Transactions on Intelligent Transportation?Systems, vol. 21, no. 1, pp. 248-258, 2019. 

  20. S. Ren, K. He, R. Girshick, and J. Sun, "Faster?R-CNN: Towards real time object detection with?region proposal networks," Advances in neural?information processing systems, vol. 28, 2015. 

  21. Y. Dong, S. Patil, B. van Arem, and H. Farah, "A?hy- brid spatial-temporal deep learning architecture?for lane detection," Computer-Aided Civil and?Infrastructure Engineering, 2022. 

  22. O. Ronneberger, P. Fischer, and T. Brox, "U-Net:?Convolutional networks for biomedical image?segmentation," International Conference on Medical?image com- puting and computer-assisted?intervention. pp. 234-241, Springer, 2015. 

  23. E. Parzen, "On estimation of a probability density?function and mode," The annals of mathematical?statistics, vol. 33, no. 3, pp. 1065-1076, 1962. 

  24. CULane dataset. [Online]. Available:?https://xingangpan.github.io/projects/CULane.html 

  25. Zhan Qu, Huan Jin, Yang Zhou, Zhen Yang, Wei?Zhang, "Focus on local: Detecting lane marker from?bottom up via key point." Proceedings of the?IEEE/CVF Conference on Computer Vision and Pattern?Recognition, 2021. 

  26. Tu Zheng, Yifei Huang, Yang Liu, Wenjian Tang,?Zheng Yang, Deng Cai, Xiaofei He, "CLRNet: Cross?Layer Refinement Network for Lane Detection"?Proceedings of the IEEE/CVF Conference on Computer?Vision and Pattern Recognition, 2022. 

  27. Seungki Min, Insung Ihm. Density Estimation?Technique for Effective Representation of Light?In-scattering. Journal of the Korea Computer Graphics?Society, vol. 16, no. 1, 9-20, 2010. 

  28. De Gelder, E., Cator, E., Paardekooper, J. P., Den?Camp, O. O., & De Schutter, B. Constrained sampling?from a kernel density estimator to generate scenarios?for the assessment of automated vehicles. In 2021?IEEE Intelligent Vehicles Symposium Workshops, pp.?203-208, 2021. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로