$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

후방 카메라 영상과 3차원 도로지도를 이용한 이동차량의 위치인식
Localization of A Moving Vehicle using Backward-looking Camera and 3D Road Map 원문보기

Journal of the Institute of Electronics Engineers of Korea = 전자공학회논문지, v.50 no.3, 2013년, pp.160 - 173  

최성인 (경북대학교 전자전기컴퓨터학부) ,  박순용 (경북대학교 IT대학 컴퓨터학부)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 실외 도로환경에서 주행하는 차량의 위치를 추정하기 위한 비쥬얼 오도메트리 기술을 제안한다. 제안하는 방법은 운전자의 이동계획에 따라 차량의 초기위치에서 원거리에 위치한 특정 목적지를 방문한 후 지나온 경로를 따라 다시 초기위치로 정확하게 복귀해야 하는 차량의 위치인식을 위해 사용된다. 위치인식에는 차량 전방의 3차원 정보획득을 위한 스테레오 카메라와 후방의 영상을 획득하는 단일 카메라를 사용한다. 차량이 목적지를 향해 순방향 주행할 때는 전방 스테레오 비쥬얼 오도메트리(stereo visual odometry)를 이용하여 이동차량의 위치를 추정하고 동시에 도로 및 주변 환경에 대한 3차원 전역지도를 그래프 구조로 생성한다. 차량이 목적지에 도달하여 복귀할 때는 후방의 단일 카메라에서 획득한 2차원 영상과 전역지도를 바탕으로 모노 비쥬얼 오도메트리(monocular visual odometry)로 위치를 추정한다. 복귀하는 차량의 위치를 정확하게 추정하기 위해서는 효과적인 전역지도의 노드 탐색방법이 요구된다. 후방 카메라의 영상 특징과 전역지도의 각 노드의 영상 특징을 정합하고 지도에 저장된 3차원 좌표를 이용하여 차량의 위치를 추정하였다. 또한 3차원 위치추정에 성공한 이전노드들의 정보를 바탕으로 매 영상 프레임마다 적응적으로 탐색영역을 확장하거나 줄이도록 하였다. 두 개의 서로 다른 경로에 대한 실험을 통하여 제안하는 방법의 성능을 검증하였다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, we propose a new visual odometry technique by combining a forward-looking stereo camera and a backward-looking monocular camera. The main goal of the proposed technique is to identify the location of a moving vehicle which travels long distance and comes back to the initial position i...

주제어

질의응답

핵심어 질문 논문에서 추출한 답변
스테레오 카메라의 장점은 무엇인가? 초창기 무인이동차량의 위치인식 분야에서는 위치 및 자세를 추적하기 위해 바퀴 주행거리계(wheel odometry), GPS(global positioning system) 또는 IMU(inertial measurement unit)와 같은 항법센서가 주로 활용되었다가 최근에는 CCD 카메라 또는 레이저 센서를 이용한 컴퓨터 비전 기반 위치인식 기술이 활발하게 진행되고 있다. 특히, 레이저 센서에 비해 저렴한 비용으로 3차원 거리정보를 획득하는 스테레오 카메라가 위치인식에 널리 활용되고 있는 추세이다. Howard[8]와 Nunez[9] 등은 소형 무인이동차량의 전방에 달린 스테레오 카메라에 특징점 정합 방법을 적용하여 무인차량의 상대모션을 구하는 방법을 제안하였으며, Agrawal[10]와 Parra[11], 그리고 Wei[12] 등은 스테레오 카메라와 GPS 센서를 융합하여 GPS의 위치정보보다 정밀도가 높은 하이브리드 위치인식 기술을 소개하였다.
3차원 컴퓨터 비전 기반 위치인식 기술의 단점은 무엇인가? 3차원 컴퓨터 비전 기반 위치인식 기술은 일반적으로 카메라 영상 프레임 대 프레임 사이의 상대 모션을 계산한 뒤 이를 누적하는 방식으로 현재 이동 중인 차량의 위치를 계산한다. 따라서 시간이 점점 흐름에 따라 추정된 위치정보에는 누적오차가 발생하게 된다. 특히, 동적인 물체가 많이 나타나는 실 주행환경에서 원거리를 주행하고 또 복귀하고자 할 경우 이러한 누적오차 문제는 더욱 더 심각한 결과를 초래한다.
3차원 컴퓨터 비전 기반 위치인식 기술은 어떤 원리로 위치를 추정하는가? 3차원 컴퓨터 비전 기반 위치인식 기술은 일반적으로 카메라 영상 프레임 대 프레임 사이의 상대 모션을 계산한 뒤 이를 누적하는 방식으로 현재 이동 중인 차량의 위치를 계산한다. 따라서 시간이 점점 흐름에 따라 추정된 위치정보에는 누적오차가 발생하게 된다.
질의응답 정보가 도움이 되었나요?

참고문헌 (27)

  1. R. Madhavan and E. Messina, "Iterative registration of 3d lader data for autonomous navigation," in Proceedings of the The IEEE Symposium on Intelligent Vehicles, pp. 186-191, 2003. 

  2. R. Madhavan, T. Hong and E. Messina, "Temporal range registration for unmanned ground and aerial vehicles," Journal of Intelligent and Robotics Systems, vol. 44, no. 1, pp. 47-69, 2005. 

  3. N. Vandapel and M. Hebert, "3D Rover localization in airborne lader data," The International Symposium on Experimental Robotics, July 2002. 

  4. N. Vandapel, R. Raghavendra, R. Donamukkala, and M. Hebert, "Unmanned ground vehicle navigation using aerial lader data," The International Journal of Robotics Research, vol. 25, no. 1, pp. 31-51, 2006. 

  5. J. J. Biesiadecki and M. Maimone, "The Mars Exploration Rover Surface Mobility Flight Software: Driving Ambition," in Proceedings of the IEEE conference on Aerospace, 2006. 

  6. E. Jones, B. Fulkerson, E. Frazzoli, D. Kumar, R. Walters, J. Radford, R. Mason, "Autonomous Off-Road Driving in the DARPA Grand Challenge," The IEEE Symposium on Position Location, And Navigation 2006. 

  7. "Google driverless car", Google, http://en.wikipedia.org/wiki/Google_driverless_car 

  8. A. Howard, "Real-time stereo visual odometry for autonomous ground vehicles," in Proceedings of the IEEE conference on Intelligent Robots and Systems, pp. 22-26, 2008. 

  9. P. Nunez, R. Vazquez-Mart, A. Bandera, and F. Sandoval, "Combined Constraint Matching Algorithm for Stereo Visual Odometry based on Local Interest Points," in Proceedings of the IEEE conference on Intelligent Robots and Systems, pp. 3095-3100, 2008. 

  10. M. Agrawal and K. Konolige, "Real-time Localization in Outdoor Environments using Stereo Vision and Inexpensive GPS," in Proceedings of the IEEE International Conference on Pattern Recognition, pp. 1063-1068, 2006. 

  11. I. Parra, M. A. Sotelo, D. F. Llorca, C. Fernandez, A. Llamazares, N. Hernandez and I. Garcia, "Visual odometry and map fusion for GPS navigation assistance," The IEEE Symposium on Industrial Electronics, pp. 832-837, 2011. 

  12. L. Wei, C. Cappelle, Y. Ruichek and F. Zann, "GPS and Stereovision-Based Visual Odometry: Application to Urban Scene Mapping and Intelligent Vehicle Localization," The International Journal of Vehicular Technology, vol. 2011, special page 1-13, 2011. 

  13. B. Musleh, D. Martin, A. Escalera and J. M. Armingol, "Visual ego motion estimation in urban environments based on U-V disparity," The IEEE Symposium on Intelligent Vehicles, pp. 444-449, 2012. 

  14. G. L. Mariottini and S. I. Roumeliotis, "Active Vision-Based Robot Localization and Navigation in a Visual Memory," The IEEE International Conference on Robotics and Automation, 2011. 

  15. Z. Zhu, T. Oskiper, S. Samarasekera, H. Sawhney and R. Kumar, "Ten-fold improvement in visual odometry using landmark matching," in Proceedings of the IEEE International Conference on Computer Vision, 2007. 

  16. Z. Zhu, T. Oskiper, S. Samarasekera, R. Kumar and H. Sawhney, "Real-time Global Localization with a Pre-Built Visual Landmark Database," in Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition, 2008. 

  17. A. Geiger, M. Roser and R. Urtasun, "Effcient large-scale stereo matching," in Proceedings of the Asian Conference on Computer Vision, 2010. 

  18. R. Hartley and A. Zisserman, "Multiple View Geometry in Computer Vision,' 2nd Ed, Cambridge University Press, 2004. 

  19. H. Bay, A. Ess, T. Tuytelaars, L. V. Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, pp. 346-359, 2008. 

  20. S. Umeyama, "Least-Square Estimation of Transformation Parameters Between Two Patterns," In IEEE Transaction on Pattern Analysis and Machine Intelligence, 4(13): 376-380, April, 1991. 

  21. K. Levenberg, "A method for the solution of certain non-linear problems in least square," The Quarterly of Applied Mathmatics, pp. 164-168, 1944. 

  22. M. Muja and D. G. Lowe, "Fast Approximate Nearest Neighbors with Automatic Algorithm Configuration", in International Conference on Computer Vision Theory and Applications, 2009. 

  23. E. Trucco and A. Verri, "Introductory Techniques for 3-D Computer Vision," pp. 132-134, 1998. 

  24. "Camera Calibration Toolbox for Matlab," http://www.vision.caltech.edu/bouguetj/calib_doc/ 

  25. S. I. Choi, L. Zhang, and S. Y. Park, "Stereo Vision based Motion Adjustment of 2D Laser Scan Matching," in Proceedings of the International Conference on Image and Vision Computing New Zealand, 2011. 

  26. D. Nister, 0. Naroditsky, J. Bergen, "Visual Odometry," in Proceedings of the International Conference on Computer Vision and Pattern Recognition, pp. 652-659, 2004. 

  27. A. J. Davison, I. Reid, N. Molton and O. Stasse, "MonoSLAM: Real-time single camera SLAM," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 29, No. 6, pp 1052-1067, 2007. 

저자의 다른 논문 :

관련 콘텐츠

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로