$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

자율주행을 위한 센서 데이터 융합 기반의 맵 생성
Map Building Based on Sensor Fusion for Autonomous Vehicle 원문보기

한국자동차공학회논문집 = Transactions of the Korean Society of Automotive Engineers, v.22 no.6, 2014년, pp.14 - 22  

강민성 (영남대학교 정보통신공학과) ,  허수정 (한국과학기술연구원 센서시스템 연구센터) ,  박익현 (영남대학교 정보통신공학과) ,  박용완 (영남대학교 정보통신공학과)

Abstract AI-Helper 아이콘AI-Helper

An autonomous vehicle requires a technology of generating maps by recognizing surrounding environment. The recognition of the vehicle's environment can be achieved by using distance information from a 2D laser scanner and color information from a camera. Such sensor information is used to generate 2...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 따라서 본 논문에서는 2차원 레이저 스캐너와 카메라 데이터 융합의 3차원 맵 생성에서 높이 값을 제외한 색상 정보만을 이용하여 데이터 처리량이 감소한 2차원 맵을 생성기술을 제안한다. 본 논문의 구성은 다음과 같다.
  • 맵 생성 알고리즘에서 주행 가능 공간 인식에 사용하는 함수보다 차선 인식에 사용하는 함수의 복잡도가 높기 때문에 더 많은 데이터 처리량을 요구한다. 따라서 본 논문에서는 차선 인식에 필요한 데이터 처리량 감소에 초점을 두고 있다. 기존 알고리즘과 같이 맵을 생성하고 차선을 인식하게 되면 초기의 카메라 데이터(640×480)보다 일반적으로 맵의 범위(100m 공간을 표현하기 위해 1000×1000 필요)가 크기 때문에 데이터 처리량이 증가하게 된다는 문제점이 있다.
  • 하지만 센서 융합 기반의 3차원 맵 생성 기술은 실제 환경과 유사하다는 장점은 있지만 데이터 처리 비용이 높아서 자율주행 자동차에서 실시간성을 보장하기 어렵다. 또한 자율주행 자동차에 있어 맵은 신속하게 목표 지점까지의 경로를 생성하는 것이 목표이다.
  • 따라서 맵의 크기에 따라 차선 인식에 필요한 데이터 처리량이 변화하게 된다. 본 논문에서는 자율주행 자동차의 실시간 맵 생성을 위하여 카메라의 차선 인식에 필요한 데이터를 감소시킨다.
  • 본 논문은 자율주행을 위한 2차원 레이저 스캐너와 카메라 데이터 융합 기반의 2차원 맵 생성 기술을 개발하였다. 자율주행 자동차에 있어 맵은 신속하게 목표 지점까지의 경로를 생성하는 것이 목표이기 때문에 융합 기반의 2차원 맵 생성에 초점을 두었다.

가설 설정

  • 9) 센서에 인식되는 장애물의 거리가 멀어질수록 정확도가 낮아지게 된다. 따라서 센서에 인식된 장애물의 거리에 따라서 확률 값이 변화하는 함수를 적용하였다.
  • rmax와 rmin은 센서의 최대, 최소 거리이며 본 논문에서는 센서의 최대거리를 20m로 최소 거리는 0.1m로 설정하였다. 센서의 최대거리의 경우 차량이 저속 주행(30km/h)일 때 제동거리가 15m 정도이기 때문에 센서의 처리 속도를 고려하여 20m로 설정하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
자율주행 자동차는 무엇인가? 자율주행 자동차란 운전자의 개입 없이 주변 환경을 인식하고, 주행 상황을 판단하여, 차량을 제어함으로써 스스로 주어진 목적지까지 주행하는 자동차를 말한다. 자율주행 자동차의 핵심 기술로써 주변 환경을 인식하여 맵을 생성하는 기술이 있다.
레이더 센서가 무인 자율주행 자동차에 적합하지 않는 이유는? 레이더 센서는 환경에 강인하고 탐지 거리가 길다는 장점이 있어 운전자 보조 시스템의 장애물 인식이나 크루즈 컨트롤(Adaptive Cruise Control) 시스템에 사용되고 있다.5) 하지만 거리 해상도에 비해 낮은 각 해상도 때문에 도시와 같이 다수개의 장애물이 있는 복잡한 환경에 대하여 인식하는데 어려움이 있어 무인 자율주행 자동차에 적합하지 않다.6)
주변 환경인식에 사용하는 대표적인 센서는 무엇이 있는가? 이러한 맵을 기반으로 주행 경로를 생성하고 차량을 제어 하면서 자율주행을 하게 된다. 주변 환경인식에 사용하는 대표적인 센서로는 레이더(Radio Detecting Ranging), 레이저 스캐너(Laser Scanner), 카메라가 있다.4) 센서의 성능은 인지 거리, 인지 범위, 거리 정확도, 거리 해상도, 각 해상도로 구별할 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (16)

  1. Unmanned Ground Vehicle Master Plan, US Department of Defense Report, 1992. 

  2. K. Chu, J. Han, M. Lee, D. Kim, K. Jo, D. Oh, E. Yoon, M. Gwak, K. Han, D. Lee, B. Choe, Y. Kim, K. Lee, K. Huh and M. Sunwoo, "Development of an Autonomous Vehicle: A1," Transactions of KSAE, Vol.19, No.4, pp.146-154, 2011. 

  3. S. Thrun, M. Montemerlo, H. Dahlkamp, D. Stavens, A. Aron, J. Diebel, P. Fong, J. Gale, M. Halpenny, G. Hoffmann, K. Lau, C. Oakley, M. Palatucci, V. Pratt, P. Stang, S. Strohband, C. Dupont, L. E. Jendrossek, C. Koelen, C. Markey, C. Rummel, J. van Niekerk, E. Jensen, P. Alessandrini, G. Bradski, B. Davies, S. Ettinger, A. Kaehler, A. Nefian and P. Mahoney, "Stanley: The Robot That Won the DARPA Grand Challenge," J. Field Robot, Vol.23, No.9, pp.661-692, 2006. 

  4. M. Montemerlo, J. Becker, S. Bhat, H. Dahlkamp, D. Dolgov, S. Ettinger, D. Haehnel, T. Hilden, G. Hoffmann, B. Huhnke, D. Johnston, S. Klumpp, D. Langer, A. Levandowski, J. Levinson, J. Marcil, D. Orenstein, J. Paefgen, I. Penny, A. Petrovskaya, M. Pflueger, G. Stanek, D. Stavens, A. Vogt and S. Thrun, "Junior: The Stanford Entry in the Urban Challenge," J. Field Robot, Vol.25, No.9, pp.569-597, 2008. 

  5. J. Wenger, "Automotive Radar - Status and Perspectives," Proc. IEEE Compound Semicond. Integer. Circuit Symp., pp.21-24, 2005. 

  6. J. Han, D. Kim, M. Lee and M. Sunwoo, "Enhanced Road Boundary and Obstacle Detection Using a Downward-looking LIDAR Sensor," IEEE Trans. Veh. Technol., Vol.61, No.3, pp.971-985, 2012. 

  7. A. Kirchner and T. Heinrich, "Model Based Detection of Road Boundaries with a Laser Scanner," Proceedings of the IEEE Intelligent Vehicles Symposium, pp.93-98, 1998. 

  8. T. Weiss, B. Schiele and K. Dietmayer, "Robust Driving Path Detection in Urban and Highway Scenarios Using a Laser Scanner and Online Occupancy Grids," Intelligent Vehicles Symposium, pp.184-189, 2007. 

  9. M. Konrad, M. Szczot and K. Dietmayer, "Road Course Estimation in Occupancy Grids," Intelligent Vehicles Symposium, pp.21-24, 2010. 

  10. K. Lin, C. Chang, A. Dopfer and C. Wang, "Mapping and Localization in 3D Environments Using a 2D Laser Scanner and a Stereo Camera," J. Science and Engineering, Vol.28, No.1, pp.131-144, 2012. 

  11. M. Cole and M. Newman, "Using Laser Range Data for 3D SLAM in Outdoor Environments," Robotics and Automation, Vol.1, No.4, pp.1556-1563, 2006. 

  12. R. Halterman and M. Bruch, "Velodyne HDL-64E LIDAR for Unmanned Surface Vehicle Obstacle Detection," Proceeding of International Society for Optical Engineering, Vol.7692, No.9, pp.224-231, 2010. 

  13. L. Iocchi and S. Pellegrini, "Building 3D Maps with Semantic Elements Integrating 2D Laser, Stereo Vision and IMU on a Mobile Robot," Proceedings of the 2nd International Society for Photogrammetry and Remote Sensing International Workshop 3D-ARCH, pp.915-926, 2007. 

  14. J. Joung, K. An, J. Kang, W. Kim, W. Kim and M. Chung, "3D Terrain Reconstruction Using 2D Laser Range Finder and Camera Based on Cubic Grid for UGV Navigation," Transactions of Korean Institute of Electrical Engineers, Vol.46, No.6, pp.26-34, 2008. 

  15. U. Wong, B. Garney, W. Whittaker and R. Whittaker, Camera and LIDAR Fusion for Mapping of Actively Illuminated Subterranean Voids, Field and Service Robotics, Springer, Berlin, Vol.62, No.4, pp.421-430, 2010. 

  16. S. Thrun, W. Burgard and D. Fox, Probabilistic Robotics, The MIT Press, Cambridge, Massachusetts, 2005. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로