$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

차량용 라이다 센서의 평가를 위한 범용 시뮬레이터 개발 및 적용
Development of a General Purpose Simulator for Evaluation of Vehicle LIDAR Sensors and its Application 원문보기

대한원격탐사학회지 = Korean journal of remote sensing, v.31 no.3, 2015년, pp.267 - 279  

임륭혁 (서울시립대학교 공간정보공학과) ,  최경아 (서울시립대학교 공간정보공학과) ,  정지희 (서울시립대학교 공간정보공학과) ,  이임평 (서울시립대학교 공간정보공학과)

초록
AI-Helper 아이콘AI-Helper

자율 주행 자동차 개발에 있어서 라이다 센서의 중요성이 커지고 있다. 센서 선정이나 알고리즘 개발을 위해 고가의 라이다 센서를 차량에 탑재하여 다양한 주행 환경에 대해 시험하기에 어려움이 따른다. 이에 본 연구는 다양한 차량용 라이다 센서에 대한 일반화된 기하모델링을 통해 범용적으로 적용될 수 있는 차량용 라이다 시뮬레이터를 개발하였다. 개발된 시뮬레이터를 활용하여 많이 활용되고 있는 특정 센서에 대하여 데이터 시뮬레이션과 품질 검증을 수행하였다. 또한, 생성된 데이터를 장애물 탐지에 적용함으로써 선정된 센서의 활용 가능성을 평가하였다. 이처럼 개발된 시뮬레이터는 센서의 도입 및 운용에 앞서서 다양한 실험을 가능하게 하고, 하드웨어 구축과 병행하여 알고리즘 개발을 도모할 수 있다.

Abstract AI-Helper 아이콘AI-Helper

In the development of autonomous vehicles, the importance of LIDAR sensors becomes larger. For sensor selection or algorithm development, it is difficult to test expensive LIDAR sensors mounted on a vehicle under various driving environment. In this study, we developed a simulator that is generally ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구를 통해 개발된 시뮬레이터를 자율 주행 차량의 핵심 분야 중의 하나인 장애물 탐지에 적용하여 앞서 소개된 라이다 센서가 장애물 탐지에 적합한 지 평가해보고자 한다. 가장 기본적인 장애물 탐지는 도로 영역 내에서 지면과 비지면 영역을 구분하여 주행 가능 영역을 판단하는 것이다.
  • 본 연구에서는 차량에 적용 가능한 라이다에 대한 시뮬레이션을 수행하기 위해 통합형 라이다 센서의 모델링 방법을 제시한다. 또한 특정 센서의 시뮬레이션으로 생성된 데이터를 분석함으로써 자율 주행 자동차에 적용하기 적합한 라이다의 제원을 도출한다.
  • 본 장에서는 차량용 라이다 시스템에 범용으로 적용 가능한 센서 방정식을 수립하기 위하여 기하학적 모델링을 수행한다. 다음으로 범용 센서 방정식에 특정 센서를 적용하는 일례로써, Velodyne 사의 HDL-64와 Ibeo사의 LUX 8L를 선정하여 이에 적용해 본다.
  • 차량에 동일한 위치에 라이다 센서가 장착된다고 하면, 센서의 종류에 따라 식 (1)과 식 (2) 부분만 달라질 것이다. 본 절에서는 자율 주행 자동차를 위해 보편적으로 많이 탑재되는 라이다 센서로써, Velodyne의 HDL-64와 Ibeo사의 LUX 8L를 선정하여 이들의 센서 데이터를 시뮬레이션하기 위하여 센서 방정식에 어떻게 적용하는지 보여주고자 한다. Table 1은 HDL-32와 LUX 8L의 주요 제원이다.
  • 입력 모델에 대하여 100 m의 도로를 주행하였을 때 취득되는 Velodyne HDL-64와 Ibeo LUX 8L의 시뮬레이션 데이터의 품질을 분석하여 도로 상의 객체를 식별하기에 적합한 지 판단하고자 한다. 이를 위해 Fig.

가설 설정

  • LUX 8L의 경우 2대가 IMU와 같은 수직 선 상에서 전방 180°를 커버하도록 차량 지붕에 탑재된 것으로 가정하였다.
  • 이를 위하여 특정 영역을 격자 화한 후, 각 셀이 객체에 의하여 점유되었는지에 대한 정보를 나타내는 점유 격자 지도(occupancy grid map) 생성하는 알고리즘(Glaser, 2014)을 구현하여 시뮬레이터에 의하여 생성된 데이터에 적용하였다. 알고리즘 구현 측면에서 주행 가능한 도로 영역은 장애물이 없는 연속적인 영역이므로 경사가 0에 가까워야 한다고 가정한다. 반대로 장애물이 존재한다면 경사(gradient)가 크게 발생하기 때문에, 이를 기준으로 주행 불가 영역으로 판단할 수 있다.
  • 차량은 직선 경로를 따라 주어진 속도로 이동하는 것으로 설정하였고, HDL-64는 IMU와 같은 수직 선 상에 전방을 바라보도록 차량 지붕에 탑재된 것으로 가정하였다. LUX 8L의 경우 2대가 IMU와 같은 수직 선 상에서 전방 180°를 커버하도록 차량 지붕에 탑재된 것으로 가정하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
운전자 보조 시스템의 목적은? 운전자 보조 시스템은 차량이 차선을 이탈하는 상황을 운전자에게 경고하기도 하며, 교통 혼잡 상황에서 운전자의 조작 없이 선행차량을 추종하는 등 운전자의 편의와 안전성을 향상시키기 위한 목적을 갖는다. 이와 같은 운전자 보조 시스템들의 최종 진화형은 사람의 조작 없이 목적지까지 스스로 판단하며 안전하게 주행할 수 있는 자율 주행 자동차라고 할 수 있다.
라이다란? 라이다는 레이저 펄스를 주사하고 대상 객체에 반사되어 돌아오는 펄스를 탐지하여 센서로부터 객체까지의 방향과 거리를 측정하는 센서이다. GPS/INS와 같은 항법 시스템과 결합되어 대상 객체에 대한 3차원 절대 좌표를 실시간적으로 취득할 수 있다는 장점이 있다.
주행 환경에 대한 정확한 인지를 위한 센서에는 어떤 것들이 있는가? 자율 주행 자동차 개발에 있어서 주행 환경에 대한 정확한 인지는 차량의 탑승자나 도로 주면의 행인들의 안전을 위하여 매우 중요하다. 이와 같은 인지 문제를 해결하고자 차량에 다양한 센서들이 장착되어 활용되고 있으며, 카메라, 라이다, 레이다 등이 대표적인 것들이다.
질의응답 정보가 도움이 되었나요?

참고문헌 (17)

  1. Ahn, S., Y. Choe, and M.J. Chung, 2012. Fast Scene Understanding in Urban Environments for an Autonomous Vehicle equipped with 2D Laser Scanners, The Journal of Korea Robotics Society, 7(2): 92-100 (in Korean with an English abstract). 

  2. Atanacio-Jimenez, G., J.-J. Gonzalez-Barbosa, J.B. Hurtado-Ramos, F.J. Ornelas-Rodriguez, H. Jimenez-Hernandez, T. Garcia-Ramirez, and R. Gonzalez-Barbosa, 2011. Lidar Velodyne HDL-64E Calibration using Pattern Planes, International Journal of Advanced Robotic Systems, 8.5: 70-82. 

  3. Blanquer, E., 2007. LADAR proximity fuze-system study, Master's Degree Project Stockholm, Sweden. 

  4. Chun, C.-M., S.B. Suh, S.H. Lee, C.W. Roh, S.C. Kang,and Y.S. Kang, 2010. Autonomous Navigation of KUVE (KIST Unmanned Vehicle Electric), Journal of Institute of Control, Robotics and Systems, 16(7): 617-624. 

  5. Glaser, C., T.P. Michalke, L. Burkle, F. Niewels, and R. Bosch, 2014. Environment perception for innercity driver assistance and highly-automated driving, Proc. of Intelligent Vehicles Symposium. June 8-11, Dearborn, Michigan, USA. 

  6. Glennie, C., 2010. Static calibration and analysis of the Velodyne HDL-64E S2 for high accuracy mobile scanning, Remote Sensing, 2.6: 610-1624. 

  7. Hutchinson, B.A., R.L. Galbraith, B.L. Stann, and S.Z. Der, 2003. Simulation-based analysis of range and cross-range resolution requirements for the identification of vehicles in ladar imagery, Optical Engineering, 42(9): 2734-2745. 

  8. Kim, J., K. Jo, D. Kim, K. Chu, and M. Sunwoo, 2013. Behavior and Path Planning Algorithm of Autonomous Vehicle A1 in Structured Environments, Proc. of IFAC Intelligent Autonomous Vehicle Symposium, Sofitel Gold Coast, Gold Coast, Australia, pp.36-41. 

  9. Kim, J., K.K. Kwon, and S.I. Lee, 2012. Trends and Applications on Lidar Sensor Technology, ETRI, Electronics and Telecommunications Trends (in Korean with an English abstract). 

  10. Kim, S., S.H. Min, I.P. Lee, and K.A. Choi, 2008. Geometric Modeling and Data Simulation of an Airborne LIDAR System, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry abd Cartography, 26.3: 311-320 (in Korean with an English abstract). 

  11. Lovell, J., D.L.B. Jupp, G. Newnham, N.C. Coops, and D.S. Culvenor, 2005. Simulation study for finding optimal lidar acquisition parameters for forest height retrieval, Forest Ecology and Management, 214(1): 398-412. 

  12. Markoff, J., 2009, October, 9. Google Cars Drive Themselves, in Traffic, The New York Times. 

  13. Miller, I., S. Lupashin, N. Zych, P. Moran, B. Schimpf, A. Nathan, and E. Garcia, 2006. Cornell University's 2005 DARPA grand challenge entry, Journal of Field Robotics, 23(8): 625-652. 

  14. Theisen, B. 2011. Autonomous Mobility Applique System (AMAS), Army Tank Automotive Research Development and Engineering Center, Warren MI. 

  15. Thrun, S., M. Montemerlo, H. Dahlkamp, D. Stavens, A. Aron, J. Diebel, P. Fong, J. Gale, M. alpenny, G. Hoffmann, K. Lau, C. Oakley, M. Palatucci, V. Pratt, P. Stang, S. Strohband, C. Dupont, L. Jendrossek, C. Koelen, C. Markey, C. Rummel, J. van Niekerk, E. Jensen, P. lessandrini G. Bradski, B. Davies, S. Ettinger, A. Kaehler, A. Nefian, and P. Mahoney, 2006, Stanley: The robot that won the DARPA Grand Challenge, Journal of filed Robotics, 23(9): 661-692. 

  16. Tropschuh, P.F. and M. Biendl, 2015. Audi: Raw Materials, Road, Recycling-How Life Cycle Analysis Influences Product Development, Springer International Publishing, pp. 167-183. 

  17. Vasile, A.N. and R.M. Marino, 2005. Pose-independent automatic target detection and recognition using 3D laser radar imagery, Lincoln Laboratory Journal, 15(1): 61-78. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로