$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

구형물체의 중심좌표를 이용한 VLP-16 라이다 센서와 비전 카메라 사이의 보정
Calibration of VLP-16 Lidar Sensor and Vision Cameras Using the Center Coordinates of a Spherical Object 원문보기

정보처리학회논문지. KIPS transactions on software and data engineering. 소프트웨어 및 데이터 공학, v.8 no.2, 2019년, pp.89 - 96  

이주환 (경북대학교 컴퓨터학부) ,  이근모 (경북대학교 컴퓨터학부) ,  박순용 (경북대학교 컴퓨터학부)

초록
AI-Helper 아이콘AI-Helper

전방향 3차원 라이다 센서와 비전 카메라는 자동차나 드론 등의 자율주행기술 개발에 활용되고 있다. 한편 라이다 센서와 카메라 좌표계 사이의 변환 관계를 보정하기 위한 기존의 기술들은 특수한 보정물체를 제작하거나 보정물체의 크기가 큰 단점이 있다. 본 논문에서는 한 개의 구형물체를 사용하여 두 센서 사이의 기하보정을 간편하게 구현하는 방법을 소개한다. 구형 물체의 3차원 거리정보에서 RANSAC으로 네 개의 3차원 점을 선택하여 구의 중심좌표를 계산하고, 카메라 영상에서 물체의 2차원 중심점을 구하여 두 센서를 보정하였다. 구는 다양한 각도에서 영상을 획득하여도 항상 원형의 형상을 유지하기 때문에 데이터 획득 시 유리한 장점이 있다. 본 논문에서 제안하는 방법으로 약 2픽셀의 투영오차의 결과를 얻었고, 기존의 방법과의 비교실험을 통하여 제안 기술의 성능을 분석하였다.

Abstract AI-Helper 아이콘AI-Helper

360 degree 3-dimensional lidar sensors and vision cameras are commonly used in the development of autonomous driving techniques for automobile, drone, etc. By the way, existing calibration techniques for obtaining th e external transformation of the lidar and the camera sensors have disadvantages in...

주제어

표/그림 (19)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서 제안한 방법의 성능을 검증하기 위하여 한 대의 라이다 센서와 6대의 카메라를 정확하게 보정하는 것을 목표로 두고 실험을 진행하였다. Fig.
  • 본 논문에서는 360도 거리정보를 획득할 수 있는 센서인 라이다 센서를 카메라를 함께 사용할 때 특별한 보정물체를 이용하는 것이 아니라 주위에서 쉽게 구할 수 있는 구형물체(spherical object)만을 사용하여 간편하게 두 센서 간의 좌표 변환관계를 알 수 있는 보정 기술을 소개한다. 참고문헌 [10] 에서 저자는 360도 라이다 센서와 비전 카메라의 보정에 대한 기술을 제안한 바가 있다.
  • 제안하는 방법은 두 센서의 공통된 시야 내에 구형물체를 다양한 위치로 이동하고 구형 물체의 2차원 영상정보와 3차원 형상정보를 획득한 후 획득한 데이터를 사용하여 쉽게 두 센서 사이의 3차원 변환정보를 계산하는 것이다. 본 논문에서는 기존의 논문을 확장하여 라이다-카메라 센서를 보정하기 위한 기존의 보정 방법과의 정확도를 비교 분석하였다. 기존 라이다-카메라 보정에 많이 사용되는 Zhang 알고리즘과 원형 평판을 결합한 방법과의 비교를 위하여 3차원 라이다 데이터를 2차원 영상으로 투영하고 그 오차를 비교하였다.
  • 본 논문에서는 라이다 센서와 카메라간의 보정을 보다 쉽고 빠르게 구현하기 위하여 하나의 구형물체만 사용하는 방법을 제안하였다. [10, 11]에서 저자는 구형물체를 이용하여 360도 라이다 센서와 비전 카메라의 보정, 그리고 다시점RGBD카메라들 사이의 보정에 관하여 기술을 제안한 바가 있다.
  • 본 논문에서는 주위에서 쉽게 구할 수 있는 구형물체를 사용하여 라이다 센서와 같은 거리센서와 카메라 사이를 비교적 쉽고 간편하게 보정 할 수 있는 방법을 제안하였다. 제안한 방법은 주변에서 쉽게 구할 수 있는 구형물체를 사용하기 때문에 기존의 방법들과는 달리 특별하게 보정물체를 제작할 필요가 없다.
  • 따라서 #latex 는 라이다 센서와 u번 카메라의 사이의 3차원 기하학적 관계를 표현하는 변환행렬, 즉 3차원 회전(rotation)과 이동(translation)을 말한다. 본 논문에서는 하나의 카메라와 라이다 센서 사이의 변환행렬을 간편하게 구하는 보정 기술을 제안한다.
  • 우선 두 센서간 보정을 위하여 기존에 연구된 평면 형태로 만든 보정물체를 사용하는 과정을 살펴보자[7]. 먼저 평면으로 이루어진 보정물체를 카메라와 라이다 센서에서 보이도록 설치한 후 보정물체의 2차원 영상정보와 물체의 3차원 표면정보를 동시에 획득한다.

가설 설정

  • 2의 예를 보자. Fig.2에서와 같이 하나의 라이다 센서 V와 하나의 카메라 C의 시야에서 공통적으로 획득 할 수 있는 3차원 점과 2차원 점이 각각 3개가 있다고 가정하자. 3차원 점과 2차원 점은 각각 pi와 qi로 표현된다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
라이다 센서는 무엇인가? 구글 자율 자동차에 사용된 센서 중 대표적으로 사용된 벨로다인(Velodyne) 센서는 라이다(Lidar) 센서의 일종이다. 라이다 센서의 일반적 기능은 360도 방향의 거리 정보를 획득하는 센서이며 64개 채널을 지원하는 고가의 산업용 센서에서부터 16개 또는 그 이하의 저 채널 센서까지 활용범위가 확대되고 있다.
기존의 3차원 거리정보를 보정하는 방법의 문제점은? 기존에도 서로 다른 특성을 지닌 두 센서 사이의 보정관계를 구하는 연구가 진행된 바가 있으나 대부분의 경우 직선형, 삼각형, 사각형 형태의 특수한 보정 패턴[6, 7]을 제작하여 사용하거나 평면에 구멍이 뚫려져 있는 형태의 특수한 보정물체를 사용하여 두 센서 사이의 보정을 구현하였다[8, 9]. 하지만 기존의 방법들은 특수한 보정물체를 제작해야 하는 번거로움이 있을 뿐만 아니라 라이다 센서의 채널 수가 적어질수록 보정물체의 크기를 크게 만들어야 되는 단점을 가지고 있다.
평면형태의 보정물체를 사용할 때의 단점은? 일반적으로 보정에 사용하는 데이터를 획득할 때는 두 센서의 공통된 시야(felid of view)내부에서 다양한 위치에 보정물체를 위치시키고 보정물체의 데이터를 여러 장 획득한다. 하지만 기존의 방법들은 보정판의 크기가 크기 때문에 센서와 보정물체까지의 거리가 가까우면 데이터를 획득하기 어렵다는 문제점을 가지고 있고 평면형태의 모양을 지닌 보정물체를 사용할 경우 보정물체의 모서리나 꼭지점들을 검출한 다음 두 센서 사이의 보정관계를 구하기 때문에 라이다 센서와 보정패턴이 서로 마주보고 있도록 보정물체를 위치시켜야 신뢰성 있는 데이터를 획득할 수 있는 제약조건을 가지고 있다. 따라서 거리정보만을 획득하는 센서와 카메라간 보정관계를 쉽게 구할 수 있는 기술의 개발이 필요하다.
질의응답 정보가 도움이 되었나요?

참고문헌 (15)

  1. M. Hassanein, A. Moussa, and N. El-Sheimy, "A new automatic system calibration of multi-cameras and lidar sensors," International Archives of the Photogrammetry, Remote Sensing & Spatial Information Sciences, Vol.41, No. 23, pp.589-594, Jul. 2016. 

  2. I. Ashraf, S. J. Hur, and Y. W. Park, "An investigation of interpolation techniques to generate 2D intensity images from lidar data," IEEE Access, Vol.5, pp. 8250-8260, Apr. 2017. 

  3. J. P. Hwang, S. K. Park, E. T. Kim, and H. J. Kang, "Camera and LIDAR Combined System for On-Road Vehicle Detection," Journal of Institute of Control, Robotics and Systems, Vol.15, No.4, pp.390-395, Oct. 2017. 

  4. J. W. Kim, J. Y. Jeong, Y. S. Shin, Y. G. Cho, H. C. Roh, and A. Y. Kim, "Lidar configuration comparison for urban mapping system," 2017 14th International Conference on Ubiquitous Robots and Ambient Intelligence(URAI), pp. 854-857, 2017. 

  5. Z. Zhang, "A flexible new technique for camera calibration," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, No.11, pp.1330-1334, Nov. 2016. 

  6. O. Naroditsky, A. Patterson and K. Daniilidis, "Automatic alignment of a camera with a line scan lidar system," 2011 IEEE International Conference on Robotics and Automation (ICRA), pp.3429-3434, 2011. 

  7. Y. S. Park, S. M. Yun, S. W. Chee, K. E. Cho, K. H. Um, and S. D. Sim, "Calibration between color camera and 3D lidar instruments with a polygonal planar board," Sensors, Vol.14, No.3, pp.5533-5353, Mar. 2014. 

  8. M. Velas, M. Spanel, Z. Materna, and A. Herout, "Calibration of RGB camera With velodyne lidar," International Conference on Computer Graphics, Visualization and Computer Vision (WSCG), pp.135-144, 2014. 

  9. T. GEE, J. James, W. V. D. Mark, A. G. Strozzi, P. Delmas, and G. Gimelfarb, "Estimating extrinsic parameters between a stereo rig and a multi-layer lidar using plane matching and circle feature extraction," 2017 Fifteenth IAPR International Conference on Machine Vision Applications(MVA), pp.21-24, 2017. 

  10. S. Park and S. Choi, "Convenient View Calibration of Multiple RGB-D Cameras Using a Spherical Object," KIPS Transactions on Software and Data Engineering, Vol.3, No.8, pp.309-314, 2014. 

  11. G. Lee, J. Lee, and S. Park, "Calibration of VLP-16 Lidar and multi-view cameras using a ball for 360 degree 3D color map acquisition," in Proceedings of 2017 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems(MFI), 2017. 

  12. J. H. Lee, E. S. Kim, and S. Y. Park, "Synchronization error compensation of multi-view RGB-D 3D modeling system," Asian Conference on Computer Vision(ACCV), pp.162-174, 2016. 

  13. M. A. Fischler and C. R. Bolles, "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography," Communications of the ACM, Vol.24, No.6, pp.381-395, Jun. 1981. 

  14. M. Ruan and D. Huber, "Calibration of 3D Sensors Using a Spherical Target," 2014 2nd International Conference on 3D Vision, Vol.1, pp.187-193, Dec. 2014. 

  15. D. Loannou, H. Walter, and A. F. Laine, "Circle recognition through a 2D Hough Transform and radius histogramming," Image and Vision Computing, pp.15-26, 1999. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로