$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

모바일매핑시스템으로 취득한 중첩 전방위 영상으로부터 3차원 객체좌표의 결정
Determination of 3D Object Coordinates from Overlapping Omni-directional Images Acquired by a Mobile Mapping System 원문보기

한국측량학회지 = Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, v.28 no.3, 2010년, pp.305 - 315  

오태완 (서울시립대학교 대학원 공간정보공학과) ,  이임평 (서울시립대학교 도시과학대학 공간정보공학과)

초록
AI-Helper 아이콘AI-Helper

본 연구는 지상모바일매핑시스템을 이용하여 취득한 중첩 전방위 영상을 이용하여 객체점의 3차원 좌표를 결정하는 방법을 제시하고 정확도를 분석하고자 한다. 제안된 방법은 먼저 개별 센서 및 대상공간에 좌표계를 정의하고 좌표계간의 관계를 설정한다. 이에 기반하여 전방위 영상의 한점에 투영되는 객체점이 위치한 직선을 유도하고, 공액점으로부터 결정되는 한쌍의 직선을 교차하여 객체점의 3차원 좌표를 결정한다. 제안된 방법을 통해 결정된 객체점의 좌표를 GPS와 토탈스테이션으로 측정한 검사점 좌표와 비교하여 정확도를 검증하였다. 본 연구의 결과 기선의 길이 및 카메라/대상객체 사이의 상호 위치를 적절하게 설정한다면 객체점의 상대좌표를 수 cm 내의 정확도로 결정할 수 있었다. 절대좌표의 정확도는 정오차로 인해 수 cm에서 1 m 정도를 보였다. 향후 카메라 좌표계와 GPS/INS 좌표계 사이의 관계를 보다 정확하게 설정하고 전방위 카메라의 보정을 통해 절대 좌표의 정확도를 개선할 계획이다.

Abstract AI-Helper 아이콘AI-Helper

This research aims to develop a method to determine the 3D coordinates of an object point from overlapping omni-directional images acquired by a ground mobile mapping system and assess their accuracies. In the proposed method, we first define an individual coordinate system on each sensor and the ob...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구는 그림 1에서 보는 바와 같이 전방위 카메라 영상과 영상의 외부표정요소를 이용하여 대상지점의 3차원 좌표를 결정하는 방법을 제안하고자 한다. 제안된 방법은 크게 좌표계 설정, 내부표정, 외부표정 및 대상지점 좌표결정의 과정으로 구성된다.
  • 특히 고품질의 센서융합을 위해 GPS/INS 좌표계와 카메라 좌표계간의 이동(translation) 및 회전(orientation) 변환 계수는 반드시 정밀하게 측정되어야 한다(Jeroen 등 2008). 본 연구에서는 좌표계 사이의 관계를 설정하는 과정에서 발생할 수 있는 오차를 줄이기 위해 카메라 좌표계와 GPS/INS 좌표계의 X, Y 축은 평행하게 설정하고 Z축을 일치시키려 노력하였다. X축은 차량의 진행방향이고 Z 축은 차량 진행방향의 수직 직각 방향이다.
  • 최근에 전방위 카메라 기술의 발전을 통해 높은 해상도 및 낮은 왜곡을 갖는 전방위 영상의 취득이 가능하게 되었고 이로 인해 기존의 항공 및 지상에서 취득된 프레임 카메라 입체 영상을 통해 가능하였던 대상객체에 대한 3차원 절대 좌표 결정이 전방위 영상을 이용해서 가능할 것으로 판단된다. 이에 본 연구는 전방위 카메라와 GPS/INS가 통합된 지상 모바일매핑시스템을 이용하여 취득된 전방위 영상 및 위치/자세 정보를 이용하여 대상지점의 3차원 절대 좌표를 결정하는 방법을 제안하고 실측데이터에 적용하여 정확도 평가를 수행하고자 한다.
  • 이러한 개별 센서 좌표계로 표현된 원시 센서 데이터를 융합하여 독립적인 지상좌표계를 갖는 객체공간에 포함된 대상객체에 대한 절대좌표를 결정해야 한다. 이에 카메라좌표계(CCS), GPS/INS좌표계(ICS)와 지상좌표계(GCS)를 그림 2처럼 정의하고 센서 데이터의 상호융합을 위해 좌표계 사이의 관계를 정밀하게 수립하고자 한다. 특히 고품질의 센서융합을 위해 GPS/INS 좌표계와 카메라 좌표계간의 이동(translation) 및 회전(orientation) 변환 계수는 반드시 정밀하게 측정되어야 한다(Jeroen 등 2008).

가설 설정

  • = 0로 설정할 수 있고, 식 (7)처럼 표현된다. 본 연구에서 실시한 모든 실험은 두 좌표계가 서로 일치한다는 가정으로 진행되었다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
모바일매핑이란 무엇인가? 항공기를 이용한 공간정보 획득시스템은 도심지의 경우 건물 벽면의 텍스쳐 획득에 취약하기 때문에 모바일매핑시스템과 같이 차량을 이용한 시스템의 활용이 요구된다. 모바일매핑이란 도로, 교통시설물, 도로주변의 건물 등 지형지물의 정보를 움직이는 차량을 이용해 취득하는 것을 말한다(Bossler, 1995). 최경아 등(2007)은멀티센서를 차량에 탑재한 모바일매핑시스템을 개발하였으며, 정재승 등(2006)은 모바일매핑시스템을 이용하여 이동객체를 추적하고 필요한 특정 개체만을 추출하는 연구를 하였다.
전방위 카메라란 무엇인가? 전방위 카메라란 시야각(FOV, Filed of View)이 360°이기 때문에 촬영 지점을 기준으로 모든 방향의 영상정보 취득이 가능한 카메라를 말한다(Wikipedia, 2009). 기존의 전방위 카메라는 반구 모양의 거울을 통해 반사된 영상데이터를 하나의 CCD에 입력하여 전방위 영상을 취득하는 방식이었으나 이러한 전방위 카메라 영상은 반구거울을 사용하는 동작방식에 의해 필연적으로 많은 왜곡(distortion) 들을 포함하고 있다(Silpa 등, 2005).
전방위 카메라를 탑재한 모바일매핑시스템은 프레임 카메라를 사용하는 방식에 비해 어떤 장점이 있는가? 전방위 카메라를 탑재한 모바일매핑시스템은 차량 진행방향에 따라 중복 촬영한 영상을 이용하여 지형지물의 위치를 산출한다. 이러한 경우 프레임 카메라를 사용하는 방식에 비해 기선이 길어져 높은 정확도를 갖는 결과물 생성이 가능하다(황진상, 2009). 이와 관련하여 전방위 카메라 및 주행 기록계 (Odometer)를 탑재한 모바일매핑시스템 이용을 통해 옵티컬 플로어(Optical Flow) 기반의 지형지물 인식 연구(Yata 등, 2002)등이 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (18)

  1. 김진환, 안재균, 김창수 (2008), 전방위 카메라를 이용한 객체 추적 시스템, 하계종합학술대회 논문집, 대한전자공학회, pp. 781-782. 

  2. 전재춘 (2008), IMU/GPS와 카메라 좌표계간의 물리적 관계를 위한 수학적 모델링, 한국측량학회지, 한국측량학회, 제 26권, 제 6호, pp. 611-616. 

  3. 정재승 (2006), 모바일매핑시스템에서의 이동객체 추적을 위한 연구, 한국GIS학회지, 한국GIS학회, 제14권, 제2호, pp. 235-244. 

  4. 최경아, 오소정, 이임평, 신진수 (2007), 모바일 매핑 시스템 개발, 대한토목학회 정기학술대회 논문집, 대한토목학회, pp. 4468-4471. 

  5. 황진상 (2009), 차량 모바일맵핑시스템의 현황과 활용분야, 대한측량협회, http://www.cylod.com/board/kboard.php boardfull_text&actview&no5&page1&search_mode &search_word&cid 

  6. Applanix (2009), POSLV specifications, Applanix Inc., http://applanix.com/products/land/pos-lv.html 

  7. Beauchemin, S. S. and Bajcsy, R. (2000), Modeling and removing radial and tangential distortions in spherical lenses, The 10th International Workshop on Theoretical Foundations of Computer Vision: Multi-Image Analysis, Lecture Notes in Computer Science, vol. 2032, pp. 1-21. 

  8. Bossler, J. D., and Toth, C. (1995), Feature Positioning accuracy in mobile mapping: Results obtained by the GPSVANTM, International Archives of Photogrammetry and Remote Sensing, Vol. 31, Part B4, pp. 139-142 

  9. Choi, K. and Lee, I. Hong, J. Oh, T. and Shin, S. (2009), Developing a UAV-based Rapid Mapping System for Emergency Response, Proc. SPIE, SPIE, Orlando, Vol. 7332 (on CD-ROM). 

  10. Eisenbeiss, H. (2004). A mini unmanned aerial vehicle (UAV): system overview and image acquisition, International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. 36, 5/W1, (on CD-ROM). 

  11. Fiala, M. and Basu, A. (2002), Robot navigation using panoramic landmark tracking, The 15th International Conference on Vision Interface, Calgary, pp. 117-124. 

  12. Jeroen, D. H., Thomas, B. S. and Fredrik, G. (2008), Relative pose calibration of a spherical camera and an IMU, The 7th IEEE/ACM International Symposium on Mixed and Augmented Reality, IEEE Computer Society, pp. 21-24. 

  13. Mochizuki, Y. and Imiya, A. (2008), Featureless Visual Navigation using Optical Flow of Omnidirectional Image Sequence, International Conference on Simulation, Modeling and Programming for Autonomous Robots (SIMPAR 2008), Venice, pp. 307-318. 

  14. Point Grey Research (2008), Ladybug specifications, Point Grey Research Inc., http://www.ptgrey.com/products/spherical.asp 

  15. Point Grey Research (2008), Overview of the Ladybug image stitching process, Point Grey Research Inc., http://www.ptgrey.com/support/downloads/documents/TAN20 08010_Overview_Ladybug_Image_Stitching.pdf 

  16. Silpa-Anan. C. and Hartley, R. (2005), Visual localization and loopback detection with a high resolution omnidirectional camera, The 6th Workshop on Omnidirectional Vision (OMNIVIS 2005), Beijing. 

  17. Yata, T., Thorpe, C., and Dellaert F. (2002), Static environment recognition using omni-camera from a moving vehicle. Technical report CMU-RI-TR-02-12, Robotics Institute, Carnegie Mellon University, Pittsburgh. 

  18. Wikipedia (2009), Omnidirectional camera, The free Encyclopedia, http://en.wikipedia.org/wiki/Omnidirectional_ camera 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로