$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 사각형 특징 기반 Visual SLAM을 위한 자세 추정 방법
A Camera Pose Estimation Method for Rectangle Feature based Visual SLAM 원문보기

로봇학회논문지 = The journal of Korea Robotics Society, v.11 no.1, 2016년, pp.33 - 40  

이재민 (Control and Robot Engineering, Chungbuk National University) ,  김곤우 (School of Electronics Engineering, Chungbuk National University)

Abstract AI-Helper 아이콘AI-Helper

In this paper, we propose a method for estimating the pose of the camera using a rectangle feature utilized for the visual SLAM. A warped rectangle feature as a quadrilateral in the image by the perspective transformation is reconstructed by the Coupled Line Camera algorithm. In order to fully recon...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구에서는 카메라의 자세를 추정하기 위해 영상에서 추출 가능한 기하학적 특징인 사각형 특징을 이용하는 방법을 제안한다. 위에서 소개한 복수의 점 특징의 대응 관계를 이용하여 다수의 영상에서의 재 투사 오차를 최소화하는 카메라의 자세를 찾아내는 방법과는 다르게 제안하는 방법에서는 단수의 영상에서 추출한 3차원 평면 위 직사각형 특징을 통해 대응하는 카메라의 자세를 찾아낼 수 있다.
  • 이 논문에서는 Visual SLAM을 위해 영상에서 사각형을 추출하여 카메라와 특징 간의 자세를 간단하고 정확하게 추정하는 방법을 소개한다. 이 방법은 저 수준의 특징인 코너, 국소 패치만을 이용한 카메라의 자세 추정 방법과 다르게 한 개의 특징 추출만으로 대응하는 카메라의 자세를 복원할 수 있다.
  • 주목할 것은 영상 내부의 사변형과 실제 직사각형 모두 평면 위에 존재하는 점으로 구성된 도형이라는 점이다. 이에 4개의 대응되는 점들의 쌍으로 두 평면 사이의 관계를 표현하는 호모그래피를 추출하여 카메라의 자세를 추출하고자 한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
SLAM의 연구에 사용되는 센서는? 일반적인 SLAM의 연구에서는 초음파, 레이저 거리 센서 등 다양한 종류의 센서가 사용되어 오고 있다. 이들 중에서 카메라는 많은 정보를 제공하는 대신 처리하는 방법에 따라 많은 차이를 보여 따로 Visual SLAM으로 지칭한다.
Visual SLAM에는 어떤 접근방식이 있는가? 이들 중에서 카메라는 많은 정보를 제공하는 대신 처리하는 방법에 따라 많은 차이를 보여 따로 Visual SLAM으로 지칭한다. Visual SLAM은 필터링 방법을 이용한 접근과 최적화를 이용한 접근이 있다. 전자는 주로 로봇 분야 에서 연구되어 온 방법이고 후자는 컴퓨터 비전의 bundle adjustment를 이용한 structure from motion연구에서 파생된 것으로 두 방법에 대한 이론적, 실험적 분석이 [4] 에 발표되어 있다.
필터링 방법을 이용한 접근과 최적화를 이용한 접근은 어떤 방법인가? Visual SLAM은 필터링 방법을 이용한 접근과 최적화를 이용한 접근이 있다. 전자는 주로 로봇 분야 에서 연구되어 온 방법이고 후자는 컴퓨터 비전의 bundle adjustment를 이용한 structure from motion연구에서 파생된 것으로 두 방법에 대한 이론적, 실험적 분석이 [4] 에 발표되어 있다. 또 사용하는 카메라의 구성에 따라 단안카메라를 사용한 방법[5,6,7], 양안 카메라를 사용한 방법[8], 전방위 카메라를 사용한 방법[9], RGB-D카메라를 사용한 방법[10] 등이 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (17)

  1. G.N. DeSouza and A.C. Kak, "Vision for mobile robot navigation: A survey," IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 24, no.2, pp.237-267, 2002. 

  2. H. Heo and J.B. Song, "Global localization based on ceiling image map," J. of Korea Robotics Society, vol. 9, no. 3, pp.170-177, 2014. 

  3. H. Lategahn, A. Geiger, and B. Kitt, "Visual SLAM for autonomous ground vehicles," IEEE Int'l Conf. on Robotics and Automation, pp.1732-1737, 2011 

  4. H. Strasdat, J. Montiel, and A. J. Davison, "Real-time monocular SLAM: Why filter?," IEEE Int'l Conf. on Robotics and Automation, pp. 2657-2664, 2010 

  5. A.J. Davison, I.D. Reid, N.D. Molton, and O. Stasse, "MonoSLAM: Real-time single camera SLAM," IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 29, no.6, pp.1052-1067, June, 2007. 

  6. G. Klein and D. Murray, "Parallel tracking and mapping for small AR workspaces," 6th IEEE and ACM Int'l Symposium on Mixed and Augmented Reality, 2007. 

  7. S.H. Hong and J.W. Kim, "Visual SLAM using local bundle optimization in unstructured seafloor environment," J. of Korea Robotics Society, vol. 9, no. 4, pp.197-205, 2014. 

  8. S. Takezawa, D.C. Herath, and G. Dissanayake, "SLAM in indoor environments with stereo vision," IEEE/RSJ Int'l Conf. on Intelligent Robots and Systems, pp.1866- 1871, 2004. 

  9. J.P. Tardif, Y. Pavlidis, and K. Daniilidis, "Monocular visual odometry in urban environments using an omnidirectional camera," IEEE/RSJ Int'l Conf. on Intelligent Robots and Systems, pp. 22-26, 2008. 

  10. C. Kerl, J. Sturm, and D. Cremers, "Dense visual SLAM for RGB-D camera," IEEE/RSJ Int'l Conf. on Intelligent Robots and Systems, pp. 2100-2106, 2013. 

  11. D. Nister, "Preemptive RANSAC for live structure and motion estimation," Machine Vision and Applications, vol.16 no.5, pp. 321-329, 2005. 

  12. G. Silveira, E. Malis, and P. Rives, "An Efficient Direct Approach to Visual SLAM," IEEE Trans. Robotics, vol. 24 no. 5, pp.969-979, 2008. 

  13. J. Engel, T. Sch, and D. Cremers, "LSD-SLAM: Large-Scale Direct Monocular SLAM," European Conf. on Computer Vision, pp. 1-16, 2014. 

  14. Y. Lu, D. Song, and J. Yi, "High Level Landmark-Based Visual Navigation Using Unsupervised Geometric Constraints in Local Bundle Adjustment," IEEE Int'l Conf. on Robotics and Automation, pp.1540-1545, 2014. 

  15. J. Lee, "Camera calibration from a single image based on coupled line cameras and rectangle constraint," 21 st Int'l Conf. on Pattern Recognition, pp.758-762, 2012. 

  16. R. Hartley and A. Zisserman, Multiple View Geometry in Computer Vision, Cambridge University Press, 2003. 

  17. J. Lee, "New Geometric Interpretation and Analytic Solution for Quadrilateral Reconstruction," 22nd Int'l Conf. on Pattern Recognition, pp. 4015-4020, 2014. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로