$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

마커 없는 증강현실을 위한 실시간 카메라 추적
Real-Time Camera Tracking for Markerless Augmented Reality 원문보기

방송공학회논문지 = Journal of broadcast engineering, v.16 no.4, 2011년, pp.614 - 623  

오주현 (KBS 기술연구소) ,  손광훈 (연세대학교 전기전자공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 방송용 증강현실 시스템을 위한 실시간 카메라 추적 알고리듬을 제안한다. SURF(speeded up robust features) 알고리듬을 이용하여 추적을 초기화하며, 안정적인 실시간 카메라 추적을 위해 다층(multi-scale) 구조를 사용한다. 미리 알려져 있지 않고 시간에 따라 변하는 조명 환경에서의 특징 추적을 위해 정규상호상관도(normalized cross correlation, NCC)를 사용한다. 방송제작에는 줌 렌즈를 장착한 카메라가 사용되기 때문에 카메라의 초점거리를 온라인으로 추정할 필요가 있다. 카메라의 회전과 이동으로 이루어진 외부 포즈(pose) 변수와 함께 내부 변수인 초점거리를 목적함수에 포함시켜 함께 최적화한다. 실험결과는 제안한 온라인 카메라 보정 기법에 의해 카메라의 초점거리가 정확히 구해지는 것을 보여준다.

Abstract AI-Helper 아이콘AI-Helper

We propose a real-time tracking algorithm for an augmented reality (AR) system for TV broadcasting. The tracking is initialized by detecting the object with the SURF algorithm. A multi-scale approach is used for the stable real-time camera tracking. Normalized cross correlation (NCC) is used to find...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 알려져 있지 않은 조명 환경에서의 특징 정합을 위해 정규상호상관도를 사용하였다. 대부분 데스크톱 웹캠 환경을 가정하고 있는 기존 증강현실 카메라 추적 연구들과 달리 본 논문에서는 줌 카메라에의 적용을 위해 온라인 카메라 보정 방법을 제안하였다. 실험 결과는 제안된 온라인 보정 방법에 의해 카메라의 초점거리가 정확하게 추정되는 것을 보여주었으며, 모든 과정이 실시간으로 처리 가능함을 확인하였다.
  • 그러나 이 방법은 가상 스튜디오와 같이 추적할 장면이 고정일 때만 사용할 수 있으며, 패턴이 움직이는 증강현실 응용에는 적합하지 않다. 따라서 본 논문에서는 영상 추적에 의해 카메라를 실시간으로 보정한다. 이와 같은 온라인 카메라 보정의 초기화를 위해 카메라를 우선 오프라인에서 보정할 필요가 있는데, 여기서는 잘 알려진 Zhang의 기법[20]을 사용한다.
  • 본 논문에서는 실시간으로 동작하고 자동 초기화를 지원하는 Wagner 등의 연구[13,14]를 바탕으로, 온라인 보정을 더하여 줌렌즈가 장착된 카메라에도 적용할 수 있는 알고리듬을 제안한다. 본 논문의 남은 부분은 다음과 같이 구성된다.
  • 이 절에서 기술된 방법은 카메라 초점거리의 좋은 초기 추정치를 얻기 위한 것이다. 한 번 추적이 초기화되면 초점거리는 다른 외부 변수들과 함께 매 프레임마다 추정된다.

가설 설정

  • 높은 정밀도를 요구하지 않는 증강현실 응용과 방송용의 고품질 카메라를 감안하면 skew s = 0, aspect ratio a = 1로 가정할 수 있다. 주점(principal point)의 위치(cx,cy)는 이미지의 중심점으로 가정한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
비디오 영상에서 객체모델인식과 카메라 추적을 하는 것은 어떤 분야의 기술에 핵심이 되는가? 비디오 영상에서 주어진 객체 모델을 인식하고 그로부터 카메라를 추적하는 것은 증강현실(augmented reality, AR)과 HCI(human computer interaction), 로봇 제어(visual servoing) 등과 같은 다양한 컴퓨터 비전 응용분야에 있어서 핵심적인 기술이다. 이러한 카메라 추적을 위해 다양한 방법들이 제안되었으며, Lepetit 등의 문헌조사[1]를 통해 그 개략적인 내용을 확인할 수 있다.
택스처가 있는 평면 패턴을 추적하기 위한 방법에는 어떤 문제점이 있는가? 택스처가 있는 평면 패턴을 추적하기 위해 쉽게 도입할 수 있는 방법은 각 프레임 간의 호모그래피(homography 또는 perspective transform)를 구한 후 누적하는 방법이다[4]. 그러나 이 방법은 매 프레임마다 호모그래피를 추정하면서 발생한 작은 에러가 누적되어 점차 커짐으로 인해 결과적으로 패턴이 떠다니게(drifting) 되는 문제가 있다. 그림 2(a)와 그림 2(b) 사이의 특징점 정합은 정확하게 이루어지고 있으나, 수백 프레임 간 누적된 호모그래피를 이용한 모델 이미지의 변환은 그림 2(c)와 같이 실제 입력 영상에 비해 상당한 오차를 보이는 것을 알 수 있다.
방송 제작에 증강현실을 적용한 예로 어떤 것들이 있는가? 방송 제작에 증강현실을 적용한 예로 Park 등[2]은 16개의 원형 마커가 인쇄된 파란색 패턴을 사용하여 검출에 의한 추적(tracking by detection)을 구현한 바 있다. 이 K-vision 시스템은 당시의 PC 하드웨어에서 실시간 동작하는 성능으로 여러 방송 프로그램 제작에 성공적으로 사용되었다.
질의응답 정보가 도움이 되었나요?

참고문헌 (23)

  1. V. Lepetit and P. Fua, Monocular Model-based 3D Tracking of Rigid Objects, Now Publishers Inc, 2005. 

  2. 박성 춘, 남승진, 오주현, 박창섭, "색상패턴 추적을 이용한 실시간 증강영상 시스템," 방송공학회논문지 제7권 제1호, pp.2-9, 2002년 3월. 

  3. T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, pp.932-946, Jul. 2002. 

  4. G. Simon, A. Fitzgibbon, and A. Zisserman, "Markerless tracking using planar structures in the scene," Int. Symposium on Augmented Reality (ISAR), pp.120-128, Oct. 2000. 

  5. L. Vacchetti, V. Lepetit, and P. Fua, "Stable Real-Time 3D Tracking Using Online and Offline Information," IEEE Transactions on Pattern Analysis and Machine Intelligence, 26(10), pp.1385-1391, 2004. 

  6. Q. Wang, W. W. Zhang, X. O. Tang, and H. Y. Shum, "Real-time Bayesian 3-D pose tracking," IEEE Transactions on Circuits and Systems for Video Technology, vol.16, pp.1533-1541, Dec. 2006. 

  7. A. I. Comport, E. Marchand, M. Pressigout, and F. Chaumette, "Real-time markerless tracking for augmented reality: The virtual visual servoing framework," IEEE Transactions on Visualization and Computer Graphics, vol.12, pp.615-628, 2006. 

  8. M. Pressigout and E. Marchand, "Real-time hybrid tracking using edge and texture information," International Journal of Robotics Research, vol.26, pp.689-713, Jul. 2007. 

  9. "Total Immersion: Augmented reality software solutions with D'Fusion," http://www.t-immersion.com/, 2010. 

  10. V. Lepetit and P. Fua, "Keypoint recognition using randomized trees," IEEE Transactions on Patteren Analysis and Machine Intelligence, 28(9), pp.1465-1479, 2006. 

  11. M. Ozuysal, P. Fua, and V. Lepetit, "Fast keypoint recognition in ten lines of code," in IEEE Conference on Computer Vision and Pattern Recognition, pp. 1-8, 2007. 

  12. Z. Chen and X. Li, "Markerless tracking based on natural feature for autmented reality," Int. Conf. on Educational and Information Technology (ICEIT), Sep. 2010. 

  13. D. Wagner, G. Reitmayr, A. Mulloni, T. Drummond, and D. Schmalstieg, "Pose tracking from natural features on mobile phones," Int. Symposium on Mixed and Augmented Reality, pp.125-134, 2008. 

  14. D. Wagner, G. Reitmayr, A. Mulloni, T. Drummond, and D. Schmalstieg, "Real-Time Detection and Tracking for Augmented Reality on Mobile Phones," IEEE Transactions on Visualization and Computer Graphics, vol.16, pp.355-368, May-Jun. 2010. 

  15. D. Lowe, "Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, vol.60, pp.91-110, 2004. 

  16. J. Yu, J. Kim, H. Kim, I. Choi, and I. Jeong, "Real-time camera tracking for augmented reality," Int. Conf. on Advanced Communication Technology (ICACT), Feb. 2009. 

  17. H. Bay, A. Ess, T. Tuytelaars, and L. Van Gool, "Speeded-Up Robust Features (SURF)," Computer Vision and Image Understanding, vol.110, pp.346-359, Jun. 2008. 

  18. J. Oh and K. Sohn, "Semiautomatic zoom lens calibration based on the camera's rotation," SPIE Journal of Electronic Imaging, 20(2), Apr-Jun. 2011. 

  19. W. Liu, Y. Wang, J. Chen, and J. Guo, "An efficient zoom tracking method for pan-tilit-zoom camera," IEEE Int. Conf. on Computer Science and Information Technology (ICCSIT), pp.536-540, Jul. 2010. 

  20. Z. Y. Zhang, "A flexible new technique for camera calibration," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, pp.1330-1334, Nov. 2000. 

  21. R. Hartley and A. Zisserman, Multiple view geometry in computer vision, Cambridge University Press, 2003. 

  22. M. Lourakis, "A brief description of the Levenberg-Marquardt algorithm implemented by levmar," matrix, 3(2), 2005. 

  23. M. Fischler and R. Bolles, "Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography," Communications of the ACM, vol.24, pp.381-395, 1981. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로