본 논문에서는 제품에 삽입된 QR코드를 사용해 제품의 상세한 정보를 제공해주는 모바일 증강현실 시스템을 제안한다. 본 시스템에서는 마커기반의 자세 추정 기법과 마커리스 기반의 기법을 함께 적용하여 보다 강인한 카메라 자세 추정을 수행한다. QR코드가 근거리에 있거나, QR코드 전체가 영상 내에 들어올 경우에는 QR코드 내/외부의 사각형 집합을 추적하여 카메라 자세를 추정한다. 하지만, 영상 내에서 마커가 사라지거나, 모바일 기기가 QR코드 식별이 힘든 먼 거리에 위치할 경우 프레임간의 호모그래피에 기반을 둔 카메라 자세 보정을 수행한다. 또한 제안된 시스템은 증강현실 콘텐츠 제작을 위해서 메타데이터를 사용함으로서 사용자가 프로그램 수정 없이 메타데이터 파일을 작성하는 것만으로 다양한 시나리오의 콘텐츠를 제작 및 수정하는 것이 가능하다. 특히 증강현실 콘텐츠 가시화를 위한 메타데이터와 미디어 파일을 온라인 서버를 통해 항상 최신의 상태로 전송받을 수 있기 때문에 프로그램 업데이트와 같은 불필요한 작업을 최소화할 수 있다.
본 논문에서는 제품에 삽입된 QR코드를 사용해 제품의 상세한 정보를 제공해주는 모바일 증강현실 시스템을 제안한다. 본 시스템에서는 마커기반의 자세 추정 기법과 마커리스 기반의 기법을 함께 적용하여 보다 강인한 카메라 자세 추정을 수행한다. QR코드가 근거리에 있거나, QR코드 전체가 영상 내에 들어올 경우에는 QR코드 내/외부의 사각형 집합을 추적하여 카메라 자세를 추정한다. 하지만, 영상 내에서 마커가 사라지거나, 모바일 기기가 QR코드 식별이 힘든 먼 거리에 위치할 경우 프레임간의 호모그래피에 기반을 둔 카메라 자세 보정을 수행한다. 또한 제안된 시스템은 증강현실 콘텐츠 제작을 위해서 메타데이터를 사용함으로서 사용자가 프로그램 수정 없이 메타데이터 파일을 작성하는 것만으로 다양한 시나리오의 콘텐츠를 제작 및 수정하는 것이 가능하다. 특히 증강현실 콘텐츠 가시화를 위한 메타데이터와 미디어 파일을 온라인 서버를 통해 항상 최신의 상태로 전송받을 수 있기 때문에 프로그램 업데이트와 같은 불필요한 작업을 최소화할 수 있다.
This paper proposes a mobile augmented reality system to provide detail information of the products using QR code included in them. In the proposed system, we perform the estimation of the camera pose using both of marker-based and markerless-based methods. If the camera can see the QR code, we perf...
This paper proposes a mobile augmented reality system to provide detail information of the products using QR code included in them. In the proposed system, we perform the estimation of the camera pose using both of marker-based and markerless-based methods. If the camera can see the QR code, we perform the estimation of the camera pose using the set of rectangles in the QR code. However, if the QR code is out of sight, we perform the estimation of the camera pose based homography between consecutive frames. Moreover, the content of the augmented reality in the proposed system is made by using meta-data. Therefore, the user can make contents of various scenario using only meta-data file without modification of our system. Especially, our system maintains the contents as newly updated state by the on-line server. Thus, it can reduce the unnecessary update of the program.
This paper proposes a mobile augmented reality system to provide detail information of the products using QR code included in them. In the proposed system, we perform the estimation of the camera pose using both of marker-based and markerless-based methods. If the camera can see the QR code, we perform the estimation of the camera pose using the set of rectangles in the QR code. However, if the QR code is out of sight, we perform the estimation of the camera pose based homography between consecutive frames. Moreover, the content of the augmented reality in the proposed system is made by using meta-data. Therefore, the user can make contents of various scenario using only meta-data file without modification of our system. Especially, our system maintains the contents as newly updated state by the on-line server. Thus, it can reduce the unnecessary update of the program.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 데이터를 저장할 수 있는 2차원 바코드의 한 종류인 QR(quick response)코드를 마커로 사용하여 이를 기반으로 스마트 폰에서 사용자와 상호작용이 가능한 증강현실 시스템을 소개하고자 한다. 특히 정해진 콘텐츠(contents) 타입에 따라 메타데이터(meta-data) 파일을 제작하여 온라인을 통해 서버에서 전송받는 것만으로 프로그램 소스코드의 수정 없이 다양한 형태의 증강현실 콘텐츠를 제공할 수 있는 시스템을 목적으로 한다.
본 논문에서는 제품에 삽입된 QR코드를 사용해 제품의 상세한 정보를 제공해주는 모바일 증강현실 시스템을 제안한다. 본 시스템에서는 마커기반의 자세 추정 기법과 마커리스 기반의 기법을 함께 적용하여 보다 강인한 카메라 자세 추정을 수행한다.
많은 증강현실 시스템들이 카메라 자세를 효과적으로 추정하기 위해서 다양한 방법을 제안하고 있다. 본 시스템에서는 기본적으로 QR코드를 마커로 사용하되, 카메라 영역 내에서 마커가 사라지거나 마커 검출이 실패하는 경우에도 카메라 자세추정이 가능하도록 특징점을 이용한 프레임간의 평면 변환을 적용하여 보다 강인한 카메라 자세 추정을 수행하고자 한다.
본 시스템에서는 최근 들어 많은 제품에서 사용되고 있는 2차원 바코드인 QR코드를 마커로 사용하여 모바일 기기의 카메라 자세를 추정하고자 한다. 일반적인 마커의 경우 트래킹을 위한 형태를 띄고 있으므로 추적하기가 쉽지만, QR코드의 경우 정보를 담기 위해 제작된 2차원 바코드이므로 이를 그대로 마커로 사용하기는 비효율적이므로 모바일 단말기의 계산능력을 고려하여 QR코드 외각에 사각형의 테두리를 추가한 형태로 마커를 생성하고 이를 바탕으로 마커 추적을 수행한다.
본 연구는 QR코드를 기반으로 특정 제품 혹은 객체의 부가적인 상세정보 모바일 단말기 상에서 제공하기 위한 증강현실 시스템을 구현하였다. 기존의 증강현실 시스템들이 카메라 자세를 찾기 위해서 디자인된 마커를 사용하는 반면, 본 시스템은 다양한 정보를 담을 수 있는 QR코드를 마커로 사용함으로서 QR코드 내 데이터를 활용한 향상된 증강현실 시스템을 제시한다.
본 논문에서는 데이터를 저장할 수 있는 2차원 바코드의 한 종류인 QR(quick response)코드를 마커로 사용하여 이를 기반으로 스마트 폰에서 사용자와 상호작용이 가능한 증강현실 시스템을 소개하고자 한다. 특히 정해진 콘텐츠(contents) 타입에 따라 메타데이터(meta-data) 파일을 제작하여 온라인을 통해 서버에서 전송받는 것만으로 프로그램 소스코드의 수정 없이 다양한 형태의 증강현실 콘텐츠를 제공할 수 있는 시스템을 목적으로 한다.
제안 방법
이 때 생성하고자 하는 QR코드의 크기는 가로, 세로 각각 2~3cm를 권장한다. 그리고 여기에 트래킹을 효율적으로 하기 위해서 0.25cm의 마진을 두어 가로, 세로 각각 2.5~3.5cm의 사각형테두리를 삽입하여 마커로 사용될 최종적인 QR코드를 생성한다. 그림 5는 QR코드 생성 방법을 보여준다.
본 연구는 QR코드를 기반으로 특정 제품 혹은 객체의 부가적인 상세정보 모바일 단말기 상에서 제공하기 위한 증강현실 시스템을 구현하였다. 기존의 증강현실 시스템들이 카메라 자세를 찾기 위해서 디자인된 마커를 사용하는 반면, 본 시스템은 다양한 정보를 담을 수 있는 QR코드를 마커로 사용함으로서 QR코드 내 데이터를 활용한 향상된 증강현실 시스템을 제시한다. 특히, 강인한 카메라 자세 추정을 위해서 QR코드 외부 사각형 추적 기술과 프레임간의 모션 추적기술을 적절히 융합하여 사용한다.
Park 의 연구 역시 QR코드의 위치검출패턴들을 기반으로 QR코드의 구조적 형태를 이용하여 증강현실을 구현한다. 단, 이 연구는 모든 메타데이터가 삽입된 대형의 마커를 이용하여 단순히 지정된 위치에 증강된 객체의 가시화를 수행한다[11].
이 방식은 간단하고 빠른 동작을 보이지만, 프로그램의 덩치가 커지고 다양한 시나리오를 적용하기에 한계가 있다. 따라서 본 논문에서 제안한 시스템은 다양한 시나리오의 콘텐츠를 프로그램 수정 없이 간편하게 제작가능 하도록 메타데이터를 활용한다. 메타데이터는 콘텐츠의 종류 및 업데이트 정보를 관리하는 콘텐츠 메타데이터와 증강현실 구현을 위한 콘텐츠의 실제 정보를 담고 있는 상세 메타데이터의 두 가지로 구분된다.
하지만, 카메라와 마커 사이의 거리가 멀어지거나, 마커가 일정부분 혹은 전체가 카메라의 시야에서 사라질 경우 카메라의 자세를 추정할 수 없는 기존 마커기반의 추적기법들과 동일한 문제점을 가지게 된다. 따라서 본 논문에서는 QR코드 사각형 집합 추적에 실패할 경우 연속된 프레임간의 호모그래피를 이용하여 카메라 자세를 추정하는 마커리스기반의 추적기법을 적용한다.
이와 같이 특징점에 기반을 둔 증강현실 연구가 활발히 진행되고 있지만, 정교한 매칭을 수행할 필요가 있어 매칭을 위한 기술자(descriptor)를 생성하고, 매칭을 수행하는데 많은 계산량을 소모하여 모바일 플랫폼에서 구현하기에는 적합하지 않다. 따라서 본 논문에서는 데이터를 포함할 수 있는 QR코드를 마커로 사용하고, 모바일 플랫폼의 부하를 줄이기 위해 QR코드 외곽의 사각형을 이용하여 카메라 자세를 추정한다. 사각형 추적이 실패할 경우에 한하여 특징점 기반의 호모그래피를 사용하여 카메라 자세 추정을 수행한다.
하지만, 이 방법의 경우 사각형 검출 성능에 의존적이기 때문에 사각형의 일정부분이 가려지거나 사각형 검출에 실패할 경우 카메라 자세를 구할 수 없는 마커기반 증강현실 시스템의 문제점을 고스란히 안고 있다. 따라서 본 시스템에서는 이러한 경우를 대비하여 특징점을 통한 모션 추정에 기반하여 프레임간의 호모그래피를 계산하여 누적함으로서 카메라 자세를 추정하는 마커리스 기반의 카메라 자세 추정기술을 함께 사용하여 보다 강인한 자세 추정을 수행한다. 카메라 자세 추정이 완료되면 온라인 서버로부터 전송받은 메타데이터의 내용에 따라 다양한 멀티미디어 정보를 증강하여 3차원 공간상에 증강된 형태로 가시화한다.
카메라 자세 추정 및 가시화를 포함한 최종적인 전체 시스템의 수행시간은 한 프레임 당 평균적으로 약 97ms가 소요되었다. 또한 본 시스템에서 사용하고 있는 영상처리 기반의 카메라 자세 추정 기법의 정확도를 평가하기 위해서 3차원 광학 모션캡쳐 시스템을 이용하여 정답 데이터(ground-truth data)를 측정하였다[25]. 이 정답 데이터와 본 시스템의 영상처리 기반의 카메라 자세 추정 결과를 비교하여 정확도를 비교하였다.
카메라 자세는 QR코드 외곽에 존재하는 사각형 추출을 기반으로 계산된다. 모바일이라는 본 시스템의 특성상, 계산량을 적게 소모하는 사각형 검출을 통해 사각형의 네 모서리와 실제 3차원 공간 평면상에 존재하는 QR코드의 실제 위치를 사용하여 둘 사이의 변환(transformation)을 계산하여 카메라의 자세를 추정한다. 하지만, 이 방법의 경우 사각형 검출 성능에 의존적이기 때문에 사각형의 일정부분이 가려지거나 사각형 검출에 실패할 경우 카메라 자세를 구할 수 없는 마커기반 증강현실 시스템의 문제점을 고스란히 안고 있다.
본 논문에서 제안하는 시스템은 QR코드를 마커로 사용하고, QR코드 내에 삽입된 인터넷 주소의 온라인 서버에서 받아온 메타데이터(meta-data)의 내용에 따라 특정 대상물의 증강된 정보를 제공하는데 초점을 맞추고 있다. 또한 증강현실 구현을 위해 필수적인 카메라 자세 추정은 기본적으로 QR코드 외곽의 사각형 검출을 기반으로 카메라와 3차원 평면간의 자세를 추정한다.
본 논문에서 제안하는 시스템은 그림 1과 같이, 입력으로 모바일 폰의 카메라를 통하여 QR코드를 촬영하고 공개된 QR코드 인식기를 통해서 QR코드를 인식한다[16]. 인식된 QR코드 내부의 메타데이터 정보를 해석하여 데이터 서버로부터 상세 메타데이터 및 데이터를 요청한다.
본 논문에서는 제품에 삽입된 QR코드를 사용해 제품의 상세한 정보를 제공해주는 모바일 증강현실 시스템을 제안한다. 본 시스템에서는 마커기반의 자세 추정 기법과 마커리스 기반의 기법을 함께 적용하여 보다 강인한 카메라 자세 추정을 수행한다. QR코드가 근거리에 있거나, QR코드 전체가 영상 내에 들어올 경우에는 QR코드 내/외부의 사각형 집합을 추적하여 카메라 자세를 추정한다.
따라서 사각형만을 검출하는 방법만으로는 증강현실을 구현하기 위한 마커로 사용하기가 어렵다. 본 시스템에서는 사각형의 방향(orientation)을 결정하기 위해서, 위치 검출 패턴을 포함한 사각형 집합(rectangle set)을 함께 검출하여 QR코드의 방향(orientation)을 정해준다.
따라서 본 논문에서는 데이터를 포함할 수 있는 QR코드를 마커로 사용하고, 모바일 플랫폼의 부하를 줄이기 위해 QR코드 외곽의 사각형을 이용하여 카메라 자세를 추정한다. 사각형 추적이 실패할 경우에 한하여 특징점 기반의 호모그래피를 사용하여 카메라 자세 추정을 수행한다. 또한, QR코드 생성시 데이터 영역 내에 증강현실 콘텐츠가 담긴 온라인 서버의 위치를 삽입하여 해당 온라인 서버로부터 콘텐츠를 전송받는다.
그림 15는 상품의 실제 3차원 모델을 가시화해서 보여준다. 실제 그 상품의 형태를 미리 추정해볼 수 있도록 증강된 형태의 3차원 모델을 제공한다.
연속된 두 프레임 간에 특징점을 검출하였다면, 이 특징점을 SSD(sum of squared difference)를 사용하여 매칭을 수행한 뒤 프레임간의 모션을 구한다. 실제 특징점 추출 및 매칭에 많은 계산량이 소모되므로, 모바일 환경 하에서 계산량을 줄이기 위해 영상 피라미드(image pyramid)를 생성하여 특징점 추출을 원본 영상의 25% 크기로 줄인 영상에서 수행한다. 또한, 특징점 매칭의 경우에는 전체 영상의 영역을 격자방식으로 나눈 뒤, 전체 영상의 모션을 대표할 만한 영상 중심 인근에 위치한 영역에 대한 특징점을 걸러낸다.
그래프는 시간에 따른 각도(°)를 의미한다. 실험은 42초에 걸쳐 스마트폰을 회전시키며 카메라 자세 추정의 정확도를 비교 실험하였다. 그림 8에서와 같이 영상처리를 사용하여 추정된 카메라 자세의 롤(roll)값이 크게 변화했다가 복귀되는 부분은 카메라와 QR코드가 위치하는 평면이 이루는 각도가 최대 60도까지 벌어지면서 다른 평면의 특징점이 매칭되게 되어 올바른 호모그래피 추정에 실패한 경우를 보여준다.
QR코드의 경우 내부 영역은 위치 검출 패턴(position detection pattern), 정렬 검출 패턴(alignment detection pattern), 데이터 영역(data region)의 세 영역으로 구성된다. 여기에 본 논문에서는 모바일 환경에서 좀 더 빠른 마커 추적을 구현하기 위해서 외곽 사각형을 삽입한다. QR코드의 외각 사각형의 경우, QR코드에서 필수적으로 확보해야 하는 6 픽셀(pixel)의 여백(margin)을 확보하는 효과도 있어 QR 코드 인식기의 인식 오류도 줄여주는 부수적인 효과도 얻을 수 있다.
특징점 검출은 모바일 환경임을 감안하여 빠른 검출 속도를 보이는 FAST 검출기를 사용하여 특징점을 검출하였다[19,20]. 연속된 두 프레임 간에 특징점을 검출하였다면, 이 특징점을 SSD(sum of squared difference)를 사용하여 매칭을 수행한 뒤 프레임간의 모션을 구한다. 실제 특징점 추출 및 매칭에 많은 계산량이 소모되므로, 모바일 환경 하에서 계산량을 줄이기 위해 영상 피라미드(image pyramid)를 생성하여 특징점 추출을 원본 영상의 25% 크기로 줄인 영상에서 수행한다.
이렇게 얻어진 호모그래피로부터 카메라 자세를 얻을 수 있다. 이후 카메라의 모션에 따라 카메라의 자세는 지속적으로 변화하는데, 이 변화하는 자세를 연속적으로 추정하기 위해서 QR코드의 사각형 집합을 매 프레임에서 추적한다.
대상 데이터
본 실험에서는 상세 텍스트 가시화, 표지판 번역, 제품 광고 가시화, 상품 3차원 모델 가시화, 3차원 애니메이션 정보 가시화 서비스와 같은 결과를 보여준다. 본 실험은 CPU 1.2Ghz 듀얼코어(dual-core), 800만 화소 카메라가 장착된 스마트폰에서 수행되었다. 구현에 사용된 프로그래밍 언어는 안드로이드 OS기반의 Java가 사용되었고, 카메라 자세 추정 부분은 빠른 처리를 위해서 JNI(java native interface)를 사용하였다.
입력영상은 640×480 크기의 영상을 사용하여 실험하였다.
데이터처리
또한 본 시스템에서 사용하고 있는 영상처리 기반의 카메라 자세 추정 기법의 정확도를 평가하기 위해서 3차원 광학 모션캡쳐 시스템을 이용하여 정답 데이터(ground-truth data)를 측정하였다[25]. 이 정답 데이터와 본 시스템의 영상처리 기반의 카메라 자세 추정 결과를 비교하여 정확도를 비교하였다. 그림 8, 9, 10은 롤(roll), 피치(pitch), 요(yaw) 각 방향에 대한 각도 변화의 정답 데이터와 본 시스템에서 추정된 결과를 비교하여 보여준다.
특징점 검출은 모바일 환경임을 감안하여 빠른 검출 속도를 보이는 FAST 검출기를 사용하여 특징점을 검출하였다[19,20]. 연속된 두 프레임 간에 특징점을 검출하였다면, 이 특징점을 SSD(sum of squared difference)를 사용하여 매칭을 수행한 뒤 프레임간의 모션을 구한다.
이론/모형
2Ghz 듀얼코어(dual-core), 800만 화소 카메라가 장착된 스마트폰에서 수행되었다. 구현에 사용된 프로그래밍 언어는 안드로이드 OS기반의 Java가 사용되었고, 카메라 자세 추정 부분은 빠른 처리를 위해서 JNI(java native interface)를 사용하였다. 입력영상은 640×480 크기의 영상을 사용하여 실험하였다.
두 프레임 간의 특징점 매칭이 완료되었다면, 매칭된 특징점들을 사용하여 연속된 두 프레임간의 호모그래피를 계산한다. 본 논문에서는 강인한 호모그래피 계산을 위해, 매칭된 특징점 중에서 이상치 (outlier) 제거를 위해 RANSAC을 적용한다. 따라서 수식 (3)과 같이 마지막으로 자세 추정에 성공한 3차원 공간상의 QR코드와 2차원 영상 간의 호모그래피(H0)으로부터 연속된 프레임에서 계산된 호모그래피(Hi)을 누적하여 3차원 공간상의 QR코드와 현재 카메라 위치 사이의 호모그래피(Hc)을 계산할 수 있다[12].
성능/효과
하지만, 영상 내에서 마커가 사라지거나, 모바일 기기가 QR코드 식별이 힘든 먼 거리에 위치할 경우 프레임간의 호모그래피에 기반을 둔 카메라 자세 보정을 수행한다. 또한 제안된 시스템은 증강현실 콘텐츠 제작을 위해서 메타데이터를 사용함으로서 사용자가 프로그램 수정 없이 메타데이터 파일을 작성하는 것만으로 다양한 시나리오의 콘텐츠를 제작 및 수정하는 것이 가능하다. 특히 증강현실 콘텐츠 가시화를 위한 메타데이터와 미디어 파일을 온라인 서버를 통해 항상 최신의 상태로 전송받을 수 있기 때문에 프로그램 업데이트와 같은 불필요한 작업을 최소화할 수 있다.
본 논문에서 제안된 시스템은 지정된 시나리오에 따라 다양한 결과물을 출력하는 것이 가능하다. 본 실험에서는 상세 텍스트 가시화, 표지판 번역, 제품 광고 가시화, 상품 3차원 모델 가시화, 3차원 애니메이션 정보 가시화 서비스와 같은 결과를 보여준다.
본 시스템에서 QR코드 외부 사각형 집합의 검출 소요시간은 약 62ms이고, 앞서 언급된 특징점 검출 및 매칭을 위한 속력향상 아이디어가 적용된 후의 특징점 검출과 매칭에 걸린 시간은 평균적으로 각각 약 4ms와 16ms이다. 카메라 자세 추정 및 가시화를 포함한 최종적인 전체 시스템의 수행시간은 한 프레임 당 평균적으로 약 97ms가 소요되었다.
본 논문에서 제안된 시스템은 지정된 시나리오에 따라 다양한 결과물을 출력하는 것이 가능하다. 본 실험에서는 상세 텍스트 가시화, 표지판 번역, 제품 광고 가시화, 상품 3차원 모델 가시화, 3차원 애니메이션 정보 가시화 서비스와 같은 결과를 보여준다. 본 실험은 CPU 1.
본 시스템에서 QR코드 외부 사각형 집합의 검출 소요시간은 약 62ms이고, 앞서 언급된 특징점 검출 및 매칭을 위한 속력향상 아이디어가 적용된 후의 특징점 검출과 매칭에 걸린 시간은 평균적으로 각각 약 4ms와 16ms이다. 카메라 자세 추정 및 가시화를 포함한 최종적인 전체 시스템의 수행시간은 한 프레임 당 평균적으로 약 97ms가 소요되었다. 또한 본 시스템에서 사용하고 있는 영상처리 기반의 카메라 자세 추정 기법의 정확도를 평가하기 위해서 3차원 광학 모션캡쳐 시스템을 이용하여 정답 데이터(ground-truth data)를 측정하였다[25].
후속연구
하지만, 아직 콘텐츠의 제작을 위한 시나리오가 제한되어 있고, 평면 변환을 이용한 자세 추정시 수행되는 특징점 매칭단계에서 상대적으로 많은 시간을 소모하기에 이 부분을 좀 더 효율적으로 개선할 필요가 있다. 향후에는 사각형 집합 추적 및 호모그래피를 이용한 카메라 추적이 모두 실패할 경우, 모바일 단말기 상에 탑재된 센서를 사용함으로서 더욱 강인한 카메라 자세를 추정하기 위한 연구를 진행할 예정이다.
질의응답
핵심어
질문
논문에서 추출한 답변
증강현실이란 무엇인가요?
증강현실은 현실세계에 존재하는 기존 정보들을 가상의 3차원 모델이나 그래픽을 이용하여 사용자가 인지하기 좋은 형태로 증강시켜주는 기술로서 영화 등의 다양한 미디어를 통해 앞으로 다가올 미래에 가장 주목받는 기술로 발전해왔다[2]. 특히, 스마트 폰의 대중화와 더불어 카메라와 디스플레이 및 연산장치가 통합된 특성에 의해 모바일 증강현실은 단시간 내에 사람들의 이목을 집중시키는 기술이 되었다[3].
증강현실 시스템의 기술적인 핵심은 무엇인가요?
증강현실 시스템의 기술적인 핵심은 카메라 자세 추정에 있다. 많은 증강현실 시스템들이 카메라 자세를 효과적으로 추정하기 위해서 다양한 방법을 제안하고 있다.
증강현실 시스템의 기술적인 핵심인 카메라 자세추정은 무엇을 통해 얻을 수 있나요?
카메라 자세 추정은 QR코드가 존재하는 3차원 공간이 평면이라는 가정 하에 호모그래피(H)을 분해하여 얻을 수 있다[12,18]. 수식 (1)은 호모그래피로부터 회전변환과 이동변환을 얻는 과정을 보여준다.
참고문헌 (25)
한국정보화진흥원, 스마트 정보문화 확산을 위한 중장기 발전전략 수립 연구, 연구보고서, NIA IV-PER-11091, 2011.
R. Azuma, "A Survey of Augmented Reality," Presence-Teleoperators and Virtual Environments, Vol.6, No.4, pp. 355-385, 1997.
G. Papagiannakis, G. Singh, and N.M. Thalmann, "A Survey of Mobile and Wireless Technologies for Augmented Reality Systems," Computer Aninmation and Virtual Worlds, Vol.19, Issue 1, pp. 3-22, 2008.
H. Kato and M. Billinghurst, "Marker Tracking and HMD Calibration for a Video-based Augmented Reality Conferencing System," 2nd IEEE and ACM International Workshop on Augmented Reality, pp. 85-89, 1999.
V. Teichrieb, JPS do Monte Lima, E.L. Apolinario, TSMC de Farias, M.A.S. Bueno, J. Kelner, and Ismael H.F. Santos, "A Survey of Online Monocular Markerless Augmented Reality," International Journal of Modeling and Simulation for The Petroleum Industry, Vol.1, No.1, pp. 1-7, 2007.
이정진, 김종호, 김태영, "증강현실 응용을 위한 손 끝점 추출과 손동작 인식 기법," 멀티미디어학회논문지, 제13권, 제2호, pp. 316-323, 2010.
T. Korah, J. Wither, Y. Tsai, and R. Azuma, "Mobile Augmented Reality at the Hollywood Walk of Fame," IEEE Conference of Virtual Reality, pp. 183-186, 2011.
M. Hirzer, Marker Detection for Augmented Reality Applications, Research Paper at Granz University of Technology, 2008.
T.W. Kan, C.H. Teng, and W.S. Chou, "Applying QR code in Augmented Reality Applications," Proc. of the 8th International Conference on Virtual Reality Continuum and its Applications in Industry, pp. 253-257, 2009.
N. Park, W. Lee, and W. Woo, "Barcode- Assisted Planar Object Tracking Method for Mobile Augmented Reality," International Symposium on Ubiquitous Virtual Reality, pp 40-43, 2011.
G. Simon, A.W. Fitzgibbon, and A. Zisserman, "Markerless Tracking using Planar Structures in the Scene," IEEE and ACM International Symposium on Augmented Reality, Vol. 40, Issue 1, pp. 120-128, 2000.
S. Taylor, E. Rosten, and T. Drummond, "Robust Feature Matching in $2.3{\mu}s$ ," IEEE CVPR Workshop on Feature Detectors and Descriptors: The State of The Art and Beyond, June, 2009.
Denso Wave, About QR Code, http://www.denso-wave.com/qrcode/index-e.html, 2007.
R. Hartley and A. Zisserman, Multiple View Geometry in Computer Vision, Cambridge University Press, second edition, London, 2004.
E. Rosten and T. Drummond, "Fusing Points and Lines for High Performance Tracking," IEEE International Conference on Computer Vision, Vol. 2, pp. 1508-1511, 2005.
E. Rosten and T. Drummond, "Machine Learning for High-Speed Corner Detection," European Conference on Computer Vision, Vol. 1, pp. 430-443, 2006.
Rafael C. Gonzalez and Richard E. Woods, Digital Image Processing, Prentice Hall, third edition, New Jersey, 2008.
M. Kim and I.S. Oh, "Estimation of Rapidmotion for Mobile Devices using Temporal Coherence," 23rd International Conference Image and Vision Computing New Zealand, pp. 1-6, 2008.
Introducing JSON, http://www.json.org, 2012.
QR Code Generator from the ZXing Project, http://zxing.appspot.com/generator, 2012.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.