[학위논문]모바일 기기에서 증강 현실 응용을 위한 동시적 위치추정 및 지도작성 기법 연구 Real-time Adaptive Monocular Visual-Inertial SLAM for Augmented Reality Applications in Mobile Devices원문보기
동시적 위치추정 및 지도작성 (Simultaneous Localization and Mapping; SLAM) 기법은 로봇, 자율 주행 및 증강 현실 (Augmented Reality; AR)을 위한 컴퓨터 비전 및 차세대 핵심 기술로써 중요한 이슈로 떠오르고 있다. SLAM은 지도 및 위치 정보를 응용 프로그램에 제공하기 위해 사용하는 기본 기술이다. 응용 프로그램에서 따라 지도 및 위치 정확도에 대한 요구 사항이 다르다. 예를 들어, 증강 현실 응용 프로그램에서 빠른 카메라 자세와 실제 크기를 신속하게 추정하는 것은 매우 중요하다. 그러나 단일 카메라 기반 SLAM에서는 실제 크 기를 측정할 수 없다. 따라서 관성 센서를 결합하여 실제 크기를 측정하는 방법 을 사용하여야 한다. 휴대전화와 같은 모바일 기기에는 흔히 일반 카메라와 관 성 센서 같은 여러 가지 센서를 기본적으로 탑재하고 있다. 그러므로 본 연구에 서는 주로 카메라와 관성 센서를 결합하여 사용하는 ...
동시적 위치추정 및 지도작성 (Simultaneous Localization and Mapping; SLAM) 기법은 로봇, 자율 주행 및 증강 현실 (Augmented Reality; AR)을 위한 컴퓨터 비전 및 차세대 핵심 기술로써 중요한 이슈로 떠오르고 있다. SLAM은 지도 및 위치 정보를 응용 프로그램에 제공하기 위해 사용하는 기본 기술이다. 응용 프로그램에서 따라 지도 및 위치 정확도에 대한 요구 사항이 다르다. 예를 들어, 증강 현실 응용 프로그램에서 빠른 카메라 자세와 실제 크기를 신속하게 추정하는 것은 매우 중요하다. 그러나 단일 카메라 기반 SLAM에서는 실제 크 기를 측정할 수 없다. 따라서 관성 센서를 결합하여 실제 크기를 측정하는 방법 을 사용하여야 한다. 휴대전화와 같은 모바일 기기에는 흔히 일반 카메라와 관 성 센서 같은 여러 가지 센서를 기본적으로 탑재하고 있다. 그러므로 본 연구에 서는 주로 카메라와 관성 센서를 결합하여 사용하는 SLAM 기법을 연구한다. 이는 추가적 비용 지출이 없이 광범위한 모바일 기기에서 바로 적용할 수 있는 방법이다. 지금까지 개인용 컴퓨터 환경 (PC)에서 관련 연구가 많이 진행되었으나, 모바 일 환경에서는 하드웨어 상황과 최적화의 많은 제한 때문에 PC에서 만큼의 탁 월한 성능을 나타내지 못하고 있다. 따라서 모바일 기기 증강 현실 프로그램에서 실시간 카메라 위치를 얻으려면 SLAM 시스템을 최적화해야 한다. 본 논문에서는 모바일 기기에서 증강 현실 응용을 위한 SLAM 기법은 소개하 고자 한다. 우선, 모바일 장치 카메라 및 관성 측정 센서의 데이터를 결합하는 시각–관성 거리계 (Visual–Inertial Odometry; VIO)를 사용하여 SLAM 시스템 을 구현하였다. 다음, 계산 시간과 복잡성을 줄이기 위해 학습기반의 적응형 키 프레임 선택 방법을 제시하였다. 이를 이용하여 결과에 영향을 미치지 않는 일 부 중요도가 낮은 프레임은 경량의 방법으로 처리한다. 마지막으로, 현재 프레임 과 이전 프레임 사이의 카메라 자세를 신속하게 추정하기 위해 광학적 흐름 기 반 추적 (optical-flow-based Fast Visual Odometry; FVO) 알고리즘을 제안한 다. 제안된 방법의 성능을 검증하기 위해 PC 환경에서 시뮬레이션을 수행하고 최근 연구들과 비교한다. 실험 결과에서 추가로 카메라 궤적과 실제 환경의 크 기를 일치화 작업을 하지 않았을 경우, 카메라 이동의 평균 제곱근 오차 (root-mean-square error, RMSE)는 약 0.067m이고, 계측한 크기와 실제 환경 의 크기 사이의 오차는 0.58%임을 보여준다. 이는 최근 연구들보다 정확성이 뛰 어나다. 그리고 서로 다른 레벨의 적응형 방법의 정책을 설정하였을 경우, 평균 위치 측정 시간이 각각 7.8%, 12.9% 및 18.8% 줄어드는 것을 확인할 수 있다. 추가로, SLAM 기법을 사용한 증강 현실 기반의 응용 프로그램의 설계 기법 은 제안한다. 모바일 기기에서의 실험 결과를 통하여 제안된 방법론을 이용한 성능 향상을 입증한다. 본 논문에서 제안된 학습기반의 적응형 키 프레임 선택 방법은 여러 가지 영 상 기반의 SLAM 기법에 모두 적용할 수 있는 장점이 있다.
동시적 위치추정 및 지도작성 (Simultaneous Localization and Mapping; SLAM) 기법은 로봇, 자율 주행 및 증강 현실 (Augmented Reality; AR)을 위한 컴퓨터 비전 및 차세대 핵심 기술로써 중요한 이슈로 떠오르고 있다. SLAM은 지도 및 위치 정보를 응용 프로그램에 제공하기 위해 사용하는 기본 기술이다. 응용 프로그램에서 따라 지도 및 위치 정확도에 대한 요구 사항이 다르다. 예를 들어, 증강 현실 응용 프로그램에서 빠른 카메라 자세와 실제 크기를 신속하게 추정하는 것은 매우 중요하다. 그러나 단일 카메라 기반 SLAM에서는 실제 크 기를 측정할 수 없다. 따라서 관성 센서를 결합하여 실제 크기를 측정하는 방법 을 사용하여야 한다. 휴대전화와 같은 모바일 기기에는 흔히 일반 카메라와 관 성 센서 같은 여러 가지 센서를 기본적으로 탑재하고 있다. 그러므로 본 연구에 서는 주로 카메라와 관성 센서를 결합하여 사용하는 SLAM 기법을 연구한다. 이는 추가적 비용 지출이 없이 광범위한 모바일 기기에서 바로 적용할 수 있는 방법이다. 지금까지 개인용 컴퓨터 환경 (PC)에서 관련 연구가 많이 진행되었으나, 모바 일 환경에서는 하드웨어 상황과 최적화의 많은 제한 때문에 PC에서 만큼의 탁 월한 성능을 나타내지 못하고 있다. 따라서 모바일 기기 증강 현실 프로그램에서 실시간 카메라 위치를 얻으려면 SLAM 시스템을 최적화해야 한다. 본 논문에서는 모바일 기기에서 증강 현실 응용을 위한 SLAM 기법은 소개하 고자 한다. 우선, 모바일 장치 카메라 및 관성 측정 센서의 데이터를 결합하는 시각–관성 거리계 (Visual–Inertial Odometry; VIO)를 사용하여 SLAM 시스템 을 구현하였다. 다음, 계산 시간과 복잡성을 줄이기 위해 학습기반의 적응형 키 프레임 선택 방법을 제시하였다. 이를 이용하여 결과에 영향을 미치지 않는 일 부 중요도가 낮은 프레임은 경량의 방법으로 처리한다. 마지막으로, 현재 프레임 과 이전 프레임 사이의 카메라 자세를 신속하게 추정하기 위해 광학적 흐름 기 반 추적 (optical-flow-based Fast Visual Odometry; FVO) 알고리즘을 제안한 다. 제안된 방법의 성능을 검증하기 위해 PC 환경에서 시뮬레이션을 수행하고 최근 연구들과 비교한다. 실험 결과에서 추가로 카메라 궤적과 실제 환경의 크 기를 일치화 작업을 하지 않았을 경우, 카메라 이동의 평균 제곱근 오차 (root-mean-square error, RMSE)는 약 0.067m이고, 계측한 크기와 실제 환경 의 크기 사이의 오차는 0.58%임을 보여준다. 이는 최근 연구들보다 정확성이 뛰 어나다. 그리고 서로 다른 레벨의 적응형 방법의 정책을 설정하였을 경우, 평균 위치 측정 시간이 각각 7.8%, 12.9% 및 18.8% 줄어드는 것을 확인할 수 있다. 추가로, SLAM 기법을 사용한 증강 현실 기반의 응용 프로그램의 설계 기법 은 제안한다. 모바일 기기에서의 실험 결과를 통하여 제안된 방법론을 이용한 성능 향상을 입증한다. 본 논문에서 제안된 학습기반의 적응형 키 프레임 선택 방법은 여러 가지 영 상 기반의 SLAM 기법에 모두 적용할 수 있는 장점이 있다.
Simultaneous localization and mapping (SLAM) is emerging as a prominent issue in computer vision and next-generation core technology for robots, autonomous navigation and augmented reality. SLAM is a low-level technology that provides map and location information to applications using it. Depending ...
Simultaneous localization and mapping (SLAM) is emerging as a prominent issue in computer vision and next-generation core technology for robots, autonomous navigation and augmented reality. SLAM is a low-level technology that provides map and location information to applications using it. Depending on the application, the requirements for the map and location accuracy are different. For example, in augmented reality applications, rapid camera pose estimation and true scale are important. In this thesis, we present a real-time adaptive monocular visual–inertial SLAM method for augmented reality (AR) application in mobile devices. First, the SLAM system is implemented based on the visual–inertial odometry method that combines data from a mobile device camera and inertial measurement unit sensor. Second, we present an adaptive keyframe selection method to reduce the computation time and complexity, a few low-importance frames can be omitted without affecting the results. Finally, we propose a lightweight optical-flow-based fast visual odometry (FVO) method, which rapidly estimates the camera pose between the current frame and previous frame. To verify the performance of the proposed method, we simulate it in a personal computer (PC) environment, and compared it with state-of-the-art methods. The experimental results demonstrate that the average translation root-mean-square error (RMSE) of keyframe trajectory is approximately 0.067 m without the ground-truth scale matching, and the scale error with the EuRoC dataset is 0.58%. Its accuracy better than the current state-of-the-art work. The average tracking time is reduced by 7.8%, 12.9%, and 18.8% when different level-set adaptive policies are applied. Moreover, the experimental results of the mobile device reveal a significant performance improvement with the use of the proposed method.
Simultaneous localization and mapping (SLAM) is emerging as a prominent issue in computer vision and next-generation core technology for robots, autonomous navigation and augmented reality. SLAM is a low-level technology that provides map and location information to applications using it. Depending on the application, the requirements for the map and location accuracy are different. For example, in augmented reality applications, rapid camera pose estimation and true scale are important. In this thesis, we present a real-time adaptive monocular visual–inertial SLAM method for augmented reality (AR) application in mobile devices. First, the SLAM system is implemented based on the visual–inertial odometry method that combines data from a mobile device camera and inertial measurement unit sensor. Second, we present an adaptive keyframe selection method to reduce the computation time and complexity, a few low-importance frames can be omitted without affecting the results. Finally, we propose a lightweight optical-flow-based fast visual odometry (FVO) method, which rapidly estimates the camera pose between the current frame and previous frame. To verify the performance of the proposed method, we simulate it in a personal computer (PC) environment, and compared it with state-of-the-art methods. The experimental results demonstrate that the average translation root-mean-square error (RMSE) of keyframe trajectory is approximately 0.067 m without the ground-truth scale matching, and the scale error with the EuRoC dataset is 0.58%. Its accuracy better than the current state-of-the-art work. The average tracking time is reduced by 7.8%, 12.9%, and 18.8% when different level-set adaptive policies are applied. Moreover, the experimental results of the mobile device reveal a significant performance improvement with the use of the proposed method.
Keyword
#adaptive keyframe selection augmented reality mobile applications optical-flow-based tracking simultaneous localization and mapping visual-inertial odometry 동시적 위치추정 및 지도작성 시각?관성 거리계 적응적 키 프 레임 선택 광학적 흐름 기반 추적 증강 현실 모바일 기기
학위논문 정보
저자
Jin-Chun Piao
학위수여기관
연세대학교 일반대학원
학위구분
국내박사
학과
컴퓨터과학과..
지도교수
김신덕
발행연도
2018
총페이지
vii, 125p
키워드
adaptive keyframe selection augmented reality mobile applications optical-flow-based tracking simultaneous localization and mapping visual-inertial odometry 동시적 위치추정 및 지도작성 시각?관성 거리계 적응적 키 프 레임 선택 광학적 흐름 기반 추적 증강 현실 모바일 기기
※ AI-Helper는 부적절한 답변을 할 수 있습니다.