본 논문에서는 3차원 공간정보의 질을 향상시키고, 공간정보만으로 표현하기 어려운 부분을 시각화하는 u-GIS 야외 증강현실 시스템 개발 방법을 제안한다. 이 방법은 증강현실 시스템을 개발하기 위해 세 가지 기술을 사용한다. 첫째, 증강현실을 위한 카메라 영상을 포함한 센서 정보측정 및 보정기술과 둘째, 카메라 연동센서 기반 트래킹 기술. 마지막으로, 카메라 영상과 3차원 공간 정보의 정합을 위한 3차원 공간정보 합성기술이다. 본 논문에서는 세 가지 기술을 기반으로 실제 공간정보와 3D GIS 모델을 합성하여 증강하는 시스템을 개발하였다.
본 논문에서는 3차원 공간정보의 질을 향상시키고, 공간정보만으로 표현하기 어려운 부분을 시각화하는 u-GIS 야외 증강현실 시스템 개발 방법을 제안한다. 이 방법은 증강현실 시스템을 개발하기 위해 세 가지 기술을 사용한다. 첫째, 증강현실을 위한 카메라 영상을 포함한 센서 정보측정 및 보정기술과 둘째, 카메라 연동센서 기반 트래킹 기술. 마지막으로, 카메라 영상과 3차원 공간 정보의 정합을 위한 3차원 공간정보 합성기술이다. 본 논문에서는 세 가지 기술을 기반으로 실제 공간정보와 3D GIS 모델을 합성하여 증강하는 시스템을 개발하였다.
In this paper, we preset a method for the development of u-GIS outdoor augmented reality(AR) system. The proposed system is consist of three parts. First, sensor acquisition and calibration for AR, Second, camera and sensor based tracking for AR, Third, integration of sensor information and 3D model...
In this paper, we preset a method for the development of u-GIS outdoor augmented reality(AR) system. The proposed system is consist of three parts. First, sensor acquisition and calibration for AR, Second, camera and sensor based tracking for AR, Third, integration of sensor information and 3D models. We combine spatial information of real and virtual spaces through u-GIS AR system.
In this paper, we preset a method for the development of u-GIS outdoor augmented reality(AR) system. The proposed system is consist of three parts. First, sensor acquisition and calibration for AR, Second, camera and sensor based tracking for AR, Third, integration of sensor information and 3D models. We combine spatial information of real and virtual spaces through u-GIS AR system.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 u-GIS 공간정보와 3D GIS 모델을 합성 또는 증강하여 시각화하는 u-GIS 야외 증강현실 시스템 개발에 관한 연구를 소개하였다. 정밀 위치/자세 센서와 스테레오 영상, 3D 모델을 이용해 공간정보만으로 표현하기 어려운 시각화 부분의 부가정보를 제공해 줌으로써 건설현장의 공정관리 및 기타 증강현실로 표현해줄 수 있는 다양한 정보 가시화를 통해 기존의 GIS 기반 가시화의 한계를 극복하고 현장성과 실시간성을 필요로 하는 다양한 프로젝트에 효율적으로 적용할 수 있을 것으로 판단된다.
카메라 센서는 카메라의 내부 파라미터와 관련이 있으며, 상대 자세와 상대 위치를 하나로 묶어서 트랙커 (tracker)로 표현한다. 본 논문에서는 위치와 자세 센서를 이용하여 증강 현실을 위한 센서 정보를 측정 및 보정하였다.
본 논문에서는 이러한 u-GIS 공간정보와 증강현실 기술을 이용하여 현장에서 직접 실시간으로 현실공간과 가상공간을 통합하는 차세대 시각화 기술의 일환으로 u-GIS 야외 증강현실 시스템 개발에 관한 내용을 서술한다. 2장에서는 관련 연구에 대해 설명하고, 개발 시스템의 세 가지 주요 기술들을 3장에서 설명하였다.
가설 설정
아무리 정밀한 RTK-DGPS를 사용한다 하더라도 몇 cm의 오차는 발생하며 이동하는 상황에는 에러가 커지게 된다. 본 논문에서는 위치에러를 고려하지 않는다. 몇 cm의 오차는 영상에서 3D 모델의 위치에 크게 영향을 미치지 않는다.
제안 방법
카메라 모델을 실제 영상과 일치시키기 위해서는 일반적으로 렌즈왜곡을 보상해야 한다. 렌즈왜곡 중에 radial distortion을 측정한다. 왜곡 보상에는 1차 항까지 적용하여 영상을 복구한다[12].
본 논문에서 사용하는 지리 공간 좌표계는 기준좌표계임으로 위치/자세 센서를 통하여 카메라의 기준좌표계 좌표를 획득하고 방향의 절대 값을 얻는다. 또한 표현하고자 하는 3D GIS 모델 역시 동일한 좌표계를 사용한다.
본 논문에서 제안하는 시스템은 기존시스템에 비해 상대적으로 고 정밀 센서 및 영상기반 보정 기능을 사용하여 데이터 표현에 정확도를 높인 시스템으로 개발되었다.
이 인코더는 절대 적인 위치를 출력시키는 Absolute 형과 상대적인 위치 초기 값에 비하여 증가 또는 감소된 위치의 양만 출력시키는 Incremental 형이 있다. 본 논문에서는 절대적인 위치를 측정하기 위해서 Absolute 형을 사용하였다.
실사 공간이 카메라에 의해 평면인 영상으로 맺혀지는 과정은 렌즈의 광학적 성질과 카메라의 기계적인 성질로 설명된다. 이러한 렌즈의 광학적 성질과 카메라의 기계적인 성질을 과정을 수학적 모델에 적용하여 해석함으로서 영상에 가상의 물체를 그려 넣을 수 있다. 이렇게 카메라의 성질을 수학적인 모델로 해석하는 과정을 카메라보정 (camera calibration) 이라고 한다.
카메라로 입력된 영상과 위치/자세 센서로부터 입력된 데이터를 이용해 카메라 자세를 계산한다. 본 논문에서는 Perspective Projection Camera Model을 사용한다.
이론/모형
이 시스템은 모든 축에서 360도 소스리스(sourceless) 트래킹과, 9개의 소형 센서로 구성되어 있으며 칼만 필터링(Kalman filtering) 알고리즘을 이용한다. InertiaCube3는 절대자세 값을 생성하기 위해서 GEOS알고리즘을 사용한다. 처리 흐름은 그림 5와 같다.
절대위치는 GIS 정보와 직접적인 연관성을 제공하여 시스템이 표현하고자하는 정보를 선택하는 기본입력이 된다. 따라서 본 논문에서는 시각화 시스템을 개발하기 위해 가장 정밀한 GPS 측위 방식인 상대관측 방식의 RTKDGPS(Real-Time Kinematic Differential GPS)를 사용하였다. RTK-DGPS는 정지 상태에서 수 cm 정밀도를 측위가 가능하여 측량에 많이 활용되는 방식으로 그림 2는 본 시스템에 사용한 RTK-DGPS을 보여준다[7].
카메라로 입력된 영상과 위치/자세 센서로부터 입력된 데이터를 이용해 카메라 자세를 계산한다. 본 논문에서는 Perspective Projection Camera Model을 사용한다. 그림에서 공간상의 3D 점 M = [X,Y,Z]T는 유클리드 세계 좌표계로 표현되고 대응하는 이미지상의 2D 점 m = [u, v]T는 s = P로 표현된다.
IMU는 3-자유도(DOF; Degree Of Freedom)를 표현할 수 있는 관성 오리엔테이션 기준 시스템으로, 본 논문 에서는 상대 또는 절대 자세를 제공해주는 InterSense InertiaCube3 시스템[9]을 사용하였다. 이 시스템은 모든 축에서 360도 소스리스(sourceless) 트래킹과, 9개의 소형 센서로 구성되어 있으며 칼만 필터링(Kalman filtering) 알고리즘을 이용한다. InertiaCube3는 절대자세 값을 생성하기 위해서 GEOS알고리즘을 사용한다.
후속연구
본 논문에서는 u-GIS 공간정보와 3D GIS 모델을 합성 또는 증강하여 시각화하는 u-GIS 야외 증강현실 시스템 개발에 관한 연구를 소개하였다. 정밀 위치/자세 센서와 스테레오 영상, 3D 모델을 이용해 공간정보만으로 표현하기 어려운 시각화 부분의 부가정보를 제공해 줌으로써 건설현장의 공정관리 및 기타 증강현실로 표현해줄 수 있는 다양한 정보 가시화를 통해 기존의 GIS 기반 가시화의 한계를 극복하고 현장성과 실시간성을 필요로 하는 다양한 프로젝트에 효율적으로 적용할 수 있을 것으로 판단된다. 그러나 센서정보의 정밀도를 유지하면서 사용자 휴대 편의성을 고려한 시스템 소형화 및 경량화가 필요하고 다양한 3D GIS 모델 및 건물 BIM(building information modeling) 데이터 구축이 선행되어져한다.
질의응답
핵심어
질문
논문에서 추출한 답변
증강현실을 위해 요구되는 센서는 어떻게 구분되는가?
증강현실을 위해서 요구되는 센서는 위치, 자세, 그리고 카메라 센서로 구분된다. 위치 센서는 증가현실에 사용되는 카메라의 절대 또는 상대 위치를 제공한다.
증강현실이란 무엇인가?
증강현실(Augmented Reality)기술은 실제 환경에 가상의 그래픽 오브젝트를 실시간으로 합성하여 실제 환경에 존재하는 것처럼 보이도록 하는 컴퓨터 기술이다. 이 기술은 현실 세계만으로 얻기 어려운 부가적인 정보들을 보강해 제공해줄 수 있기 때문에 다양한 현실 환경 및 유비쿼터스 환경에 적합한 기술로 기대를 모으고 있다.
증강현실기술이 다양한 현실 환경 및 유비쿼터스 환경에 적합한 기술로 기대를 모으고 있는 이유는 무엇인가?
증강현실(Augmented Reality)기술은 실제 환경에 가상의 그래픽 오브젝트를 실시간으로 합성하여 실제 환경에 존재하는 것처럼 보이도록 하는 컴퓨터 기술이다. 이 기술은 현실 세계만으로 얻기 어려운 부가적인 정보들을 보강해 제공해줄 수 있기 때문에 다양한 현실 환경 및 유비쿼터스 환경에 적합한 기술로 기대를 모으고 있다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.