제한된 훈련장안에서 실전에 대비한 훈련이 되려면, 다양한 전투상황이 부여된 현실감 있는 모의훈련이 필수적이다. 본 논문에서는 현실감 있는 모의훈련을 위해 가상영상이 아닌 지상기반 CCD 카메라영상에 지정된 시나리오대로 가상표적을 전시하는 방법을 제안한다. 이를 위해 고해상도 GeoTIFF(Geographic Tag Image File Format) 위성 영상과 DTED(Digital Terrain Elevation Data)를 이용하여 현실감 있는 3차원 모델을 생성(운용자용)하고, 입력된 CCD 영상(운용자, 훈련자용)으로부터 도로를 추출하였다. 위성영상과 지상기반 센서영상은 관측위치, 분해능, 스케일 등에 많은 차이가 있어 특징기반 정합이 어렵다. 따라서 본 논문에서는 영상 워핑함수인 TPS(Thin-Plate Spline) 보간 함수를 일치하는 두개의 제어점 집합에 적용하여 3차원 모델에 표시된 이동경로를 따라 CCD 영상에서도 표적이 전시되는 이동 동기화 방법을 제안하였다. 실험환경은 Pentium4 1.8MHz(RAM 512M)의 PC 2대를 사용하였으며, 실험 영상은 대전지역의 위성영상과 CCD 영상을 이용, 제안한 알고리즘의 유효성을 입증하였다.
제한된 훈련장안에서 실전에 대비한 훈련이 되려면, 다양한 전투상황이 부여된 현실감 있는 모의훈련이 필수적이다. 본 논문에서는 현실감 있는 모의훈련을 위해 가상영상이 아닌 지상기반 CCD 카메라영상에 지정된 시나리오대로 가상표적을 전시하는 방법을 제안한다. 이를 위해 고해상도 GeoTIFF(Geographic Tag Image File Format) 위성 영상과 DTED(Digital Terrain Elevation Data)를 이용하여 현실감 있는 3차원 모델을 생성(운용자용)하고, 입력된 CCD 영상(운용자, 훈련자용)으로부터 도로를 추출하였다. 위성영상과 지상기반 센서영상은 관측위치, 분해능, 스케일 등에 많은 차이가 있어 특징기반 정합이 어렵다. 따라서 본 논문에서는 영상 워핑함수인 TPS(Thin-Plate Spline) 보간 함수를 일치하는 두개의 제어점 집합에 적용하여 3차원 모델에 표시된 이동경로를 따라 CCD 영상에서도 표적이 전시되는 이동 동기화 방법을 제안하였다. 실험환경은 Pentium4 1.8MHz(RAM 512M)의 PC 2대를 사용하였으며, 실험 영상은 대전지역의 위성영상과 CCD 영상을 이용, 제안한 알고리즘의 유효성을 입증하였다.
To organize training in limited training area for an actuai combat, realistic training simulation plugged in by various battle conditions is essential. In this paper, we propose a virtual target overlay technique which does not use a virtual image, but Projects a virtual target on ground-based CCD i...
To organize training in limited training area for an actuai combat, realistic training simulation plugged in by various battle conditions is essential. In this paper, we propose a virtual target overlay technique which does not use a virtual image, but Projects a virtual target on ground-based CCD image by appointed scenario for a realistic training simulation. In the proposed method, we create a realistic 3D model (for an instructor) by using high resolution Geographic Tag Image File Format(GeoTIFF) satellite image and Digital Terrain Elevation Data (DTED), and extract the road area from a given CCD image (for both an instructor and a trainee). Satellite images and ground-based sensor images have many differences in observation position, resolution, and scale, thus yielding many difficulties in feature-based matching. Hence, we propose a moving synchronization technique that projects the target on the sensor image according to the marked moving path on 3D satellite image by applying Thin-Plate Spline(TPS) interpolation function, which is an image warping function, on the two given sets of corresponding control point pair. To show the experimental result of the proposed method, we employed two Pentium4 1.8MHz personal computer systems equipped with 512MBs of RAM, and the satellite and sensor images of Daejoen area are also been utilized. The experimental result revealed the effective-ness of proposed algorithm.
To organize training in limited training area for an actuai combat, realistic training simulation plugged in by various battle conditions is essential. In this paper, we propose a virtual target overlay technique which does not use a virtual image, but Projects a virtual target on ground-based CCD image by appointed scenario for a realistic training simulation. In the proposed method, we create a realistic 3D model (for an instructor) by using high resolution Geographic Tag Image File Format(GeoTIFF) satellite image and Digital Terrain Elevation Data (DTED), and extract the road area from a given CCD image (for both an instructor and a trainee). Satellite images and ground-based sensor images have many differences in observation position, resolution, and scale, thus yielding many difficulties in feature-based matching. Hence, we propose a moving synchronization technique that projects the target on the sensor image according to the marked moving path on 3D satellite image by applying Thin-Plate Spline(TPS) interpolation function, which is an image warping function, on the two given sets of corresponding control point pair. To show the experimental result of the proposed method, we employed two Pentium4 1.8MHz personal computer systems equipped with 512MBs of RAM, and the satellite and sensor images of Daejoen area are also been utilized. The experimental result revealed the effective-ness of proposed algorithm.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
방향을 지정하는 것은 훈련병이 훈련시 카메라서보로 제어되는 조이스틱이나 핸들바를 작동하여 카메라의 중심선을 시나리오에 따라 움직이는 표적의 중심에 맞추도록 하기 위해서이다. 또한 도로 일치점 몇 곳을 지정한 것은 이를 통해 두 영상을 정합하여 관측위치, 분해능의 차이를 보정하고, 표적 이동시 제어점으로 사용하기 위해서이다. 추출한다.
본 논문에서는 현재의 가상 영상, 가상표적 기반의 모의훈련에 현실감과 훈련효과 증대를 위하여 훈련용 차량에 탑재된 영상센서 즉, CCD 카메라로부터 입력되는 실제 영상에 가상의 표적을 렌더링하는 방법을 연구하였다. 이를 위해서는 표적의 정밀위치 획득이 중요한 문제이나 위성영상과 지상기반 센서영상의 경우 관측위치, 분해능, 촬영시기 등의 차이로 영상분석을 통한 정확한 정합이 어렵다.
특히 전차 조종훈련의 경우, 실전차 사용으로 발생할 수 있는 유류소모와 유지비용, 훈련장 제한 등의 현실적인 문제점을 해소하고 실제 전차와 동일한 조종수실에서 다양한 지형, 기후조건, 전투 임무상황 등을 체험할 수 있는 실전과 유사한 모의훈련을 위한 연구가 지속적으로 이루어지고 있다. 본 논문에서는 현재의 가상영상, 가상표적 기반[14, 15]의 실내모의훈련을 보다 현실감 있게 수행하기 위하여 훈련용 차량에 탑재된 지상기반 CCD 센서영상(실제 환경)에 운용자가 정한 시나리오 포인트에 의해 가상의 3차원 표적을 출현시키는 기술을 연구하였다. 이를 위해 먼저 훈련지역이 포함되어 있는 위성영상을 수치지형도인 DTED와 결합하여 운용자용 실감있는 3차원 모델을 생성하였다.
가설 설정
도로는 평행하다고 가정, 센서영상에서 도로를 추출한 후, 이 영역 안에 다른 물체(건물, 나무 등)가 놓인 경우를 폐색영역으로 지정하였다. 그리고 표적 이동에 따른 좌표 변화를 이용해 방향과 형태를 변화시켰는데 변형 절차는 (그림 15)와 같다.
본 논문에서는 표적이동 동기화와 렌더링을 위해 일정한 폭과 넓이를 가진 주도로만을 기존의 직선 추출방법을 이용하여 아래의 절차를 수행하고, 영상 뒷면의 좁고 흐릿한 도로와 복잡한 주변 환경과 구분이 되지 않는 논 밭 부근의 도로는 도로 폭이 일정하다고 가정, 기존의 도로를 연장시켜 추출하였다.
제안 방법
DTED는 30M 격자 단위로 고도정보가 있는 NIMA(The National Imagery and Mapping Agency)형식의 Level 2 등급을 사용하였으며, 3차원 모델을 생성하는데 필요한 2차원 좌표에 대한 고도정보를 가지고 있으므로 이를 이용하여 3차원 메쉬 모델을 만든다. 메쉬 모델을 만들기 위해서는 메쉬의 각 정점들로 이루어진 인덱스 버퍼를 생성해야 하는데, 삼각형 리스트를 사용함으로써 중복된 정점수를 줄일 수 있었다.
도로 추출은 기존 방법인 직선 추출방법 [8, 9]을 이용하여 주도로만을 추출하였다. 그리고 3차원 모델에서 차량의 현재위치, 방향, 도로의 정합점 몇 곳을 지정하고, 표적의 이동 경로를 설정하면 TPS 보간 함수를 이용하여 센서영상에서 표적 이동 동기화 과정이 이루어지고 표적의 이동에 따른 폐색과 형태 변형처리를 하게 된다.
따라서 메쉬모델과 위성 영상의 좌표계가 서로 다르기 때문에 정합을 위해서는 위성영상의 TM 좌표계를 메쉬모델의 경위도 좌표계로 변환하였다. 실험에서는 위성 영상의 기준지점과 DTED와의 매핑을 위해 BursaWolf 방식에 의해 TM 좌표계를 경위도 좌표로 변환하였다.
그러나 기존 연구[1]에서 영상정합은 대부분 동일 센서, 동일 장면에 대해 영상처리 과정을 거쳐 영역기반이나 특징기반의 기술을 사용, 일치성 여부를 확인하고 있고, 위성영상과 지상기반 센서영상의 정합처럼 관찰위치, 분해능, 영상취득시기 등이 차이가 있는 경우 정확한 특징기반 정합이 불가능하다. 따라서 본 논문에서는 표적의 정밀위치 획득을 위해 탑재된 CCD 카메라의 센서영상(모노영상)과 3차원 위성영상을 정합하고 운용자가 현장에서 정한 시나리오에 의해 위성영상과 동일한 위치에 센서영상의 가상표적이 동기화되어 이동하는 방법을 (그림 1)과 같이 제안하였다. 위성영상에서 차량의 대략적인 위치 (LocaHzation)는 10M의 정확도를 가진 GPS에 의해 확인하고, 오차 보정을 위해 운용자가 인터페이스를 이용하여 방향과 두 영상에서의 도로상의 일치된 몇 개의 위치를 지정하는 반자동 정합방법을 사용하였다, 그리고 지정된 점들에 영상워핑 방법중 TPS 보간함
이를 위해서는 표적의 정밀위치 획득이 중요한 문제이나 위성영상과 지상기반 센서영상의 경우 관측위치, 분해능, 촬영시기 등의 차이로 영상분석을 통한 정확한 정합이 어렵다. 따라서 센서영상에서 주도로를 추출한 후 카메라의 위치 및 방향, 도로의 정합점등을 수동으로 처리하였고 설정된 경로에서 표적을 동기화하기 위해 영상 워핑기법 중 TPS 보간함수를 이용하여 위성영상에서의한 위치 좌표를 센서영상의 동일 지점과 일치시키는 방법을 제안하였다. 또한 제안한 방법들에 대한 성능을 시스템을 구현하여 검증하였다.
또한 추출된 도로를 따라 표적이 이동할 때, 좌표 변화와 각도를 계산하고 폐색영역 여부를 확인하여 형태, 방향을 변형시켰다.
이러한 문제해결을 위해 최근에는 GPS외에 관성항법장치(Inertial navigation system), 스테레오 카메라(Stereo Camera) 등을 이용하여 이들 자체의 정확한 보정, 공간관계의 정확성을 확립한 후 3차원 위치정보를 얻는 연구[13]가 활발히 진행되고 있다. 본 실험에서는 운용자가 입력된 위성영상에서 카메라의 위치와 방향을 육안으로 확인하고 두 영상의 도로정합점 몇 곳을 마우스 포인터로 지정하는 수동 방법을 사용하였다. 방향을 지정하는 것은 훈련병이 훈련시 카메라서보로 제어되는 조이스틱이나 핸들바를 작동하여 카메라의 중심선을 시나리오에 따라 움직이는 표적의 중심에 맞추도록 하기 위해서이다.
먼저 운용자가 위성영상에 표적이동 시나리오에 의해 시작점, 중간점, 종료점을 지정하면 이 점들을 연결하는 직선이 만들어지고 표적은 이 직선 위를 움직이게 된다. 센서영상에서 표적은 이미 생성된 TPS보간 함수에 의해 대응되는 위치가 결정되므로 시작점에서의 거리에 따라 표적의 크기를 변화시켜주었고, 방향 각도는 결정된 하나의 점과다음 점이 이루는 직선이 X축과 이루는 변화만큼 표적의 방향을 변화시켰다. 폐색은 센서영상에서 표적이 전시되는 영역이 이미 구해진 폐색영역과 동일한 영역인가를 확인하여 결정한다.
센서영상에서의 전처리로 계산속도 향상을 위해 이진화를 거친 후 외곽선을 부드럽게 하고 잡음 제거를 위해 형태학적 연산인 닫힘(closing)연산을 수행하였다. 도로 추출은 기존 방법인 직선 추출방법 [8, 9]을 이용하여 주도로만을 추출하였다.
따라서 본 논문에서는 표적의 정밀위치 획득을 위해 탑재된 CCD 카메라의 센서영상(모노영상)과 3차원 위성영상을 정합하고 운용자가 현장에서 정한 시나리오에 의해 위성영상과 동일한 위치에 센서영상의 가상표적이 동기화되어 이동하는 방법을 (그림 1)과 같이 제안하였다. 위성영상에서 차량의 대략적인 위치 (LocaHzation)는 10M의 정확도를 가진 GPS에 의해 확인하고, 오차 보정을 위해 운용자가 인터페이스를 이용하여 방향과 두 영상에서의 도로상의 일치된 몇 개의 위치를 지정하는 반자동 정합방법을 사용하였다, 그리고 지정된 점들에 영상워핑 방법중 TPS 보간함
본 논문에서는 현재의 가상영상, 가상표적 기반[14, 15]의 실내모의훈련을 보다 현실감 있게 수행하기 위하여 훈련용 차량에 탑재된 지상기반 CCD 센서영상(실제 환경)에 운용자가 정한 시나리오 포인트에 의해 가상의 3차원 표적을 출현시키는 기술을 연구하였다. 이를 위해 먼저 훈련지역이 포함되어 있는 위성영상을 수치지형도인 DTED와 결합하여 운용자용 실감있는 3차원 모델을 생성하였다. 3차원 모델이 완성된 후 훈련지역과 떨어진 지역에서 운용자가 선택하는 이동 시나리오에 의해 CCD 센서 영상(훈련용)위에 표적이동기화되기 위해서는 위성영상과 지상기반 센서영상의 정합이 이루어져야 한다.
심해, 표적 이동시 정확한 동기화가 어렵다. 이를 해결하기 위해 본 논문에서는 이미지 워핑 함수인 탄력적인 TPS(Thin~Plate Spline) 보간 함수를 두 영상의 제어 점정합점)에 적용하였다. TPS 보간 함수인 식 (1)은 각 제어점의 왜곡을 정확하게 표현하여 제어점간 최소곡률 표면을 정의하게 된다.
(그림 2)는 본 연구에서 사용한 3차원 모델링의 구성도로 정합과 매핑의 두 단계로 나누어진다. 정합단계에서는 DTED를 이용하여 메쉬 모델을 구성하고 정사보정된 위성 영상인 GeoTIFF의 TM 좌표계를 메쉬 모델의 경위도 좌표계로 변환하여 정합을 수행한다. 매핑 단계에서는 생성된 메쉬 모델과 텍스처를 매핑시키는데, 이때 보간법을 적용하여 현실감있는 3차원 모델을 만든다.
대상 데이터
매핑 단계에서는 생성된 메쉬 모델과 텍스처를 매핑시키는데, 이때 보간법을 적용하여 현실감있는 3차원 모델을 만든다. 메쉬는 DTED의 각 정점의 고도정보를 이용하여 구성하였는데, 삼각 메쉬 두개로 구성된 사각 메쉬를 사용하였다. 텍스처는 정합을 통해서 결정된 매핑 좌표를 가진 위성영상으로, 이방성 보간법을 이용하여 텍스처가 메쉬 모델에 적용 됐을 때 부드러운 영상을 표현하도록 하였다.
메쉬모델을 구성한다. 선택된 DTED는 한 화소 당 30M 의 간격으로 표현되었고, 크기는 901x901 화소로 구성되어 27030Mx27030M의 영역에 대한 지형 정보를 가지고 있다.
당 1M의 비율로 구성되어 있다. 영상 크기가 2777X 3388 화소로 2777Mx3388M 영역을 표현하고 있다. 또한 <표 1>은 (그림 3)의 위성영상에서 구한 영상 각 모서리의 TM좌표이고, <표 2>는 추출된 GeoTIFF Upper Left의 TM좌표를 위도와 경도로 변환한 것이다.
데이터처리
따라서 센서영상에서 주도로를 추출한 후 카메라의 위치 및 방향, 도로의 정합점등을 수동으로 처리하였고 설정된 경로에서 표적을 동기화하기 위해 영상 워핑기법 중 TPS 보간함수를 이용하여 위성영상에서의한 위치 좌표를 센서영상의 동일 지점과 일치시키는 방법을 제안하였다. 또한 제안한 방법들에 대한 성능을 시스템을 구현하여 검증하였다. 연구결과는 기존의 내장훈련을 보다 현실감 있게 수행하는데 적용될 수 있으며, 야지 자율주행 차량에도 이용될 수 있다.
이론/모형
연산인 닫힘(closing)연산을 수행하였다. 도로 추출은 기존 방법인 직선 추출방법 [8, 9]을 이용하여 주도로만을 추출하였다. 그리고 3차원 모델에서 차량의 현재위치, 방향, 도로의 정합점 몇 곳을 지정하고, 표적의 이동 경로를 설정하면 TPS 보간 함수를 이용하여 센서영상에서 표적 이동 동기화 과정이 이루어지고 표적의 이동에 따른 폐색과 형태 변형처리를 하게 된다.
최근에는 볼륨(volume)기반 기법과 면(surface)기반 기법외에 컴퓨터비젼 기술을 기반으로 물체의 3차원 형상에 대한 정보를 추출하고 이를 바탕으로 폴리곤 메쉬를 생성하는 영상기반 모델링기법[기의 연구가 활발하게 진행되고 있다. 본 연구에서는 면기반 기법인 폴리곤 메쉬모델을 구성하여 위성영상과 정합을 수행하였고, 매핑 단계에서 사실감있는 표현과 왜곡현상을 줄이기 위해 이방성 보간법을 사용하였다. (그림 2)는 본 연구에서 사용한 3차원 모델링의 구성도로 정합과 매핑의 두 단계로 나누어진다.
따라서 메쉬모델과 위성 영상의 좌표계가 서로 다르기 때문에 정합을 위해서는 위성영상의 TM 좌표계를 메쉬모델의 경위도 좌표계로 변환하였다. 실험에서는 위성 영상의 기준지점과 DTED와의 매핑을 위해 BursaWolf 방식에 의해 TM 좌표계를 경위도 좌표로 변환하였다.
성능/효과
메쉬 모델을 만들기 위해서는 메쉬의 각 정점들로 이루어진 인덱스 버퍼를 생성해야 하는데, 삼각형 리스트를 사용함으로써 중복된 정점수를 줄일 수 있었다. 이를 통해 랜더링 시간을 단축시킬 수 있으며, 모델 구성시 기존의 메쉬 모델보다 정확한 모델 생성이 가능하였다. GeoTIFF(Geographic Tag Image File Format)는 위성 영상에 지리정보를 태그 형식으로 저장할 수 있는 그래픽 파일 포맷인데, 본 논문에서 사용한 파일은 TM좌표 형식의 지리정보를 가지고 있다.
이때 사실감 표현을 위해서 보간 방법을 사용하는데, 기존의 보간 방법인 이선형과 삼선형 보간에서는 텍스처의 화소를 기준으로 주위에 있는 정사각의 샘플링 영역 안에 있는 화소를 이용하여 보간을 하기 때문에 텍스처가 관찰자의 시점으로부터 많이 기울어져 있을 경우에 왜곡현상이 발생하는 단점이 있다. 이를 해결하기 위해 본 논문에서는 보간 방법으로 이방성 보간법을 사용하였는데, 이방성 보간은 텍스처가 매핑 되었을 때의 연신율(elongation : 늘어나는 비율, 길이 나누기 폭)을 계산하여 보간에 반영하므로, 기존의 선형 보간에서 나타나는 왜곡을 감소시킬 수 있다.
특성[10]을 지닌다. 첫째, 명암 값이 주변 영상에 비해 상대적으로 밝고, 도로 면의 명 암 값 차이가 크지 않다. 둘째, 도로 폭의 변화가 크지 않고, 전체적으로 부드러운 곡선의모습을 띤 직선으로 구성된다.
후속연구
수동으로 처리된 부분은 위치정확도가 높은 GPS, 관성항법장치(INS), 스테레오 카메라 등을 훈련용 차량에 장착하여 보완할 수 있을 것이다. 따라서 향후에는 GPS외에 관성항법장치(Inertial navigation system), 스테레오 카메라(Stereo Camera)를 이용한 영상 정합방법에 대한 연구가 계속되어야 하는데, 세부적으로는 자동화된 3차원 위치정보 획득을 위한 카메라 보정(calibration), 스테레오 영상정합 방법과 센서 간 공간적 정확도를 유지하기 위한 방법과 탐색에 대한 연구가 있어야 하겠다. 또한 표적의 사실감 증대를 위해서 스테레오 영상에서 산출된 깊이정보와 GIS 정보를 이용한 렌더링 방법에 대한 연구도 계속되어질 것이다.
따라서 향후에는 GPS외에 관성항법장치(Inertial navigation system), 스테레오 카메라(Stereo Camera)를 이용한 영상 정합방법에 대한 연구가 계속되어야 하는데, 세부적으로는 자동화된 3차원 위치정보 획득을 위한 카메라 보정(calibration), 스테레오 영상정합 방법과 센서 간 공간적 정확도를 유지하기 위한 방법과 탐색에 대한 연구가 있어야 하겠다. 또한 표적의 사실감 증대를 위해서 스테레오 영상에서 산출된 깊이정보와 GIS 정보를 이용한 렌더링 방법에 대한 연구도 계속되어질 것이다.
연구결과는 기존의 내장훈련을 보다 현실감 있게 수행하는데 적용될 수 있으며, 야지 자율주행 차량에도 이용될 수 있다. 수동으로 처리된 부분은 위치정확도가 높은 GPS, 관성항법장치(INS), 스테레오 카메라 등을 훈련용 차량에 장착하여 보완할 수 있을 것이다. 따라서 향후에는 GPS외에 관성항법장치(Inertial navigation system), 스테레오 카메라(Stereo Camera)를 이용한 영상 정합방법에 대한 연구가 계속되어야 하는데, 세부적으로는 자동화된 3차원 위치정보 획득을 위한 카메라 보정(calibration), 스테레오 영상정합 방법과 센서 간 공간적 정확도를 유지하기 위한 방법과 탐색에 대한 연구가 있어야 하겠다.
또한 제안한 방법들에 대한 성능을 시스템을 구현하여 검증하였다. 연구결과는 기존의 내장훈련을 보다 현실감 있게 수행하는데 적용될 수 있으며, 야지 자율주행 차량에도 이용될 수 있다. 수동으로 처리된 부분은 위치정확도가 높은 GPS, 관성항법장치(INS), 스테레오 카메라 등을 훈련용 차량에 장착하여 보완할 수 있을 것이다.
참고문헌 (15)
Xiaolong Dai, Siamak Khorram, 'A Feature-Based Image Registration Algorithm Using Improved Chain-Code Representation Combined with Invariant Moments,' IEEE Transaction on Geoscience and Remote Sensing, Vol.37, No.5, September, 1999
Y. Bentoutou, N. Taleb, M. Chikr El Mezouar, M. Taleb, L. Jetto, 'An invariant approach for image registration in digital substraction angiography,' Pattern Recognition, 35, pp.2853-2865, 2002
Fred L. Bookstein, 'Principal Warps : Thin-Plate Splines and the Decomposition of Deformations,' IEEE Tansaction of Pattern Analysis and Machine Intelligence, Vol.11, No.6, June, 1989
Stefan Growe, Peter Schulze, Ralf Tonjes, '3D Visualization and Evaluation of Remote Sensing Data,' Computer Graphics International '98 Hannover, Germany, June, 1998
Ralf Tonjes, '3D Reconstruction of Objects from Aerial Images using a GIS,' ISPRS Joint Workshop on, 'Theoretical and Practical Aspects of Surface Reconstruction and 3-D Object Extraction,' Haifa, Israel, September, 1997
Hearn D., P. Baker, 'Scientific Visualization: An Introduction,' Eurographics '91 Technical Report Series, Tutorial Lecture 6
E. Chen. Quicktime VR-an image-based approach to virtual environment navigation. Proc. of SIGGRAPH, 1995
J. Amini, M. R. Saradjian, J. A. R. Blais, C. Lucas, A. Azizi, 'Automatic road-side extraction from large scale image-maps,' International Journal of Applied Earth Observation and Geoinformation, 4, pp.95-107, 2002
Stefan Hinz, Albert Baumgartner, 'Automatic extraction of urban road networks from multi-view aerial imagery,' ISPRS Journal of Photogrammetry & Remoting Sensing, 58, pp.83-98, 2003
Abdullah, Q., 'Evaluation of GPS-Inertial Navigation System for Airborne Photogrammetry,' ACSM/ASPRS Annual Convention and Exposition, April, Seattle, WA.
Rosenfeild, A, Kak, A. C., Digital Picture Processing. Academic Press, New York, 1982
P. C. Naval Jr., M. Mukunoki, M. Miinoh and K. Ikeda. 'Estimation camera position and orientation from geographical map and mountain image,' 38th Research Meeting of the Pattern Sensing Group, Society of Instrument and Control Engineers, pp.9-16, 1997
Cramer, M., Stallmann, D., Haala, N., Direct Georeferencing Using GPS/Inertial Exterior Orientations For Photoframmetric Applications. International Archivers of Photogrammetry and Remote Sensing, Vol.XXXI, Part B3, pp.198-205, 2000
※ AI-Helper는 부적절한 답변을 할 수 있습니다.