본 연구는 스마트 카메라를 탑재한 무인항공기를 통해 얻은 영상을 이용하여 카메라 검정 유무에 따른 정사영상의 정확도를 분석하였다. 사진측량용 무인항공 시스템이 개발되었고, 스마트 카메라영상은 image triangulation을 거쳐, 정사영상으로 생성되었다. Image triangulation은 카메라 검정에서 결정된 Interior Orientation (IO) 파라미터의 고려 유무에 따라 수행되었다. 카메라 검정 결과, RMS error가 0.57 pixel로 나타났고, 이것은 비측량용 카메라를 이용한 기존의 연구와 비교했을 때, 우수한 정확도이다. Field experiment에서 IO 파라미터를 고려한 경우, triangulation 결과는 0.1 pixel (RMSE) 이내로 나타났고, 이것은 IO 파라미터를 고려하지 않은 경우에 비해 최소 2배 이상 향상된 결과였다. 정사영상을 제작한 결과, 카메라 검정 자료를 고려한 결과는 고려하지 않은 결과에 비해 정확도가 89 % 향상되었다. UAV 시스템을 위한 탑재체로써 스마트 카메라의 활용 가능성이 높으며, 직접 또는 간접적인 기능을 충분히 담당할 수 있을 것으로 기대된다.
본 연구는 스마트 카메라를 탑재한 무인항공기를 통해 얻은 영상을 이용하여 카메라 검정 유무에 따른 정사영상의 정확도를 분석하였다. 사진측량용 무인항공 시스템이 개발되었고, 스마트 카메라영상은 image triangulation을 거쳐, 정사영상으로 생성되었다. Image triangulation은 카메라 검정에서 결정된 Interior Orientation (IO) 파라미터의 고려 유무에 따라 수행되었다. 카메라 검정 결과, RMS error가 0.57 pixel로 나타났고, 이것은 비측량용 카메라를 이용한 기존의 연구와 비교했을 때, 우수한 정확도이다. Field experiment에서 IO 파라미터를 고려한 경우, triangulation 결과는 0.1 pixel (RMSE) 이내로 나타났고, 이것은 IO 파라미터를 고려하지 않은 경우에 비해 최소 2배 이상 향상된 결과였다. 정사영상을 제작한 결과, 카메라 검정 자료를 고려한 결과는 고려하지 않은 결과에 비해 정확도가 89 % 향상되었다. UAV 시스템을 위한 탑재체로써 스마트 카메라의 활용 가능성이 높으며, 직접 또는 간접적인 기능을 충분히 담당할 수 있을 것으로 기대된다.
This study analyzes the accuracy of ortho imagery based on whether camera calibration performed or not, using an unmanned aerial vehicle which equipped smart camera. Photgrammetric UAV system application was developed and smart camera performed image triangulation, and then created image as ortho im...
This study analyzes the accuracy of ortho imagery based on whether camera calibration performed or not, using an unmanned aerial vehicle which equipped smart camera. Photgrammetric UAV system application was developed and smart camera performed image triangulation, and then created image as ortho imagery. Image triangulation was performed depending on whether interior orientation (IO) parameters were considered or not, which determined at the camera calibration phase. As a result of the camera calibration, RMS error appeared 0.57 pixel, which is more accurate compared to the result of the previous study using non-metric camera. When IO parameters were considered in static experiment, the triangulation resulted in 2 pixel or less (RMSE), which is at least 200 % higher than when IO parameters were not considered. After generate ortho imagery, the accuracy is 89% higher when camera calibration are considered than when they are not considered. Therefore, smart camera has high potential to use as a payload for UAV system and is expected to be equipped on the current UAV system to function directly or indirectly.
This study analyzes the accuracy of ortho imagery based on whether camera calibration performed or not, using an unmanned aerial vehicle which equipped smart camera. Photgrammetric UAV system application was developed and smart camera performed image triangulation, and then created image as ortho imagery. Image triangulation was performed depending on whether interior orientation (IO) parameters were considered or not, which determined at the camera calibration phase. As a result of the camera calibration, RMS error appeared 0.57 pixel, which is more accurate compared to the result of the previous study using non-metric camera. When IO parameters were considered in static experiment, the triangulation resulted in 2 pixel or less (RMSE), which is at least 200 % higher than when IO parameters were not considered. After generate ortho imagery, the accuracy is 89% higher when camera calibration are considered than when they are not considered. Therefore, smart camera has high potential to use as a payload for UAV system and is expected to be equipped on the current UAV system to function directly or indirectly.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
Jung et al.(2010)은 변화가 빈번하게 일어나는 도시 지역 내 소규모 지역의 항공사진을 고가의 항공측량 시스템 대신 경비가 적게 드는 UAV를 이용하여 3차원 지형공간정보를 취득할 수 있는 기법 및 공정을 개발하고자 하였다. 이와 같이 국내에서 UAV를 이용한 사진측량이 활발히 진행되고 있으나, 비 측량용 카메라를 사용할 경우 카메라 자체의 calibration 기능을 사용하여 별도의 카메라 calibration을 수행하지 않은 연구들로 국한되어 있다.
028 m로 허용조건을 만족하였다. calibration을 수행하지 않고 manufacture IO를 사용한 경우 calibration quality와 georeferencing을 기준을 만족하지 못하였으나 본 연구에서는 calibration 유무에 따른 정사영상 평가를 위한 비교연구를 위해 DSM 및 정사영상을 제작하였다.
이상과 같이, 스마트폰을 이용할 경우 기존 사진측량용 UAV 시스템에 비해 매우 적은 비용으로 시스템이 구축될 수 있지만, 지금까지 사진측량용 UAV 시스템에 스마트폰 카메라 기술을 활용한 연구는 이루어진 바 없다. 따라서 본 연구에서는 사진측량용 UAV 시스템의 탑재체(payload)로써 비 측량용 카메라인 스마트 카메라의 대한 카메라 검정을 수행해 검정 유무에 따른 정사영상을 생성하여 이를 수치적으로 비교해봄으로써, 정확도 및 활용성 가능성을 평가하였다.
본 연구에서는 비 측량용 스마트카메라를 탑재한 UAV를 이용하여 수치표고모형 및 정사영상을 제작하고, 카메라 검정 유무에 따라 정사영상의 정확도를 분석하여 탑재체로서의 스마트 카메라의 활용가능성을 평가하였다.
제안 방법
coded target을 통해 얻은 사진을 photo modeler를 이용하여 카메라 검정을 수행하였고, 카메라 내부표정요소를 획득하여 본 연구에 활용하였다. 카메라 검정 결과, RMS error가 0.
이러한 진동의 경우 사진측량에 있어 영상의 Jello effect를 유발한다. 따라서 본 연구에서는 Motor 회전으로 전달되는 진동을 줄이기 위해 직접 제작된 방진 장치 설치하였다. 또한, 전기엔진 회전익 UAV는 가솔린 엔진 UAV에 비해 엔진에서 발생되는 고주파수 진동을 적게 만들지만, 발생된 아주 작은 고주파 진동이라 할지라도 UAV에 탑재된 센서에 치명적이고 모터회전에 의한 자기장에 의한 자기센서에 영향을 미친다.
특히, 스마트카메라와 같이 비측량용 카메라 렌즈는 저가형 렌즈가 주로 사용되고 있고, 이는 측량용 카메라에 비해 렌즈 왜곡이 크다. 따라서, 스마트 카메라에 의해 획득된 영상의 처리에 앞서 렌즈 왜곡을 보정하기 위한 카메라 검정이 이루어졌다.
본 연구에서 다른 통신장치 없이도 LTE 통신 환경에서 언제나 통신이 가능하고, 내장된 센서들에 의해 UAV의 위치와 자세 자료의 획득이 가능한 스마트디바이스의 장점을 활용한 스마트카메라 기반의 사진측량용 UAV 시스템이 개발되었다.
이러한 방법과 모델은 Clarke and Fryer(1998)에 의해 고찰된 바 있다. 본 연구에서는 camera calibration 및 IOP 산정을 위해 Photo modeler를 이용하여 ringed automatically detected coded targets이 출력된 여러 장의 sheets를 사용하는 multi target sheet calibration을 수행하였다. RAD target은 카메라의 초점거리, CCD 사이즈 및 해상도를 고려하여 내부 지름이 결정되며, 본 연구에서는 RAD target의 지름이 12.
하지만 정확한 고도 값 검증을 위해서는 지상 라이다 측량을 통한 비교연구가 필요할 것으로 판단된다. 생성된 수치표고모델(DEM)을 바탕으로 하여 정사영상을 생성하였으며, 카메라 검정에 따른 내부표정요소 유무에 따라 생성된 정사영상은 Fig. 6과 같다.
20 m으로 카메라 IOP를 적용한 영상은 항공사진 측량 작업 규정을 만족 할 수 있는 것으로 판단된다. 생성된 정사 영상 이미지를 바탕으로 본 연구에서는 연구 지역에 대해 signal target으로 선정한 8개의 지상기준점에 대하여 정사영과의 위치오차를 분석하였고, 그 결과는 Table 5, Table 6과 같이 산정되었다.
스마트 카메라에서 획득된 영상을 image triangulation을 거쳐 automatic terrain extraction에 의해 생성된 영상 기반의 DEM을 생성하였다. 비행 중 촬영된 총 186장의 사진 중 41장의 사진을 사용하였으며, 내부표정요소(IOP) 값의 적용 유무에 따라 2가지 형태의 DEM을 생성하였다(Fig.
일반적인 항공사진 촬영은 고도가 높기 때문에 구름의 양, 연무 등을 고려해야하지만 UAV 사진촬영은 고도가 낮기 때문에 사진촬영으로 발생하는 오류가 비교적으로 미미하다. 연구지역에 대해 촬영된 영상의 품질 검사를 위해 image, dataset, camera calibration, matching, georeferencing 항목을 기준으로 품질검사를 수행하며, 각각의 안정성을 평가하여 기준(Cho, 2012)을 만족한 경우 추가 작업을 진행하게 된다.
UAV를 이용한 사진 측량은 2015년 8월 20일 수행되었다. 촬영 고도는 140 m, 비행 속도는 5 m/s, 횡중복도 80%, 종중복 60 %, 촬영은 총 1회 실시하였으며, 촬영간격은 5~6 sec, 촬영 사진 매수는 총 186장, 비행시간은 약 30분간 소요되었다. 촬영당시 기상은 운량이 10~20%이며 가시거리가 15~18 km로 촬영에 양호한 날씨이나 남서풍이 3~4 m/sec로 다소 높았다.
광속조정은 추출된 검정 계수의 정밀도와 신뢰도 평가와 함께 모든 시스템 계수의 동시 결정을 가능하게 한다. 카메라 검정을 위해서 photo modeler를 사용하여 내부표정요소를 산정하였다(Table 3). self-calibration을 위한 bundle adjustment 결과, 대상 좌표(object coordinate)의 RMS error는 대상 평면에서 X, Y, Z 방향으로 모두 0.
대상 데이터
본 연구에서는 camera calibration 및 IOP 산정을 위해 Photo modeler를 이용하여 ringed automatically detected coded targets이 출력된 여러 장의 sheets를 사용하는 multi target sheet calibration을 수행하였다. RAD target은 카메라의 초점거리, CCD 사이즈 및 해상도를 고려하여 내부 지름이 결정되며, 본 연구에서는 RAD target의 지름이 12.6 mm가 되는 multi sheet 16장을 Fig. 2와 같이 밑 변과 높이의 길이가 1.8 m가 되도록 배치하여 총 8방향에서 수평과 수직으로 각각 2번씩 총16장의 영상을 취득하였다.
8 kg이다. UAV 탑재카메라의 경우 안드로이드 기반 스마트 카메라인 Galaxy NX를 사용하였다. NX 카메라에는 위치 및 자세정보를 획득할 수 있는 MEMS 센서인 A-GPS, accelemter, gyro 센서가 탑재되어 있으며, 이를 송수신하며 사진촬영 수행이 가능하다(Table 1).
UAV를 이용한 사진 측량은 2015년 8월 20일 수행되었다. 촬영 고도는 140 m, 비행 속도는 5 m/s, 횡중복도 80%, 종중복 60 %, 촬영은 총 1회 실시하였으며, 촬영간격은 5~6 sec, 촬영 사진 매수는 총 186장, 비행시간은 약 30분간 소요되었다.
스마트 카메라에서 획득된 영상을 image triangulation을 거쳐 automatic terrain extraction에 의해 생성된 영상 기반의 DEM을 생성하였다. 비행 중 촬영된 총 186장의 사진 중 41장의 사진을 사용하였으며, 내부표정요소(IOP) 값의 적용 유무에 따라 2가지 형태의 DEM을 생성하였다(Fig. 5). 카메라 IOP가 적용되지 않은 DEM에서는 고도의 범위가 -19.
비행코스는 ‘mission planner’ 소프트웨어를 사용하여 촬영지역을 선정하였고 약 0.06 km2 면적을 촬영하였으며, 비행경로는 Fig. 4(b)와 같다.
사진측량용 UAV 시스템 평가를 위한 현장 적용을 위한 대상지역은 부산광역시 기장군에 소재한 약 40,000 m2 지역을 대상으로 수행되었다(Fig. 4). 이 지역은 다양한 형태의 토지피복과 지형기복을 포함하기 때문에, 본 연구에서 제안된 UAV 시스템의 활용성 평가에 적합하다.
실제 비행에 앞서, 정사영상 평가를 위한 지상기준점(Ground Control Point, GCP)의 측량이 선행되었고, 획득된 UAV 영상에서 특징점 추출과 시스템의 정확도 평가를 위해 자체 제작된 항공 타겟이 사용되었다. 이때 13개의 GCP는 네트워크 RTK GPS 측량을 통해 결정되었다(Fig 4(a)).
이론/모형
본 연구에서 제작한 정사영상의 정확도를 평가하기 위해 항공사진 측량 작업 규정(국토지리정보원 고시 제 2013-2236호)을 기준을 적용하였다. 정사영상의 Root Mean Square (RMS) 값을 산출한 결과, 카메라 IOP를 적용하지 않을 경우, RMS 값이 1.
성능/효과
8개의 지상기준점에 대하여 각각의 정사영상간의 픽셀간의 거리를 측정한 결과 IO 파라미터를 적용하지 않은 경우 영상상의 점과 지상기준점의 차이는 X, Y, Z 방향별로 각각 0.31 m, 0.11 m, 1.24 m로 나타났고, IOP를 적용한 경우, 차이는 X, Y, Z 방향별로 각각 -0.002 m 0.014 m, 0.026 m로 나타났다.
7은 카메라 캘리브레이션 유무에 따른 정사영상 생성된 결과물을 8개의 지상기준점 별로 이미지를 비교하였다. IOP가 적용되지 않은 영상의 경우 6번 GCP 에서는 정사영상 만드는 과정에서 영상이 제대로 중첩되지 않아 이미지가 정확하게 겹쳐지지 않았으며, GCP 또한 signal target에서 벗어나 있는 것을 확인할 수 있다. 7번 GCP는 signal target 안에 GCP가 근접해 있기는 하나 벗어나 있으며 8, 9, 10번에서는 Signal Target 내에 GCP가 나타났으나 Target의 중심에 정확하게 위치하고 있지 않다.
UAV 품질평가 결과는 Table 4와 같다. Image는 각각의 keypoint가 40776개 생성되어 허용 기준인 10000개를 만족하였고, dataset는 각각의 image calibrated가 100%로 허용기준인 95%를 만족하였다. camera calibration quality 는 초기와 최종 내부표정요소의 차이가 각각 Calibration을 수행한 경우 2.
카메라 검정을 위해서 photo modeler를 사용하여 내부표정요소를 산정하였다(Table 3). self-calibration을 위한 bundle adjustment 결과, 대상 좌표(object coordinate)의 RMS error는 대상 평면에서 X, Y, Z 방향으로 모두 0.6 pixel 이내로 나타났다. unbalance 방식을 이용하는 photo modeler의 경우 영상 축의 비직교성에 대한 왜곡은 그 양이 매우 미소하므로 일반적으로 고려하지 않으며 symmetric radial distortion coefficients 중 K2 이후의 항은 그 양이 크지 않기 때문에 왜곡 보정에 고려되지 않는 경향이 있다(Fraser, 1997).
개발된 UAV는 double motor octacopter type이며, pixhawk autopilot, 3DR U-blox GPS with compass을 가지고 있어 지상관제 및 자동비행이 가능하다. UAV의 총 중량은 2.
본 연구에서 획득한 DEM 자료를 통해서 카메라 IOP가 적용되지 않은 DEM에서 고도의 최소값이 음의 값으로 부정확하게 나타났다. 하지만 정확한 고도 값 검증을 위해서는 지상 라이다 측량을 통한 비교연구가 필요할 것으로 판단된다.
022 m로 상대적으로 낮게 나타났다. 본 연구에서는 약 150 m의 고도에서 촬영하여 5 cm 지상해상도를 가지는 정사영상이 생성되었으므로, 위의 정확도 허용기준에 따라 1:7000 축척으로 제작한 작업규정의 RMS 기준은 0.20 m으로 카메라 IOP를 적용한 영상은 항공사진 측량 작업 규정을 만족 할 수 있는 것으로 판단된다. 생성된 정사 영상 이미지를 바탕으로 본 연구에서는 연구 지역에 대해 signal target으로 선정한 8개의 지상기준점에 대하여 정사영과의 위치오차를 분석하였고, 그 결과는 Table 5, Table 6과 같이 산정되었다.
생성된 정사영상의 정확도를 평가하기 위해 8개의 지상기준점과의 차이를 분석한 결과 내부표정요소를 고려한 경우 평균 RMS는 0.022 m를 나타낸 반면, 내부 표정요소를 고려하지 않은 경우 평균 RMS는 약 1.971 m로 매우 큰 오차를 보였다. 내부표정요소 고려 유무에 따라 RMS 값이 89배 낮아진 것을 확인할 수 있었으며, 이를 통해 비 측량용 카메라를 탑재한 UAV를 활용하는 경우, 카메라 캘리브레이션 계수 값을 적용할 시 높은 정확도의 정사영상을 획득하여 실질적으로 다양한 연구에서 이용이 가능하리라 판단된다.
영상상의 RMS의 경우 IOP를 적용하지 않은 경우 X 는 0.560 m, Y는 0.407 m 그리고 Z는 5.215 m를 보였고, IOP를 적용한 경우 X는 0.012 m, Y는 0.019 m 그리고 Z는 0.049 m로 나타났다. 이는 카메라 검정에 따른 IOP 를 고려한 경우의 RMS는 그렇지 않은 경우에 비해 수 평오차는 약 2배, 수직오차는 약 10배 양호한 결과를 나타낸다.
4). 이 지역은 다양한 형태의 토지피복과 지형기복을 포함하기 때문에, 본 연구에서 제안된 UAV 시스템의 활용성 평가에 적합하다.
본 연구에서 제작한 정사영상의 정확도를 평가하기 위해 항공사진 측량 작업 규정(국토지리정보원 고시 제 2013-2236호)을 기준을 적용하였다. 정사영상의 Root Mean Square (RMS) 값을 산출한 결과, 카메라 IOP를 적용하지 않을 경우, RMS 값이 1.971 m로 나타났으며, 카메라 IOP를 적용하였을 경우, RMS 값이 0.022 m로 상대적으로 낮게 나타났다. 본 연구에서는 약 150 m의 고도에서 촬영하여 5 cm 지상해상도를 가지는 정사영상이 생성되었으므로, 위의 정확도 허용기준에 따라 1:7000 축척으로 제작한 작업규정의 RMS 기준은 0.
5). 카메라 IOP가 적용되지 않은 DEM에서는 고도의 범위가 -19.7211 ~ 24.0428 m로 나타나는 반면, IOP가 적용된 영상에서는 고도의 범위가가 1.0561 ~ 31.1256 m로 최소값에서 큰 차이를 보였다.
coded target을 통해 얻은 사진을 photo modeler를 이용하여 카메라 검정을 수행하였고, 카메라 내부표정요소를 획득하여 본 연구에 활용하였다. 카메라 검정 결과, RMS error가 0.57 pixel로 나타났고, 이것은 비측량용 카메라를 이용한 기존의 연구와 비교했을 때, 우수한 정확도이다.
1 pixel (RMSE) 이내로 나타났고, 이것은 IO 파라미터를 고려하지 않은 경우에 비해 최소 2배 이상 향상된 결과였다. 획득된 영상을 이용하여 내부표정요소 유무에 따른 연구지역의 정사영상과 DEM 을 생성하였으며, 내부표정요소가 적용 되지 않은 DEM의 경우 최소값이 다소 부정확하게 나타났다.
후속연구
971 m로 매우 큰 오차를 보였다. 내부표정요소 고려 유무에 따라 RMS 값이 89배 낮아진 것을 확인할 수 있었으며, 이를 통해 비 측량용 카메라를 탑재한 UAV를 활용하는 경우, 카메라 캘리브레이션 계수 값을 적용할 시 높은 정확도의 정사영상을 획득하여 실질적으로 다양한 연구에서 이용이 가능하리라 판단된다.
이상의 결과가 스마트 카메라 1대에 의해 나타난 결과라는 점을 감안할 때, UAV 시스템을 위한 탑재체로써 스마트 디바이스의 활용 가능성이 충분히 있을 뿐만 아니라, 기존 UAV 시스템에 탑재되어 직접 또는 간접적인 기능을 충분히 담당할 수 있을 것으로 기대된다.
본 연구에서 획득한 DEM 자료를 통해서 카메라 IOP가 적용되지 않은 DEM에서 고도의 최소값이 음의 값으로 부정확하게 나타났다. 하지만 정확한 고도 값 검증을 위해서는 지상 라이다 측량을 통한 비교연구가 필요할 것으로 판단된다. 생성된 수치표고모델(DEM)을 바탕으로 하여 정사영상을 생성하였으며, 카메라 검정에 따른 내부표정요소 유무에 따라 생성된 정사영상은 Fig.
질의응답
핵심어
질문
논문에서 추출한 답변
회전익 UAV에서 발생하는 진동의 경우 사진측량에 있어 무엇을 유발하는가?
회전익 UAV는 고정익 UAV보다 진동이 많이 발생한다. 이러한 진동의 경우 사진측량에 있어 영상의 Jello effect를 유발한다. 따라서 본 연구에서는 Motor 회전으로 전달되는 진동을 줄이기 위해 직접 제작된 방진 장치 설치하였다.
카메라 렌즈의 검정 방법에는 어떤 것들이 있는가?
카메라 렌즈의 검정 방법에는 DLT 기법, Tasi 기법, 그리고 전통적 사진측량의 해법에 포함된 해석적 자체 검정(self-calibration) 기법이 있다. 일반적으로 사진측량학에 사용되고 공식화된 기하학적 카메라 모델은 다양하지만, 센서 표정과 검정은 주로 광속조정(bundle adjustment)에 의해 수행된다(Brown, 1971).
카메라 검정이란 무엇인가?
사진측량에서 정확하고 신뢰할 수 있는 3차원 위치정보를 추출하기 위해서는 카메라의 정확한 내부표정 요소(Interior Orientation Parameters, IOP)가 필요하며, 이러한 요소를 결정하는 과정을 카메라 검정(camera calibration)이라 한다. 특히, 스마트카메라와 같이 비측량용 카메라 렌즈는 저가형 렌즈가 주로 사용되고 있고, 이는 측량용 카메라에 비해 렌즈 왜곡이 크다.
참고문헌 (14)
Brown, D.C., 1971. Close-range camera calibration, Photogrammetric Engineering, 37(8): 855-866.
Clarke, T.A., and J.G. Fryer, 1998. The development of camera calibration methods and models. The photogrammetric Record, 16: 51-66.
Chiabrando, F., F. Nex, D. Piatti, and F. Rinaudo, 2011. UAV and PRV systems for photogrammetric surveys in archaelogical areas: two tests in the Piedmont region (Italy), Journal of Archaeological Science, 38: 697-710.
Cho, J.H., 2014. Accuracy and Economic Feasibility Study of Orthoimage Map Production using UAV, Master's Thesis., University of Seoul, Seoul, South Korea
Cho, J.H., J.M. Kim, Y.S. Choi, and I.H. Jeong, 2014. Accuracy Study of Orthoimage Map Production using UAV. Proc. of 2014 Korean Society of Civil Engineers Annual Conference, pp. 1739-1740 (in Korean with English abstract).
Dalamagkidis K., K.P. Valavanis, and L.A. Piegl, 2008. On unmanned aircraft systems issues, challenges and operational restrictions preventing integration into the National Airspace System, Progress Aerospace Sciences, 44: 503-519.
Eisenbeiss, H., and L. Zhang, 2006. Comparison of DSMs generated from mini UAV imagery and terrestrial laser scanner in a cultural heritage application. International Archives of photogrammetry Remote Sensing and Spatial Information Sciences, 36(5): 90-96.
Everaerts, J., N. Lewyckyj, and D. Fransaer, 2004. Pegasus: Design of a Stratospheric Long Endurance Uav System for Remote Sensing, Proc. of International Archives of photogrammetry, Remote Sensing and Spatial Information Sciences, Istanbul, Turkey, XXXV, Part B2, pp. 29-33.
Fraser, C.S., 1997. Digital camera self-calibration. ISPRS Journal of photogrammetry and Remote Sensing, 52(4): 149-159.
Jung, S.H., H.M. Lim, and J.G. Lee, 2010. Acquisition of 3D Spatial Information using UAV photogrammetric Method, Journal of the Korean Society of Surveying, Geodesy, photogrammetry and Cartography, 28(1):161-167 (in Korean with English abstract).
Kim, S.K., Y.D. Sung, and K.W. Kim, 2014. A study on methods of utilizing unmanned aerial vehicle(UVA) in the area of spaial information, Korean Association of Cadastre Information, 28(1): 169-178 (in Korean with English abstract).
Wolf, P.R., and B.A. Dewitt, 2000. Elements of photogrammetry with Applications in GIS. McGraw-Hill, Boston, Massachusetts.
Yoon, B.Y. and J.W. Lee, 2014. A Study on Application of the UAV in Korea for Integrated Operation with Spatial Information, Journal of Korean Society for Geospatial Information System, 22(2): 3-9 (in Korean with English abstract).
※ AI-Helper는 부적절한 답변을 할 수 있습니다.