생태계 평가 연구는 대부분 토지피복 정보를 기반으로 하여 연구되며, 주로 전지구적인 범위로 이루어져 왔다. 그러나 이러한 결과들을 지역적 현안에 대한 의사결정 자료로 활용하기에는 범위와 스케일에 있어서 활용성이 떨어지는 측면이 있다. 지역적 스케일에 활용 가능한 토지피복 정보로는 환경부에서 제작된 토지피복도가 있지만 시각판독법(On Screen Digitizing Method)의 한계와 시기별, 지역별 차이로 인해 자료 활용에 제한이 있다. 본 연구는 객체기반 분류기법을 이용하여 UAV 영상의 중분류 토지피복도를 제작하는데 목적이 있다. 이를 위하여 고해상도 UAV 영상을 5m 공간해상도로 재배열한 후 영상분할을 수행한 결과 scale 20, merge 34가 최적의 가중치 값으로 나타났으며, RapidEye 영상 분할에서는 scale 30, merge 30이 중분류 수준에 적절한 가중치 값으로 나타났다. 토지피복도는 예제기반분류를 사용하여 제작하였고, 층화추출법을 사용하여 정확도 검증을 수행하였다. 그 결과, RapidEye 분류 영상은 90%, UAV 분류 영상은 91%로 양호한 토지피복분류 결과가 도출되었다.
생태계 평가 연구는 대부분 토지피복 정보를 기반으로 하여 연구되며, 주로 전지구적인 범위로 이루어져 왔다. 그러나 이러한 결과들을 지역적 현안에 대한 의사결정 자료로 활용하기에는 범위와 스케일에 있어서 활용성이 떨어지는 측면이 있다. 지역적 스케일에 활용 가능한 토지피복 정보로는 환경부에서 제작된 토지피복도가 있지만 시각판독법(On Screen Digitizing Method)의 한계와 시기별, 지역별 차이로 인해 자료 활용에 제한이 있다. 본 연구는 객체기반 분류기법을 이용하여 UAV 영상의 중분류 토지피복도를 제작하는데 목적이 있다. 이를 위하여 고해상도 UAV 영상을 5m 공간해상도로 재배열한 후 영상분할을 수행한 결과 scale 20, merge 34가 최적의 가중치 값으로 나타났으며, RapidEye 영상 분할에서는 scale 30, merge 30이 중분류 수준에 적절한 가중치 값으로 나타났다. 토지피복도는 예제기반분류를 사용하여 제작하였고, 층화추출법을 사용하여 정확도 검증을 수행하였다. 그 결과, RapidEye 분류 영상은 90%, UAV 분류 영상은 91%로 양호한 토지피복분류 결과가 도출되었다.
The study of ecosystem assessment(ES) is based on land cover information, and primarily it is performed at the global scale. However, these results as data for decision making have a limitation at the aspects of range and scale to solve the regional issue. Although the Ministry of Environment provid...
The study of ecosystem assessment(ES) is based on land cover information, and primarily it is performed at the global scale. However, these results as data for decision making have a limitation at the aspects of range and scale to solve the regional issue. Although the Ministry of Environment provides available land cover data at the regional scale, it is also restricted in use due to the intrinsic limitation of on screen digitizing method and temporal and spatial difference. This study of objective is to generate UAV land cover map. In order to classify the imagery, we have performed resampling at 5m resolution using UAV imagery. The results of object-based image segmentation showed that scale 20 and merge 34 were the optimum weight values for UAV imagery. In the case of RapidEye imagery;we found that the weight values;scale 30 and merge 30 were the most appropriate at the level of land cover classes for sub-category. We generated land cover imagery using example-based classification method and analyzed the accuracy using stratified random sampling. The results show that the overall accuracies of RapidEye and UAV classification imagery are each 90% and 91%.
The study of ecosystem assessment(ES) is based on land cover information, and primarily it is performed at the global scale. However, these results as data for decision making have a limitation at the aspects of range and scale to solve the regional issue. Although the Ministry of Environment provides available land cover data at the regional scale, it is also restricted in use due to the intrinsic limitation of on screen digitizing method and temporal and spatial difference. This study of objective is to generate UAV land cover map. In order to classify the imagery, we have performed resampling at 5m resolution using UAV imagery. The results of object-based image segmentation showed that scale 20 and merge 34 were the optimum weight values for UAV imagery. In the case of RapidEye imagery;we found that the weight values;scale 30 and merge 30 were the most appropriate at the level of land cover classes for sub-category. We generated land cover imagery using example-based classification method and analyzed the accuracy using stratified random sampling. The results show that the overall accuracies of RapidEye and UAV classification imagery are each 90% and 91%.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 연구는 객체기반 분류기법을 이용한 UAV 영상의 토지피복도 제작과 그 활용 가능성을 검증하는데 목적이 있다. 농촌 생태계의 특징을 보이는 충청남도 서천군을 연구 대상지로 선정하였으며, 서천지역 일부를 촬영한 고해상도 다중밴드 UAV 영상을 중분류에 적합하게 재배열한 후 객체기반 분류기법을 이용하여 토지피복분류를 수행하였다.
본 연구에서는 서천 지역을 대상으로 UAV 영상을 활용한 중분류 수준의 토지피복도 제작을 위해 Rapideye 위성영상과 함께 객체기반 분류를 실시하고 정확도 검증을 수행하여 UAV 영상의 활용 가능성을 알아보았다. 환경부 토지피복도는 생태계 유형 지도화나 토지피복의 기본 자료로 활용되고 있으나, 영상의 촬영 시기와 지도 제작 시기의 차이, 시각판독법의 한계 등으로 인해 지역 스케일 수준의 활용에 제한적이다.
제안 방법
좌표체계는 UTM(WGS 84 North Zone 52)이며, 위성영상은 대기의 영향에 따라 토지피복 분류 시오차의 가능성이 있으므로 영상의 전처리 작업을 수행하였다. Level 1B 영상은 DN(Digital Number)값을 가지며 이를 복사량으로 변환시키기 위하여 RapidEye AG 사에서 제공하는 메타데이터 중 채널별 복사변환 계수를 이용하여 대기 상단에서의 복사량을 산출하였다. 또한, 대기 상단의 반사도로부터 실제 지표면의 반사도를 추정하기 위해서는 위성에서 영상을 촬영한 시점의 분광 채널별로 가해진 대기 효과를 제거하는 대기보정이 필요하다.
, 2011; Fiella and Penueals, 1994). RapidEye AG사에서 위성의 자세 등 기본적인 시스템 보정만 수행한 영상인 Level 1B를 제공받아 RPC 자료와 1:25,000의 수치지형도를 이용하여 5m급으로 기하보정을 수행하였다. 촬영일시는 2014년 5월 26일이며, 기상조건은 구름이 없는 날씨였다.
설정된 여러 단계의 가중치 값은 수직적인 관계로 생성되며, 분류 항목들 간 명확히 분할되는 가중치를 찾기 위해 시행착오를 통하여 최적의 가중치를 선정하였다. Scale과 Merge는 총 3단계로 구분하였고, level 1에서는 100에서 10까지 10단위, level 2에서는 5단위, level 3에서는 1단위로 구분하여 두 영상에 각각 적용하였다. 연구지역의 토지피복은 크게 논, 밭, 산림, 도로의 경계로 구분되며 각 경계를 분할하는 가중치를 찾는 것에 초점을 맞추어 segmentation을 수행하였다.
이 영상은 Red Edge 분광대를 포함하여 RapidEye 분광구성과 유사한 밴드구성을 이루고 있다(Table 1). UAV 영상 촬영을 위하여 emotion 2 소프트웨어에서 비행계획을 수립하였다. 촬영일시는 2015년 5월 25일이며, 구름이 없는 날씨였다.
객체기반분류는 ENVI 소프트웨어의 Feature Extraction 모듈을 사용하였으며, UAV 재배열 영상과 RapidEye 반사도 영상으로 객체기반 영상분류 가중치를 선정하는 과정을 수행하였다. 객체기반 영상분류의 신뢰도는 Scale(영상분할)과 Merge(영상융합)의 적절한 조합에 의해 결정되며, 이는 객체기반 분류에 있어 가장 핵심적인 과정이다.
본 연구는 객체기반 분류기법을 이용한 UAV 영상의 토지피복도 제작과 그 활용 가능성을 검증하는데 목적이 있다. 농촌 생태계의 특징을 보이는 충청남도 서천군을 연구 대상지로 선정하였으며, 서천지역 일부를 촬영한 고해상도 다중밴드 UAV 영상을 중분류에 적합하게 재배열한 후 객체기반 분류기법을 이용하여 토지피복분류를 수행하였다. 정확도 검증 비교를 위해 RapidEye 위성영상도 객체기반 분류기법을 이용하여 토지피복분류를 수행하였고, 두 영상의 비교 · 분석을 통해 연구의 활용가능성과 그 한계를 분석하였다.
획득된 189개의 개별영상의 접합을 위하여 Terra 3D 소프트웨어를 사용하였으며, 영상의 기하보정을 위하여 영상 내 선정된 지상기준점에서 RTK GPS를 이용하여 측정된 값을 소프트웨어에 입력하였다. 다음으로 Point Cloud densification 과정을 거쳐 자동 생성되는 tie point를 이용하여 최종적으로 정사영상으로 변환하였다. 최종적으로 생성된 영상은 평균 제곱근 편차가 x방향 0.
우리나라 경지의 사용형태가 비닐하우스 조성, 농업지역의 용도변경, 도로 건설 등의 이유로 쉽게 변하고, 환경부 토지피복도는 시각판독법을 통해 분류된 자료이므로 일정 수준의 오류를 포함하고 있어 본 연구에서의 정확도 검증을 위한 적절한 참조자료라고 볼 수 없었다. 따라서 고해상도 UAV 원영상을 참조자료로 하여 사례연구지역에서 층화추출법(Stratified random sampling)으로 무작위로 추출된 200개의 기준점을 육안 판독하여 분류항목별 생산자 정확도와 사용자 정확도, 전체정확도를 계산하였다(Table 5, 6). 전체정확도는 RapidEye 분류영상은 90%(Kappa지수 0.
이러한 한계를 보완할 수 있는 UAV 영상을 활용하여 중분류 수준의 토지피복도 제작을 수행하기 위해 고해상도 UAV 영상을 공간해상도 5m로 재배열한 후, RapidEye 영상과 함께 각각 중분류 수준에 가장 근접한 범례를 보이도록 하는 영상들의 가중치를 선정하였다. 분할된 영상들은 감독분류를 적용하여 토지피복도로 제작하였다. 고해상도 UAV 원영상을 참조자료로 한 정확도 검증 결과, RapidEye 영상은 90%, UAV 영상은 91%로 토지피복 분류결과가 양호하다고 할 수 있었으며, 결과적으로 객체기반 분류기법을 이용한 UAV 영상의 토지피복도 제작이 가능하다는 것을 보여주었다.
본 연구에서는 영상분할 과정에서 토지피복 경계 구분에 대한 정확도를 향상시킬 수 있는 multiresolution segmentation 기법을 적용하여 가장 최적의 경계가 나타나도록 하였다. 설정된 여러 단계의 가중치 값은 수직적인 관계로 생성되며, 분류 항목들 간 명확히 분할되는 가중치를 찾기 위해 시행착오를 통하여 최적의 가중치를 선정하였다. Scale과 Merge는 총 3단계로 구분하였고, level 1에서는 100에서 10까지 10단위, level 2에서는 5단위, level 3에서는 1단위로 구분하여 두 영상에 각각 적용하였다.
Scale과 Merge는 총 3단계로 구분하였고, level 1에서는 100에서 10까지 10단위, level 2에서는 5단위, level 3에서는 1단위로 구분하여 두 영상에 각각 적용하였다. 연구지역의 토지피복은 크게 논, 밭, 산림, 도로의 경계로 구분되며 각 경계를 분할하는 가중치를 찾는 것에 초점을 맞추어 segmentation을 수행하였다. 우선 객체기반분류로 연구된 사례(Kim and Yeom, 2012; Na and Lee, 2014)가 있는 RapidEye 영상을 사용하여 Scale과 Merge를 조정하였다.
52cm 해상도의 영상을 획득했다. 영상 중복도는 종방향 65%, 횡방향 80%으로 설정하였으며, 비행 후 비행정보인 log파일과 영상파일의 매칭을 수행하였다. 획득된 189개의 개별영상의 접합을 위하여 Terra 3D 소프트웨어를 사용하였으며, 영상의 기하보정을 위하여 영상 내 선정된 지상기준점에서 RTK GPS를 이용하여 측정된 값을 소프트웨어에 입력하였다.
, 2005), UAV 영상은 스펙트럼 이외의 자료는 부족하기 때문에 QUAC 방법이 이용되었다. 영상들의 가시적인 판별을 위하여, 각 영상의 RGB 합성 영상을 나타내었다(Fig. 1). RapidEye 영상과 달리 MultiSPEC 4c 영상에는 blue 밴드가 없어 자연색 발현기법(Natural Color Algorithm)을 사용하여 RGB 영상을 나타내었다(Zhu et al.
환경부 토지피복도는 생태계 유형 지도화나 토지피복의 기본 자료로 활용되고 있으나, 영상의 촬영 시기와 지도 제작 시기의 차이, 시각판독법의 한계 등으로 인해 지역 스케일 수준의 활용에 제한적이다. 이러한 한계를 보완할 수 있는 UAV 영상을 활용하여 중분류 수준의 토지피복도 제작을 수행하기 위해 고해상도 UAV 영상을 공간해상도 5m로 재배열한 후, RapidEye 영상과 함께 각각 중분류 수준에 가장 근접한 범례를 보이도록 하는 영상들의 가중치를 선정하였다. 분할된 영상들은 감독분류를 적용하여 토지피복도로 제작하였다.
또한, 대기 상단의 반사도로부터 실제 지표면의 반사도를 추정하기 위해서는 위성에서 영상을 촬영한 시점의 분광 채널별로 가해진 대기 효과를 제거하는 대기보정이 필요하다. 이를 위하여 ENVI 소프트웨어의 FLAASH tool을 이용하였으며, 이 소프트웨어는 복사전달모델인 MODerate resolution atmospheric TRANsmission(MODTRAN)을 기반으로 만들어진 프로그램으로 복사량을 반사도로 변환시켜 준다. 입력된 파라미터는 Table 2에 나타냈으며, 그 결과 생성된 영상은 Fig.
정확도 검증 비교를 위해 RapidEye 위성영상도 객체기반 분류기법을 이용하여 토지피복분류를 수행하였고, 두 영상의 비교 · 분석을 통해 연구의 활용가능성과 그 한계를 분석하였다.
촬영일시는 2014년 5월 26일이며, 기상조건은 구름이 없는 날씨였다. 좌표체계는 UTM(WGS 84 North Zone 52)이며, 위성영상은 대기의 영향에 따라 토지피복 분류 시오차의 가능성이 있으므로 영상의 전처리 작업을 수행하였다. Level 1B 영상은 DN(Digital Number)값을 가지며 이를 복사량으로 변환시키기 위하여 RapidEye AG 사에서 제공하는 메타데이터 중 채널별 복사변환 계수를 이용하여 대기 상단에서의 복사량을 산출하였다.
최종적으로 분류된 두 토지피복도는 raster 형식으로 변환하여 분류정확도를 검증하였다. 분류정확도 검증을 위한 참조자료로 활용될 수 있는 환경부 중분류 토지피복도는 2010년 촬영된 항공정사영상을 사용하여 2013년 갱신된 것이 가장 최근 자료이기 때문에 두 영상의 촬영시점인 2014년, 2015년과는 차이가 나타날 수 있다.
토지피복의 분류 항목은 대분류와 중분류로 구분하였으며, 계층적인 토지피복도로 제작하였다(Table 3). 환경부 토지피복도는 토지이용의 정보도 포함하고 있기 때문에 영상자체의 자료만으로 분류하기 어려운 피복들은 그룹화를 수행하였다.
영상 중복도는 종방향 65%, 횡방향 80%으로 설정하였으며, 비행 후 비행정보인 log파일과 영상파일의 매칭을 수행하였다. 획득된 189개의 개별영상의 접합을 위하여 Terra 3D 소프트웨어를 사용하였으며, 영상의 기하보정을 위하여 영상 내 선정된 지상기준점에서 RTK GPS를 이용하여 측정된 값을 소프트웨어에 입력하였다. 다음으로 Point Cloud densification 과정을 거쳐 자동 생성되는 tie point를 이용하여 최종적으로 정사영상으로 변환하였다.
대상 데이터
촬영일시는 2015년 5월 25일이며, 구름이 없는 날씨였다. 대상지역의 범위는 0.25km2이며, 115.2m 고도에서 촬영하여 14.52cm 해상도의 영상을 획득했다. 영상 중복도는 종방향 65%, 횡방향 80%으로 설정하였으며, 비행 후 비행정보인 log파일과 영상파일의 매칭을 수행하였다.
연구에 사용된 UAV는 스위스 sensefly사의 eBee로, 기기에 탑재 가능한 MultiSPEC 4c 센서로 촬영한 영상을 이용하였다. 이 영상은 Red Edge 분광대를 포함하여 RapidEye 분광구성과 유사한 밴드구성을 이루고 있다(Table 1).
연구에 사용된 위성영상인 RapidEye는 독일에서 개발되어 2008년 8월 29일 성공적으로 발사되었으며, 2009년부터 상용화 서비스를 하고 있는 6.5m 급 다중 분광 광학위성이다. 인공위성으로는 처음으로 Red Edge 분광대를 장착하고 있으며, 이 분광영역은 식물의 클로로필 함량이나 질소공급 상태 등 스트레스 유형이나 정도에 따른 변화를 탐지할 수 있어 농업분야에서의 활용성이 기대되고 있다(Eitel et al.
연구지역은 국립생태원 소재지인 충청남도 서천군 마서면 송내리 부근이며 농경지, 산림, 도로, 시가화 지역 등 우리나라 농촌지역에서 일반적으로 나타나는 토지피복 유형들이 포함된 지역이다.
연구지역의 토지피복은 크게 논, 밭, 산림, 도로의 경계로 구분되며 각 경계를 분할하는 가중치를 찾는 것에 초점을 맞추어 segmentation을 수행하였다. 우선 객체기반분류로 연구된 사례(Kim and Yeom, 2012; Na and Lee, 2014)가 있는 RapidEye 영상을 사용하여 Scale과 Merge를 조정하였다. Level 1에서 Scale 30인 경우 Merge가 30에서 20으로 감소하여도 도로의 경계가 나타나지 않았지만, Scale 20인 경우 Merge가 40에서 30으로 감소할 때 도로의 경계가 나타는 것을 확인하여 Scale 20, Merge 30을 선택하였다.
UAV 영상 촬영을 위하여 emotion 2 소프트웨어에서 비행계획을 수립하였다. 촬영일시는 2015년 5월 25일이며, 구름이 없는 날씨였다. 대상지역의 범위는 0.
, 2012). 획득된 UAV 영상은 14.52cm의 해상도를 가지므로 중분류에 적합한 영상을 만들기 위하여 최근린(nearest neighbor) 기법을 사용한 재배열을 수행하여 공간해상도 5m 영상을 생성하였다(Fig. 1).
이론/모형
이러한 오차는 5m 재배열 영상 분류에 거의 영향을 주지 않을 것으로 판단된다. UAV 영상은 Fast Line-of-sight Atmospheric Analysis of Spectral Hypercubes(FLAASH) tool과 유사한 결과를 보여주는 QUick Atmospheric Correction(QUAC) tool을 이용하여 반사도로 변환하였다. QUAC는 보조자료 없이 획득된 영상 전체의 스펙트럼 정보만을 이용하여 대기보정을 수행하는 방법으로(Bernstein et al.
본 연구에서는 영상분할 과정에서 토지피복 경계 구분에 대한 정확도를 향상시킬 수 있는 multiresolution segmentation 기법을 적용하여 가장 최적의 경계가 나타나도록 하였다. 설정된 여러 단계의 가중치 값은 수직적인 관계로 생성되며, 분류 항목들 간 명확히 분할되는 가중치를 찾기 위해 시행착오를 통하여 최적의 가중치를 선정하였다.
Edge 기법은 물체의 외부와 내부간의 경계가 분명한 경우 이 둘의 차이를 이용한 분할 기법이며, Intensity 기법은 Digital Elevation Models(DEMs)이나 전자기장 같은 불분명한 경계인 경우에 적용하는 분할 기법이다(Jin, 2011). 연구지역의 경우는 경계가 비교적 분명한 농촌지역의 피복을 나타내고 있어 Edge 기법을 이용하여 영상분할을 수행하였다. Merge는 분할된 객체의 융합으로 생성되는 정도를 나타내며 값이 높아질수록 합성되어 나타나는 객체의 크기가 커진다.
성능/효과
이러한 차이는 고해상도의 UAV영상에서 재배열된 영상이 RapidEye 영상보다 피복 정보가 혼합된 지역을 보다 세밀하게 분류해 주는 것으로 해석할 수 있다. RapidEye 영상의 해상도로는 나타나지 않는 농로가 UAV 영상분류 결과에서는 나타났으며, 주거지역 및 각종 시설을 포함하는 지역과 농업지역 또는 산림지역이 혼재된 경우에는 서로 다른 피복으로 분류됨을 볼 수 있었다.
RapidEye 위성영상을 이용하여 분류된 대분류 토지 피복도는 농업지역(49%), 산림지역(32.7%), 시가지(15.5%), 나지(2.6%) 순으로 나타났다(Table 4). UAV 영상을 이용한 대분류 토지피복도는 농업지역(47.
6%) 순으로 나타났다(Table 4). UAV 영상을 이용한 대분류 토지피복도는 농업지역(47.8%), 산림지역(29.9%), 시가지(19.8%), 나지(2.3%) 순으로나타나, RapidEye 토지피복도와 유사한 경향을 보였다. 중분류 수준에서는 RapidEye 분류영상이 UAV 분류영상보다 농업지역과 산림지역은 더 큰 비율을 차지하는 반면 시가지는 낮은 비율로 나타났다.
분할된 영상들은 감독분류를 적용하여 토지피복도로 제작하였다. 고해상도 UAV 원영상을 참조자료로 한 정확도 검증 결과, RapidEye 영상은 90%, UAV 영상은 91%로 토지피복 분류결과가 양호하다고 할 수 있었으며, 결과적으로 객체기반 분류기법을 이용한 UAV 영상의 토지피복도 제작이 가능하다는 것을 보여주었다. 또한 분류영상에서 면적이 비교적 넓은 지역은 피복들 간의 경계가 대체로 잘 구분되나, 작은 면적의 피복들이 혼재되어 있는 경우에는 구분이 잘 되지 않는 특징을 보였다.
44). 논이나 침엽수림같이 비교적 넓은 면적을 차지하고 경계가 명확한 피복인 경우에는 영상간의 유사도가 크게 나타나는 반면, 면적이 좁은 피복들이 혼재된 경우에는 유사도가 다소 떨어지는 것으로 나타났다.
이는 공간해상도 5m인 두 영상으로는 농로나 도로의 경계, 주거지역과 농업지역 경계 구분의 오류 발생의 한계를 보여주었지만, 중분류 수준의 토지피복분류는 충분히 가능하다는 것을 보여준다. 두 분류영상의 교차분석을 수행한 결과, UAV 분류영상을 기준으로 했을 때 논 지역의 Kappa지수는 0.85이고 침엽수림은 0.72로 비교적 높은 값을 보였다(Table 7). 반면 주거지역과 혼재된 밭 지역은 낮은 Kappa지수를 보였다(Kappa지수 0.
고해상도 UAV 원영상을 참조자료로 한 정확도 검증 결과, RapidEye 영상은 90%, UAV 영상은 91%로 토지피복 분류결과가 양호하다고 할 수 있었으며, 결과적으로 객체기반 분류기법을 이용한 UAV 영상의 토지피복도 제작이 가능하다는 것을 보여주었다. 또한 분류영상에서 면적이 비교적 넓은 지역은 피복들 간의 경계가 대체로 잘 구분되나, 작은 면적의 피복들이 혼재되어 있는 경우에는 구분이 잘 되지 않는 특징을 보였다. 이러한 한계는 객체기반분류의 적절한 영상분할로 개선할 수 있으며, 분석가의 전문지식을 분류 과정에서 다양하게 구현할 수 있어 영상정보 활용의 최적화를 구현할 수 있을 것이다.
환경부 토지피복도는 토지이용의 정보도 포함하고 있기 때문에 영상자체의 자료만으로 분류하기 어려운 피복들은 그룹화를 수행하였다. 영상 분할이 수행된 두 영상은 UAV 원영상과 현장조사 자료를 참고하여 최근 린 기법을 사용한 예제기반(Example-based) 분류가 수행되었으며, 최종적으로 8개 토지피복 분류 영상이 생성되었다(Fig. 3).
반면 고해상도인 UAV 영상을 재배열한 영상은 다양한 공간 정보를 포함하는 픽셀들의 특징으로 인해 가로수와 도로가 구분되어 분할 조각이 생성되었다. 이러한 경향은 피복 간의 경계 부근에서 대부분 나타났으며, 이러한 특징을 통해 RapidEye 영상보다 UAV 재배열 영상을 활용한 영상분할이 좀 더 세밀한 분할을 가능하게 한다는 것을 알 수 있었다.
따라서 고해상도 UAV 원영상을 참조자료로 하여 사례연구지역에서 층화추출법(Stratified random sampling)으로 무작위로 추출된 200개의 기준점을 육안 판독하여 분류항목별 생산자 정확도와 사용자 정확도, 전체정확도를 계산하였다(Table 5, 6). 전체정확도는 RapidEye 분류영상은 90%(Kappa지수 0.87), UAV 분류영상은 91%(Kappa지수 0.89)로 토지피복 분류결과는 양호하다고 할 수 있으며, 대부분의 오류는 토지 피복 간 경계 부근의 혼합된 정보로 인해 발생하는 것을 볼 수 있었다. 이는 공간해상도 5m인 두 영상으로는 농로나 도로의 경계, 주거지역과 농업지역 경계 구분의 오류 발생의 한계를 보여주었지만, 중분류 수준의 토지피복분류는 충분히 가능하다는 것을 보여준다.
3%) 순으로나타나, RapidEye 토지피복도와 유사한 경향을 보였다. 중분류 수준에서는 RapidEye 분류영상이 UAV 분류영상보다 농업지역과 산림지역은 더 큰 비율을 차지하는 반면 시가지는 낮은 비율로 나타났다. 이러한 차이는 고해상도의 UAV영상에서 재배열된 영상이 RapidEye 영상보다 피복 정보가 혼합된 지역을 보다 세밀하게 분류해 주는 것으로 해석할 수 있다.
다음으로 Point Cloud densification 과정을 거쳐 자동 생성되는 tie point를 이용하여 최종적으로 정사영상으로 변환하였다. 최종적으로 생성된 영상은 평균 제곱근 편차가 x방향 0.3m, y방향 0.3m, z방향 0.29m로 나타났다. 이러한 오차는 5m 재배열 영상 분류에 거의 영향을 주지 않을 것으로 판단된다.
후속연구
이는 촬영영상의 융합을 통한 대규모 지역의 토지피복도 제작 기법의 개발을 통해 보완이 가능할 것이다. 따라서 UAV 영상을 활용한 객체기반 영상분류를 통해 일차적으로 신속한 토지피복 기초도를 제작하고, 이를 바탕으로 UAV 고해상도 영상을 통한 보완과 현장검증이 수행된다면 토지피복도 제작에 효율적이고 다양한 가능성을 제공할 수 있을 것으로 기대된다.
주로 재해나 농업, 산림분야에서 UAV를 활용한 환경감시 및 토지피복변화 연구 등이 도입되고 있는 추세이다. 따라서 생태계 평가 연구를 위한 생태계 유형도나 토지피복도의 자료제작에 UAV 영상을 활용한다면 자료획득의 용이성, 시기의 적절성, 경제성 등의 장점으로 인해 연구에 기여가 높을 것으로 기대된다.
더 나아가 기존에 적용한 가중치를 기반으로 분석 내용이나 목적에 맞게 세부 항목이나 변수들을 조정하여 다른 지역 또는 다른 영상에 응용할 수 있다. 또한, UAV 영상의 공간해상도 조정을 통하여 연구목적에 맞게 적절한 계층별 토지피복 분류 정보를 획득 할 수 있을 것이다.
분류정확도 검증을 위한 참조자료로 활용될 수 있는 환경부 중분류 토지피복도는 2010년 촬영된 항공정사영상을 사용하여 2013년 갱신된 것이 가장 최근 자료이기 때문에 두 영상의 촬영시점인 2014년, 2015년과는 차이가 나타날 수 있다. 우리나라 경지의 사용형태가 비닐하우스 조성, 농업지역의 용도변경, 도로 건설 등의 이유로 쉽게 변하고, 환경부 토지피복도는 시각판독법을 통해 분류된 자료이므로 일정 수준의 오류를 포함하고 있어 본 연구에서의 정확도 검증을 위한 적절한 참조자료라고 볼 수 없었다. 따라서 고해상도 UAV 원영상을 참조자료로 하여 사례연구지역에서 층화추출법(Stratified random sampling)으로 무작위로 추출된 200개의 기준점을 육안 판독하여 분류항목별 생산자 정확도와 사용자 정확도, 전체정확도를 계산하였다(Table 5, 6).
UAV는 자료획득의 용이성, 촬영시기의 적절성, 경제성 등의 장점으로 계절별, 시계열 자료의 생성이 가능하다는 장점이 있어 식생이나 생태계 유형 변화 연구에 유용한 자료가 될 수 있지만, 1회 촬영시간의 한계로 한 번에 넓은 지역의 영상을 획득하지 못한다는 제약이 있다. 이는 촬영영상의 융합을 통한 대규모 지역의 토지피복도 제작 기법의 개발을 통해 보완이 가능할 것이다. 따라서 UAV 영상을 활용한 객체기반 영상분류를 통해 일차적으로 신속한 토지피복 기초도를 제작하고, 이를 바탕으로 UAV 고해상도 영상을 통한 보완과 현장검증이 수행된다면 토지피복도 제작에 효율적이고 다양한 가능성을 제공할 수 있을 것으로 기대된다.
또한 분류영상에서 면적이 비교적 넓은 지역은 피복들 간의 경계가 대체로 잘 구분되나, 작은 면적의 피복들이 혼재되어 있는 경우에는 구분이 잘 되지 않는 특징을 보였다. 이러한 한계는 객체기반분류의 적절한 영상분할로 개선할 수 있으며, 분석가의 전문지식을 분류 과정에서 다양하게 구현할 수 있어 영상정보 활용의 최적화를 구현할 수 있을 것이다. 더 나아가 기존에 적용한 가중치를 기반으로 분석 내용이나 목적에 맞게 세부 항목이나 변수들을 조정하여 다른 지역 또는 다른 영상에 응용할 수 있다.
질의응답
핵심어
질문
논문에서 추출한 답변
지도제작에 사용되는 Landsat, SPOT 등의 위성영상의 문제점을 개선하기 위한 대안으로 어떤 연구가 진행되었는가?
더불어, 환경부의 토지피복도 제작에 사용되는 수작업 방식은 작업공정이 복잡하며, 제작비용이 높고 시간이 오래 걸린다는 문제점을 가지고 있다. 이러한 단점들을 개선하기 위한 대안으로써 시각판독법(On Screen Digitizing Method)을 대체할 수 있는 객체기반분류법을 이용한 중분류 토지피복도 제작에 대한 연구가 수행된 바 있으며, 고해상도 위성영상을 이용한 주제 정보 자동추출의 가능성을 보여주었다(Lee et al., 2010).
Unmanned Aerial Vehicle(UAV)의 장점은 무엇인가?
, 2011). 이에 비해 Unmanned Aerial Vehicle(UAV)은 촬영방법의 용이성으로 구름이 없는 영상 및 원하는 시기의 영상 획득에 유리하며, 공간해상도가 높아 정밀한 판별력이 요구되는 자료 분석을 통해 다양한 연구를 가능하게 해준다. 이와 관련된 국외 연구로는 UAV를 활용한 농업분야의 감시 연구(Herwitz et al.
객체기반 분류법의 장점은 무엇인가?
객체기반(Object-based)분류법은 화소단위의 분광정보만을 이용하는 화소기반(Pixel-based)분류법과는 달리 축척, 분광정보, 공간정보, 평활도와 조밀도 등을 종합적으로 고려한 영상의 분할을 통해 분류 정확도의 향상과 객체의 특성에 따른 매개변수 값의 설정을 적용한 토지피복정보의 자동 분류가 가능하며, 고해상도 영상을 이용할 경우 정밀도가 높은 토지피복도의 제작이 가능하다는 장점이 있다(Duro et al., 2012). 또한, 위성영상과 같은 래스터형식의 자료는 물론 벡터형식의 데이터도 함께 통합하여 분석할 수 있기 때문에 영상자료 이외의 다양한 지리정보데이터를 활용하여 분류정확도를 향상시킬 수 있다(Kim and Yeom, 2012).
참고문헌 (26)
Bernstein, L. S., Adler-Golden, S. M. and Sundberg, R. L., 2005, Validation of the QUick Atmospheric Correction (QUAC) algorithm for VNIR-SWIR multiand hyperspectral imagery, Proc. of SPIE, SPIE, Vol. 5806, pp. 668-678.
Burkhard, B., Kandziora, M., Hou, Y. and Muller, F., 2014, Ecosystem Service Potentials, Flows and Demands-Concepts for Spatial Localisation, Indication and Quantification, Landscape online, Vol. 34, pp. 1-32.
Costanza, R., d'Arge, R., de Groot, R., Farber, S., Grasso, M., Hannon, B., Limburg, K., Naeem, S., O'Neill, R. V., Paruelo, J., Raskin, R. G., Sutton, P. and van den Belt, M., 1997, The value of the world's ecosystem services and natural capital, Nature, Vol. 387, pp. 253-260.
Dieter H., Werner Z., Gunter S. and Peter S., 2005. Monitoring of gas pipelines - a civil UAV application, Aircraft Engineering and Aerospace Technology, Vol. 77, pp. 352-360.
Daily, G. C. and Matson, P. A., 2008, Ecosystem services: From theory to implementation, Proc. of the National Academy of Sciences of the USA, National Academy of Sciences, Vol. 105, No. 28, pp. 9455-9456.
Duro, D. C., Franklin, S. E. and Dube, M. G., 2012, A comparison of pixel-based and object-based image analysis with selected machine learning algorithms for the classification of agricultural landscapes using SPOT-5 HRG imagery, Remote Sensing of Environment, Vol. 118, pp. 259-272.
Egoh, B., Reyers, B., Rouget, M., Richardson, D. M., Le Matire, D. C. and can Jaarsveld, A. S., 2008, Mapping ecosystem services for planning and management, Agriculture, Ecosystems and Environment, Vol. 127, pp. 135-140.
Eitel, J. U. H., Vierling, L. A., Livak, M. E., Long, D. S., Schulthess, U., Ager, A., Krofcheck, D. J. and Stoscheck, L., 2011, Broadband, red-edge information from satellite improves early stress detection in a New Mexico conifer woodland, Remote Sensing of Environment, Vol. 115, pp. 640-3646.
Fiella, I. and Penueals, J., 1994, The red edge position and shape as indicators of plant chlorophyll content, biomass and hydric status, International Journal of Remote Sensing, Vol. 15, pp. 1459-1470.
Fuyi, T., Chun, B. B., Mat Jafri, M. Z., San, L. H., Abdullah, K. and Tahrin, M., 2012. Land cover/use mapping using multi-band imageries captured by Cropcam Unmanned Aerial Vehicle Autopilot(UAV) over Penang Island, Malaysia, Proc. of SPIE, SPIE, Vol. 8540, 85400S, pp.1-6.
Herwitz, S. R., John, L. F., Dunagan, S. E., Higgins, R. G., Sullivan, D. V., Zheng, J., Lobitz, B. M., Leung, J. G., Gallmeyer, B. A., Aoyagi, M., Slye, R. E. and Brass, J. A., 2004. Imaging from an unmanned aerial vehicle: agricultural surveillance and decision support, Computers and Electronics in Agriculture, Vol. 44, pp. 49-61.
Hassan, F. M., Lim, H. S. and Mat Jafri, M. Z., 2011, CropCam UAV for Land Use/Land Cover mapping over Penang Island, Malaysia, Pertanika Journal of Science & Technology, Vol. 19, No. S, pp. 69-76.
Jin, X., 2012, Segmentation-based image processing system. U.S. Patent 8,260,048, filed Nov. 14, 2007, and issued Sept. 4, 2012.
Jung, K. S., Kim, Y. S. and Oh, S. R., 2015, Technical Development of Flood Damage Estimation using UAV, Magazine of Korea water resources association, Vol. 48, No. 1, pp. 51-59.
Kim, H. O. and Yeom, J. M., 2012, A study on object-based image analysis methods for land cover classification in agricultural areas, Journal of the Korean Association of Geographic Information Studies, Vol. 15, No. 4, pp. 26-41.
Kim, S. M., 2014, Study of the UAV for Application Plans and Landscape Analysis, Korea Institute of Traditional Landscape Architecture, Journal of the Korean Institute of Traditional Landscape Architecture, Vol. 32, No. 3, pp. 213-220.
Lee, H. J., Ru, J. H. and Yu, Y. G., 2010, Extracting High Quality Thematic Information by Using High-Resolution Satellite Imagery, Journal of The Korean Society for GeoSpatial Information System, Vol. 18, No. 1, pp. 73-81.
Nelson, E., Mendoza, G., Regetz, J., Polasky, S., Tallis, H., Cameron, D. r., Chan, K. M. A., Daily, G. C., Goldstein, J., Kareiva, P. M., Lonsdorf, E., Naidoo, R., Ricketts, T. H. and Shaw, M. R., 2009, Modeling multiple ecosystem services, biodiversity conservation, commodity production, and tradeoffs at landscape scales, Frontiers in Ecology and the Environment, Vol. 7, No. 1, pp. 4-11.
Na, H. S. and Lee, J. S., 2014, Analysis of Land Cover Characteristics with Object-Based Classification Method - Focusing on the DMZ in Inje-gun, Gangwon-do -, Journal of the Korean Association of Geographic Information Studies, Vol. 17, No. 2, pp. 121-135.
Na, S. I., Baek, S. C., Hong, S. Y., Lee, K. D. and Jang, K. C., 2015, A Study on the Application of UAV for the Onion and Garlic Growth Monitoring, Proc. of The Korean Society of Soil Science and Fertilizer, Korean Society of Soil Sciences and Fertilizer, p. 225.
Park, J. J., Ku, J. Y. and Kim, B. S., 2007, Improvement of the Level-2 Land Cover Map with Satellite Image, The Journal of GIS Association of Korea, Vol. 15, No. 1, pp. 67-80.
Redding, N. J., Crisp, D. J., Tang, D. and Newsam, G. N., 1999. An efficient algorithm for Mumfordsegmentation and its application to SAR imagery, in 'Digital Image Computing : Techniques & Applications (DICTA '99), pp. 35-41.
Shin, J. S., Lee T. H., Jung P. M., Kwon, H. S. and Andy S. Choi, 2015, A Study on UAV Application for Mapping and Assessment of Ecosystem Services, Proc. of The Korean Society of GeoSpatial Information System, Korean Society for Geospatial Information System, pp. 163-164.
Tallis, H. and Polasky, S., 2009, Mapping and Valuing Ecosystem Services as an Approach for Conservation and Natural-Resource Management, Annals of the New York Academy of Sciences, Vol. 1162, pp. 265-283.
Willemen, L., Verburg, P. H., Hein, L. and can Mensvoort, M. E. F., 2008, Spatial characterization of landscape functions, Landscape and Urban Planning, Vol. 88, pp. 34-43.
Zhu, C., Luo, J., Ming, D., Shen, Z. and Li. J., 2012. Method for generating SPOT natural-colour composite images based on spectrum machine learning, International Journal of Remote Sensing, Vol. 33, No. 4, pp. 1309-1324.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.