인공신경망 기반 드론 광학영상 및 LiDAR 자료를 활용한 임분단위 식생층위구조 추정 Estimating the Stand Level Vegetation Structure Map Using Drone Optical Imageries and LiDAR Data based on an Artificial Neural Networks (ANNs)원문보기
지속가능한 산림 발전을 위해 식생층위구조를 파악하는 것은 산림 자원 관리에 중요한 요소이다. 최근 기술의 발달로 드론, 딥러닝 등 신기술을 산림 부문에 접목한 활용이 늘어났으며, 이를 이용한 식생층위구조 추정이 가능해졌다. 본 연구에서는 드론-광학 및 LiDAR 영상을 융합하여 공주, 삼척, 서귀포 지역에 대해 식생층위구조를 파악하였으며, 각 92.62%(Kappa value: 0.59), 91.57%(Kappa value: 0.53), 86.00%(Kappa value: 0.63)의 정확도를 확인하였다. 딥러닝을 활용한 식생층위구조 분석 기술은 광학 및 LiDAR의 정보량이 많아질수록 모델의 성능을 높일 수 있을 것으로 기대된다. 향후, 식생의 다양한 특성이 반영될 수 있는 복잡도 높은 모델과 충분한 샘플링을 통한 학습자료 구축이 동반되어 모델의 완성도가 높아진다면, 전국단위의 식생층위구조 지도를 구축하여 우리나라 정책·제도의 참고자료로 활용될 수 있을 것이다.
지속가능한 산림 발전을 위해 식생층위구조를 파악하는 것은 산림 자원 관리에 중요한 요소이다. 최근 기술의 발달로 드론, 딥러닝 등 신기술을 산림 부문에 접목한 활용이 늘어났으며, 이를 이용한 식생층위구조 추정이 가능해졌다. 본 연구에서는 드론-광학 및 LiDAR 영상을 융합하여 공주, 삼척, 서귀포 지역에 대해 식생층위구조를 파악하였으며, 각 92.62%(Kappa value: 0.59), 91.57%(Kappa value: 0.53), 86.00%(Kappa value: 0.63)의 정확도를 확인하였다. 딥러닝을 활용한 식생층위구조 분석 기술은 광학 및 LiDAR의 정보량이 많아질수록 모델의 성능을 높일 수 있을 것으로 기대된다. 향후, 식생의 다양한 특성이 반영될 수 있는 복잡도 높은 모델과 충분한 샘플링을 통한 학습자료 구축이 동반되어 모델의 완성도가 높아진다면, 전국단위의 식생층위구조 지도를 구축하여 우리나라 정책·제도의 참고자료로 활용될 수 있을 것이다.
Understanding the vegetation structure is important to manage forest resources for sustainable forest development. With the recent development of technology, it is possible to apply new technologies such as drones and deep learning to forests and use it to estimate the vegetation structure. In this ...
Understanding the vegetation structure is important to manage forest resources for sustainable forest development. With the recent development of technology, it is possible to apply new technologies such as drones and deep learning to forests and use it to estimate the vegetation structure. In this study, the vegetation structure of Gongju, Samchuk, and Seoguipo area was identified by fusion of drone-optical images and LiDAR data using Artificial Neural Networks(ANNs) with the accuracy of 92.62% (Kappa value: 0.59), 91.57% (Kappa value: 0.53), and 86.00% (Kappa value: 0.63), respectively. The vegetation structure analysis technology using deep learning is expected to increase the performance of the model as the amount of information in the optical and LiDAR increases. In the future, if the model is developed with a high-complexity that can reflect various characteristics of vegetation and sufficient sampling, it would be a material that can be used as a reference data to Korea's policies and regulations by constructing a country-level vegetation structure map.
Understanding the vegetation structure is important to manage forest resources for sustainable forest development. With the recent development of technology, it is possible to apply new technologies such as drones and deep learning to forests and use it to estimate the vegetation structure. In this study, the vegetation structure of Gongju, Samchuk, and Seoguipo area was identified by fusion of drone-optical images and LiDAR data using Artificial Neural Networks(ANNs) with the accuracy of 92.62% (Kappa value: 0.59), 91.57% (Kappa value: 0.53), and 86.00% (Kappa value: 0.63), respectively. The vegetation structure analysis technology using deep learning is expected to increase the performance of the model as the amount of information in the optical and LiDAR increases. In the future, if the model is developed with a high-complexity that can reflect various characteristics of vegetation and sufficient sampling, it would be a material that can be used as a reference data to Korea's policies and regulations by constructing a country-level vegetation structure map.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 연구에서는 현장조사를 수행함으로 공간을 점유하고 있는 식피의 구성종 특성을 파악하고 서식처 환경과 대응한 식물사회의 상호관계성을 파악하여, 이들 집단이 가지는 군락구조, 군락지리, 군락생태, 군락동태 등을 밝힐 수 있다. KME(2012)에 따르면 국내 식생평가의 기준은 식물군락의 기원, 분포의 희귀성, 식생의 복원성(회복력을 반영한 역사성) 등을 고려하여 평가한다.
본 연구의 목적은 드론–광학 및 LiDAR 자료에 인공 신경망(Artificial Neural Networks, ANNs) 기법을 적용해 일부 지역을 학습(Train)하고, 나머지 지역을 시험(Test)과 검증(Validation) 지역으로 구분하여 분석하여 식생층위구조를 추정하는 것이다.
제안 방법
10 m × 10 m를 기본 분류 단위로 선정하였으며, 기본 단위별로 광학영상은 질감정보(Texture)와 분광파장범위(Wavelength)를 활용하여 100 × 100 × 4 (Red. Green, Blue, NIR) 의 3차원 Array를 생성하였고, LiDAR는 격자안의 점들과의 관계를 파악할 수 있도록1 × 20(0∼10 m까지 0.5 m 단위 높이 분할)의 1차원 Array 를 생성하였다.
특징점을 추출하는 방법은 크게 2가지 단계로 구분하여 수행되었다. 1단계는 특징점 추출단계로 다양한 스케일에서 후보 특징점을 찾은 다음, 후보 특징점들의 안정성을 검사하여 정확한 특징점을 선별하였다. 2단계는 객체의 형태와 특성정보를 추출하기 위한 서술자(Descriptor)를 생성하는 단계로 선택된 특징점들을 중심으로 주변 영역의 경사정보(Gradient)를 계산하여 방향정보를 얻고, 얻어진 방향 정보를 중심으로 관심영역을 재설정하여 서술자를 생성하는 것이다.
5 m 단위 높이 분할)의 1차원 Array 를 생성하였다. 3차원 Array인 광학영상은 CNNs 구조를 거친 뒤, 1차원 Array인 Fully connected layer를 생성하여 저차원의 영상 특징(Feature)을 추출하였으며, 1차원 Array인 LiDAR 영상은 NNs 구조를 통해 동일 차원에서 영상의 특징을 추출하였다. 각 영상에서 추출된 특징은 Concatenate 연산을 통해 하나의 Array로 융합되고, Fully connected layer와 Cross entropy 함수를 거쳐 층위를 분류하였다.
3차원 Array인 광학영상은 CNNs 구조를 거친 뒤, 1차원 Array인 Fully connected layer를 생성하여 저차원의 영상 특징(Feature)을 추출하였으며, 1차원 Array인 LiDAR 영상은 NNs 구조를 통해 동일 차원에서 영상의 특징을 추출하였다. 각 영상에서 추출된 특징은 Concatenate 연산을 통해 하나의 Array로 융합되고, Fully connected layer와 Cross entropy 함수를 거쳐 층위를 분류하였다. 모델 구축 및 검증을 위해 10m × 10m 그리드를 Random sampling 기법을 이용하여 무작위로 추출하고 49%를 학습(Training)에, 21%를 검증(Validation)에, 30%를 시험(Test)에 사용하였다.
각 층별 식생층위구조 분석 결과의 검증을 위해 대상지별(공주, 삼척, 서귀포) 현장조사 자료의 층위에 대한 유/무 정보를 참값으로 설정하여 정확성을 평가하였다. 지역별로 각 층별(교목, 아교목, 관목, 초본)로 층위가 극단적으로 넓거나 좁게 분포하는 지역이 있으므로, 모델 자체의 Accuracy만으로는 객관적이 성능평가가 어렵다고 판단하였다.
드론–LiDAR 자료를 이용하여 식생입체구조를 파악하기 위해 대상지별(공주, 삼척, 서귀포) 드론–LiDAR 포인트가 균일하게 취득되지 못한 대상지 가장자리를 제외하고, 내부에 10 m 간격, 지름 16 m의 원형 격자를 생성하였다.
검증데이터는 학습 과정에 들어가는 Hyper-parameter들을 Tuning하는데 사용되며, 시험데이터를 통해 모델의 성능을 시험하였다. 딥러닝 기법의 일종인 NNs를 사용하여 검증데이터에서 가장 높은 성능이 나올 때까지 데이터를 학습시키고, 학습된 Neural Network를 통해 시험데이터를 분석하여 식생층위구조를 예측하였다.
따라서 딥러닝 모델 적용성 평가를 위한 비교에는 분류 단위에 대해 1 × 20 Array로 분석을 수행하는 LiDAR 자료만을 사용하여 SVM과 NNs를 비교하였다.
따라서 회전익 기체 ‘XQ-1400VZX’를 이용하여 LiDAR 촬영을 실시하였으며, 국내에서 개발하여 각종 센서를 사용자가 선택하여 탑재할 수 있도록 제작된 쿼드콥터(4개의 프롭) 방식의 프레임을 선정하였다.
드론–LiDAR 자료를 이용하여 식생입체구조를 파악하기 위해 대상지별(공주, 삼척, 서귀포) 드론–LiDAR 포인트가 균일하게 취득되지 못한 대상지 가장자리를 제외하고, 내부에 10 m 간격, 지름 16 m의 원형 격자를 생성하였다. 또한, 식생의 높이에 따른 층위의 유/무를 판단하기 위해 Voxel(Volumetric pixel) 개념을 활용하여 0.5 m 높이 단위별로 원형격자 내의 포인트 개수를 수집하였다. 10 m × 10 m를 기본 분류 단위로 선정하였으며, 기본 단위별로 광학영상은 질감정보(Texture)와 분광파장범위(Wavelength)를 활용하여 100 × 100 × 4 (Red.
모델 구축 및 검증을 위해 10m × 10m 그리드를 Random sampling 기법을 이용하여 무작위로 추출하고 49%를 학습(Training)에, 21%를 검증(Validation)에, 30%를 시험(Test)에 사용하였다.
본 연구는 드론에 광학 및 LiDAR 센서를 탑재하여 식생층위구조 분석을 높은 수준의 정확도로 추정하였다. 하지만, 계곡부에서 광학영상에서는 그림자(Shade)가 많이 생겨 분석의 오차를 초래하였으며, 이에 대한 한계를 보완하고자 LiDAR를 사용하였지만 여전히 드론 기체의 접근성 등의 문제로 촬영 고도가 일정하지 않아 점밀도 등이 일정하지 않았다.
본 연구에서는 계절에 의한 수관 울폐도의 차이를 고려하여 2017년 하반기부터 2019년 상반기까지, 1년에 대상지별 2회씩(4∼5월 늦봄, 11∼3월 초·늦겨울) 상술한 전처리 과정을 포함하여 총 24회 촬영 분을 제작 후 연구에 활용하였다(Fig. 3).
, 2007). 본 연구에서는 그 대응 관계를 설명하는 행렬을 생성하고 인수분해하여 각 특징점의 3차원 좌표와 카메라 위치를 추정하는 방법을 사용하였다.
본 연구에서는 대상지별 각 층위의 유/무를 광학 영상의 분광특성과 LiDAR 자료의 분포 형태에 따라 분석하였으며, 분석된 모든 층위 구조를 중첩하여 식생층위 구조 지도를 작성하였다(Fig. 9). 공주지역의 전체 층위에 대한 분석 결과는 Accuracy 92.
따라서 현장조사와 모델에 의한 분류가 우연히 일치할 확률이 평가에 고려된 Cohen’s Kappa 값과 함께 모델의 성능을 평가하였다. 아울러, 대상지별 전체 식생층위를 나타내기 위해 각 층별로 분석된 식생의 유/무 정보를 모두 합하여 총 4층위의 식생층위구조지도를 작성하였다.
#은 GPS/INS좌표계에서 지상좌표계로 변환하는 회전행렬을, # 센서좌표계에서 GPS/INS좌표계로 변환하는 회전행렬을 의미한다. 이러한 기하모델로부터 유도한 수식에 기반하여 지오레퍼런싱을 수행하였다. 아울러, 각 지역별 광학 DSM과 LiDAR의 유사지점을 무작위로 10점 선점하여 평면및 수직위치 정확도를 검토하였으며, 그 결과 공주는 평면 0.
임상별 광학영상의 분광반사율을 분석하여 식생군락별 분광반사 특성을 파악하고, 광학영상에서의 식생의 분광특성과 LiDAR 자료로 관측되는 물리적 구조 등을 토대로 딥러닝 기법인 CNNs와 NNs를 융합하여 식생층위구조를 분석하였다.
촬영을 수행하기 전 대상지 주변 환경을 파악하고 고지대 산림지역의 풍향 및 풍속 등 촬영 여건의 확인을 위해 대상지별 2∼3회에 걸친 사전비행을 실시하였으며, 이는 회전익 기체인 ‘Phantom 4’를 통해 이루어졌다.
따라서 회전익 기체 ‘XQ-1400VZX’를 이용하여 LiDAR 촬영을 실시하였으며, 국내에서 개발하여 각종 센서를 사용자가 선택하여 탑재할 수 있도록 제작된 쿼드콥터(4개의 프롭) 방식의 프레임을 선정하였다. 해당 프레임을 기반으로 GNSS/INS 센서, 통신 모듈, 시스템 보드, LiDAR 센서 등을 탑재하여 촬영을 수행하였다(Table 1, Table 2).
현장조사 수행 시 상술한 기준을 적용하였으며, 지역별 대표적인 식생형을 고려하여 공주지역 24개, 삼척지역 12개, 서귀포지역 15개의 방형구(20 m × 20 m)를 설치하고 식생층위구조를 분석하기 위한 정밀현존식생조사를 수행하였다(Fig. 2).
대상 데이터
대상지 면적, 촬영 조건 및 비행 환경, 기체 운용 효율성 등을 종합적으로 고려하여 연구대상지 촬영을 위한 드론은 고정익 기체로 선정하였다. 촬영을 수행하기 전 대상지 주변 환경을 파악하고 고지대 산림지역의 풍향 및 풍속 등 촬영 여건의 확인을 위해 대상지별 2∼3회에 걸친 사전비행을 실시하였으며, 이는 회전익 기체인 ‘Phantom 4’를 통해 이루어졌다.
대상지는 드론 촬영이 용이한 1∼1.5 내외면적의 소규모 지역으로, 현장조사를 통해 연구결과를 검증하기 위한 접근이 용이한 지역으로 고려하였다.
드론–LiDAR 자료의 후처리를 위해 필요한 자료는 2가지이며, 촬영 종료 후 컨트롤 모듈에 저장되는 레이저스캐너 자료는 외장 하드로 복사하고, 저장기능이 있는 GNSS/INS의 경우 Ethernet Port를 통해 FTP로 다운받는 방식으로 자료를 취득한다.
본 연구에 활용된 데이터셋은 LiDAR 복셀의 수평적 해상도인 10 × 10 m 격자를 최소 분석단위로 가지며, 해당 범위 안에 존재하는 0.15 m × 0.15 m 크기의 광학영상에 대해서는 면적 단위 분석이 필요하다.
일반적으로 LiDAR 시스템은 포인트 클라우드 형태의 성과를 취득하게 되며, 이때 포인트 클라우드는 국가기본도에서 사용하는 TM(Transverse Mercator) 좌표체계에 기반하여 작성되고, 평명위치성과(X, Y 좌표)와 수직 위치성과(Z 좌표, 정표고), 그리고 반사강도(Intensity)를 갖는 Text 파일로 저장된다. 본 연구에서는 LiDAR 자료의 포인트 클라우드 생성을 위해 TILab사의 TLmaker S/W를 사용하였다.
본 연구에서는 다양한 식생 및 산림구조(인공림, 자연림 등)를 가지고 초지와 관목이 다수 존재하는 지역으로, 전국적인 분포를 고려하여 충남 공주시 일원, 강원 삼척시 일원, 서귀포시 일원을 연구대상지로 선정하였다(Fig. 1). 대상지는 드론 촬영이 용이한 1∼1.
따라서 식생층위 모델의 식생층위 분류 성능평가에는 True positive 뿐만 아니라, True negative 의 개수도 반영되어야 한다. 본 연구에서는 층위 유/무에 대한 균형 있는 평가가 가능하도록, 대상지별 전체 격자 대비 식생의 유/무의 비율이 가장 고른 서귀포지역의 아교목 층을 시범적용 대상으로 설정하여 분석하였다(Table 4).
공주지역은 총 11개의 식생유형이 조사되었으며, 굴참나무, 상수리나무, 리기다소나무, 일본잎갈나무 등의 순으로 개체목 들의 분포가 많았다. 식물상 조사에서는 총 10목 16과 21속 28종이 출현하였다. 삼척지역은 총 5개의 식생유형이 조사되었으며, 소나무, 곰솔 등의 순으로 개체목 들의 분포가 많았다.
삼척지역은 총 5개의 식생유형이 조사되었으며, 소나무, 곰솔 등의 순으로 개체목 들의 분포가 많았다. 식물상 조사에서는 총 12목 15과 18속 25종이 출현하였다. 서귀포지역은 총 8개의 식생유형이 조사되었으며, 삼나무, 곰솔 등의 순으로 개체목들의 분포가 많았다.
서귀포지역은 총 8개의 식생유형이 조사되었으며, 삼나무, 곰솔 등의 순으로 개체목들의 분포가 많았다. 식물상 조사에서는 총 14목 16과 16속 17종이 출현하였다.
실제 광학영상 촬영을 위해 활용된 드론은 고정익 형태의 ‘FireFLY6 Pro’ 모델로써 크기는 가로 1.5 m, 세로 0.95 m이며, 중량은 4.1 kg 인 수진 이·착륙형 기체이다.
데이터처리
모델 구축 및 검증을 위해 10m × 10m 그리드를 Random sampling 기법을 이용하여 무작위로 추출하고 49%를 학습(Training)에, 21%를 검증(Validation)에, 30%를 시험(Test)에 사용하였다. 검증데이터는 학습 과정에 들어가는 Hyper-parameter들을 Tuning하는데 사용되며, 시험데이터를 통해 모델의 성능을 시험하였다. 딥러닝 기법의 일종인 NNs를 사용하여 검증데이터에서 가장 높은 성능이 나올 때까지 데이터를 학습시키고, 학습된 Neural Network를 통해 시험데이터를 분석하여 식생층위구조를 예측하였다.
이론/모형
드론-광학영상의 처리는 상용 S/W인 PhotoScan을 이용하여 자동영상정합 기법을 활용한 컴퓨터 비전방식에 의해 수행하였으며, SIFT(Scale-Invariant Feature Transform) 알고리즘에 의한 특징점 추출 방법으로 영상을 정합하고 SfM(Structure from Motion) 기법을 통해 포인트 클라우드 및 DSM(Digital Surface Model, DSM)을 생성하였다. SIFT 기법은 영상자료를 국부적 축척불변의 특징점으로 변환하는 방법으로 변환되는 특징점은 축척과 회전에 불변할 뿐 아니라 명암변화 및 카메라 노출점의 변화에도 불변하기 때문에 UAV 영상정합에 가장 적합한 방법으로 대다수의 AAT(Automatic Aerial Triangulation)에 널리 적용되고 있다(Schenk, 2004; Gonçalves and Henriques, 2015).
따라서 현장조사와 모델에 의한 분류가 우연히 일치할 확률이 평가에 고려된 Cohen’s Kappa 값과 함께 모델의 성능을 평가하였다.
식생층위분석의 인공신경망 적용 가능성을 검토하기 위해 기 개발된 머신러닝 기반 분류 방법론 중 SVM을 활용하였다. SVM은 1995년 Vapnik에 의해 처음 제안된 학습이론으로, 통계적 이론상 경험적(Empirical) 위험 최소화 원칙이 아닌 구조적(Structural) 위험 최소화 원칙을 이용하여 일반화에 대한 오류를 최소화시키는 방법으로 분류를 수행한다.
드론–LiDAR 자료의 후처리를 위해 필요한 자료는 2가지이며, 촬영 종료 후 컨트롤 모듈에 저장되는 레이저스캐너 자료는 외장 하드로 복사하고, 저장기능이 있는 GNSS/INS의 경우 Ethernet Port를 통해 FTP로 다운받는 방식으로 자료를 취득한다. 취득 자료는 후처리를 위해 지오레퍼런싱(Geo-referencing) 과정을 선행한다. 지오레퍼런싱이란 거리정보로 이루어진 LiDAR 원시 자료에 3차원 절대 좌표값을 부여하는 과정을 의미하며, 거리정보에 송신한 레이저 빔(펄스)의 원점과 방향 정보를 조합하여 레이저 펄스가 반사한 지점의 위치 좌표 값을 산출하는 과정을 의미한다.
성능/효과
SVM을 NNs과 동일한 조건의 파라미터를 설정(학습 (Training): 49%, 검증(Validation): 21%, 시험(Test): 30%) 하여 층위의 유/무를 분석한 결과, 딥러닝 기반 NNs은 Accuracy 81.02%, Kappa value 0.60의 분류 정확도를, SVM에서는 Accuracy 58.88%, Kappa value 0.22의 분류 정확도를 나타내었다. 대상지의 지리적 특성을 고려하였을 때 드론–LiDAR를 이용하여 식생층위를 분석할시, 층위의 유/무에 대한 분포가 집약적인 지역보다 고른 지역에서 층위 분석이 높은 정확도로 추정이 가능하다는 것을 확인했다(Table 3, Fig.
2). 공주지역은 총 11개의 식생유형이 조사되었으며, 굴참나무, 상수리나무, 리기다소나무, 일본잎갈나무 등의 순으로 개체목 들의 분포가 많았다. 식물상 조사에서는 총 10목 16과 21속 28종이 출현하였다.
63으로 모의된다(Table 5). 광학 및 LiDAR 자료의 학습량이 많아질수록 정확도와 모델의 신뢰도가 향상되었으며, 시계열 자료를 추가하여 학습량을 늘렸을 때, 모델의 신뢰도가 전체적으로 향상되었다. 따라서 학습량이 증가될수록 Accuracy 및 Kappa value는 향상될 수 있고, 딥러닝 알고리즘에 적용하여 활용한다면 더 넓은 지역에 대한 추정이 가능할 것으로 사료된다.
대상지의 지리적 특성을 고려하였을 때 드론–LiDAR를 이용하여 식생층위를 분석할시, 층위의 유/무에 대한 분포가 집약적인 지역보다 고른 지역에서 층위 분석이 높은 정확도로 추정이 가능하다는 것을 확인했다(Table 3, Fig. 5).
식물상 조사에서는 총 10목 16과 21속 28종이 출현하였다. 삼척지역은 총 5개의 식생유형이 조사되었으며, 소나무, 곰솔 등의 순으로 개체목 들의 분포가 많았다. 식물상 조사에서는 총 12목 15과 18속 25종이 출현하였다.
식물상 조사에서는 총 12목 15과 18속 25종이 출현하였다. 서귀포지역은 총 8개의 식생유형이 조사되었으며, 삼나무, 곰솔 등의 순으로 개체목들의 분포가 많았다. 식물상 조사에서는 총 14목 16과 16속 17종이 출현하였다.
이러한 기하모델로부터 유도한 수식에 기반하여 지오레퍼런싱을 수행하였다. 아울러, 각 지역별 광학 DSM과 LiDAR의 유사지점을 무작위로 10점 선점하여 평면및 수직위치 정확도를 검토하였으며, 그 결과 공주는 평면 0.05 m, 수직 0.36 m, 삼척은 평면 0.07 m, 수직 0.19 m, 서귀포는 평면 0.06 m, 수직 0.32 m로 산출되었다.
후속연구
클래스 구분을 위해서는 개발한 CNNs-NNs 융합 기법의 매개변수(Parameter), 구조 등을 조정하여 다양한 특성이 반영될 수 있는 복잡도 높은 모델과 충분한 샘플링을 통한 학습자료 구축이 필요하다. 다양한 데이터 특성을 학습시킬 수 있는 방법 개발이 추가적으로 필요하며, 수종 및 환경인자를 포함한 학습데이터를 확보하기 위해서는 연구대상지 내의 현장조사 비율을 늘리고, 데이터 변이를 통해 현장조사 학습데이터를 증가시키는 Data Augmentation 기법을 활용하여 연구에 적용해보는 방법을 추후에 시도해볼 필요가 있다.
, 2016). 따라서 상대적으로 고해상도 광학영상의 질감정보와 높은 점 밀도의 LiDAR 자료를 복잡한 구조에 적합한 딥러닝을 활용하여 임분 단위의 식생층위구조를 분석한다면 기존 연구보다 높은 정확도의 추정을 기대할 수 있다.
하지만, 계곡부에서 광학영상에서는 그림자(Shade)가 많이 생겨 분석의 오차를 초래하였으며, 이에 대한 한계를 보완하고자 LiDAR를 사용하였지만 여전히 드론 기체의 접근성 등의 문제로 촬영 고도가 일정하지 않아 점밀도 등이 일정하지 않았다. 따라서 정밀한 식생 층위구조 파악을 위해서는 해당 지역의 고도, 경사, 등고선 등을 더 고려한 드론 비행 궤도와 촬영법 등의 조정이 필요할 것으로 사료된다. 또한, 식생의 시계열적인 특징을 가장 잘 반영할 수 있는 시기의 시계열 LiDAR 자료를 합성해서 사용하면, 겨울에는 지표면을, 여름에는 식생의 수고 및 위치 등을 파악하는데 용이할 것으로 판단된다.
광학 및 LiDAR 자료의 학습량이 많아질수록 정확도와 모델의 신뢰도가 향상되었으며, 시계열 자료를 추가하여 학습량을 늘렸을 때, 모델의 신뢰도가 전체적으로 향상되었다. 따라서 학습량이 증가될수록 Accuracy 및 Kappa value는 향상될 수 있고, 딥러닝 알고리즘에 적용하여 활용한다면 더 넓은 지역에 대한 추정이 가능할 것으로 사료된다.
따라서 정밀한 식생 층위구조 파악을 위해서는 해당 지역의 고도, 경사, 등고선 등을 더 고려한 드론 비행 궤도와 촬영법 등의 조정이 필요할 것으로 사료된다. 또한, 식생의 시계열적인 특징을 가장 잘 반영할 수 있는 시기의 시계열 LiDAR 자료를 합성해서 사용하면, 겨울에는 지표면을, 여름에는 식생의 수고 및 위치 등을 파악하는데 용이할 것으로 판단된다.
아울러, 생태·자연도 등급판정은 전국환경조사 결과에 따른 식생보전 등급을 기준으로 하여 실시하는데, 생태·자연도 작성지침 제1장, 제3조에 따르면 효율적인 작성을 위해 필요할 경우 위성영상, 항공사진 등의 자료를 활용할 수 있다고 명시되어 있으므로 비교적 고해상도의 드론 영상을 활용하여 실제 식생조사에서의 식생의 수직적 구조 파악 등 조사 분야에서 전수조사 수준 또는 그 이상의 결과로 분석하여 활용이 가능할 것으로 기대된다.
참고문헌 (18)
Chapman, S.K. and G.W. Koch, 2007. What type of diversity yields synergy during mixed litter decomposition in a natural forest ecosystem?, Plant and Soil, 299(1-2): 153-162.
Choi, J.Y., K.S. Sung, and Y.K. Yang, 2007. Multiple vehicles detection and tracking based on scale-invariant feature transform, Proc. of 2007 IEEE Intelligent Transportation Systems Conference, Seattle, WA, USA, Oct. 22, pp. 528-533.
Goncalves, J. A. and R. Henriques, 2015. UAV photogrammetry for topographic monitoring of coastal areas, ISPRS Journal of Photogrammetry and Remote Sensing, 104: 101-111.
Griggs, D., M. Stafford-Smith, O. Gaffney, J. Rockstrom, M.C. Ohman, P. Shyamsundar, W. Stedffen, G. Glaser, N. Kanie, and I. Noble, 2013. Sustainable development goals for people and planet, Nature, 495(7441): 305-307.
KFS(Korea Forest Service), 2018. Statistical Yearbook of Forestry, Korea Forest Service, Daejeon, Korea (in Korean).
KFRI(Korea Forest Research Institute), 2011. Guidelines for the 6th National Forest Inventory Survey, Korea Forest Research Institute, Seoul, Korea (in Korean).
KME(Korea Ministry of Environment), 2012. Guidelines for the 4th National Survey of Natural Environment, Korea Ministry of Environment, Seoul, Korea (in Korean).
Kim, E., W.K. Lee, M. Yoon, J.Y. Lee, E.J. Lee, and J. Moon, 2016. Detecting individual tree position and height using Airborne LiDAR data in Chollipo Arboretum, South Korea, TAO: Terrestrial, Atmospheric and Oceanic Sciences, 27(4): 593.
Kwak, D.A., W.K. Lee, J.H. Lee, G.S. Biging, and P. Gong, 2007. Detection of individual trees and estimation of tree height using LiDAR data, Journal of Forest Research, 12(6): 425-434.
Kwak, D.A., W.K. Lee, H.K. Cho, S.H. Lee, Y. Son, M. Kafatos, and S.R. Kim, 2010. Estimating stem volume and biomass of Pinus koraiensis using LiDAR data, Journal of Plant Research, 123(4): 421-432.
Kwon, S.K., Y.S. Lee, D.S. Kim, and H.S. Jung, 2019. Classification of Forest Vertical Structure Using Machine Learning Analysis, Korean Journal of Remote Sensing, 35(2): 229-239 (in Korean with English abstract).
Kwon, T.H., W.K. Lee, D.A. Kwak, T. Park, J.Y. Lee, S.Y. Hong, C. Guishan, and S.R. Kim, 2012. Forest canopy density estimation using airborne hyperspectral data, Korean Journal of Remote Sensing, 28(3): 297-305.
Park, S.G. and H.M. Kang, 2015. Characteristics of Vegetation Structure in Chamaecyparis Obtusa Stands, Korean Journal of Environment and Ecology, 29(6): 907-916 (in Korean with English abstract).
Sung, H.C., Y.Y. Zhu, and S.W. Jeon, 2019. Study on Application Plan of Forest Spatial Information Based on Unmanned Aerial Vehicle to Improve Environmental Impact Assessment, Jouranl of Korean Environmental Restoration Technology, 22(6): 63-76 (in Korean with English abstract).
Tang, L. and G. Shao, 2015. Drone remote sensing for forestry research and practices, Journal of Forestry Research, 26(4): 791-797.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.