본 연구에서는 UAV (Unmanned Aerial Vehicle)와 PlanetScope 위성영상을 함께 이용한 붕괴건물 탐지를 수행하여 지표면에 위치한 특정 객체 탐지에 있어 이종 센서의 활용 가능성을 제시하였다. 이를 위해 지난해 4월 산불 피해로 붕괴된 20여 채의 건물들이 있는 곳을 실험장소로 선정하였다. 붕괴건물 탐지를 위해 1차적으로 객체기반 분할을 수행한 고해상도의 UAV 영상을 이용해 ExG (Excess Green), GLCM (Gray-Level Co-occurrence Matrix) 그리고 DSM (Digital Surface Model)과 같은 객체들의 특징(feature) 정보를 생성한 후 이를 붕괴건물 후보군 탐지에 이용하였다. 이 과정에서 탐지정확도 향상을 위해 PlanetScope를 이용한 변화탐지 결과를 함께 사용하였으며 이를 시드 화소(seed pixles)로 사용하여 붕괴건물 후보군에서 오탐지된 영역과 과탐지된 영역을 수정 및 보완하였다. 최종적인 탐지 결과는 참조 영상을 통해 그 성능을 분석하였으며 UAV 영상만을 이용한 붕괴건물 후보군 탐지 결과와 UAV 그리고 PlanetScope 영상을 함께 사용했을 때의 결과의 정확도를 비교, 분석하였다. 그 결과 UAV 영상만을 이용해 탐지한 붕괴건물의 정확도는 0.4867 F1-score를 가지며 UAV와 PlanetScope 영상을 함께 사용했을 때의 결과는 0.8064 F1-score로 그 값이 상승하였다. Kappa 지수 또한 0.3674에서 0.8225로 향상된 것을 확인할 수 있었다.
본 연구에서는 UAV (Unmanned Aerial Vehicle)와 PlanetScope 위성영상을 함께 이용한 붕괴건물 탐지를 수행하여 지표면에 위치한 특정 객체 탐지에 있어 이종 센서의 활용 가능성을 제시하였다. 이를 위해 지난해 4월 산불 피해로 붕괴된 20여 채의 건물들이 있는 곳을 실험장소로 선정하였다. 붕괴건물 탐지를 위해 1차적으로 객체기반 분할을 수행한 고해상도의 UAV 영상을 이용해 ExG (Excess Green), GLCM (Gray-Level Co-occurrence Matrix) 그리고 DSM (Digital Surface Model)과 같은 객체들의 특징(feature) 정보를 생성한 후 이를 붕괴건물 후보군 탐지에 이용하였다. 이 과정에서 탐지정확도 향상을 위해 PlanetScope를 이용한 변화탐지 결과를 함께 사용하였으며 이를 시드 화소(seed pixles)로 사용하여 붕괴건물 후보군에서 오탐지된 영역과 과탐지된 영역을 수정 및 보완하였다. 최종적인 탐지 결과는 참조 영상을 통해 그 성능을 분석하였으며 UAV 영상만을 이용한 붕괴건물 후보군 탐지 결과와 UAV 그리고 PlanetScope 영상을 함께 사용했을 때의 결과의 정확도를 비교, 분석하였다. 그 결과 UAV 영상만을 이용해 탐지한 붕괴건물의 정확도는 0.4867 F1-score를 가지며 UAV와 PlanetScope 영상을 함께 사용했을 때의 결과는 0.8064 F1-score로 그 값이 상승하였다. Kappa 지수 또한 0.3674에서 0.8225로 향상된 것을 확인할 수 있었다.
In this study, collapsed building detection using UAV (Unmanned Aerial Vehicle) and PlanetScope satellite images was carried out, suggesting the possibility of utilization of heterogeneous sensors in object detection located on the surface. To this end, the area where about 20 buildings collapsed du...
In this study, collapsed building detection using UAV (Unmanned Aerial Vehicle) and PlanetScope satellite images was carried out, suggesting the possibility of utilization of heterogeneous sensors in object detection located on the surface. To this end, the area where about 20 buildings collapsed due to forest fire damage was selected as study site. First of all, the feature information of objects such as ExG (Excess Green), GLCM (Gray-Level Co-Occurrence Matrix), and DSM (Digital Surface Model) were generated using high-resolution UAV images performed object-based segmentation to detect collapsed buildings. The features were then used to detect candidates for collapsed buildings. In this process, a result of the change detection using PlanetScope were used together to improve detection accuracy. More specifically, the changed pixels acquired by the bitemporal PlanetScope images were used as seed pixels to correct the misdetected and overdetected areas in the candidate group of collapsed buildings. The accuracy of the detection results of collapse buildings using only UAV image and the accuracy of collapse building detection result when UAV and PlanetScope images were used together were analyzed through the manually dizitized reference image. As a result, the results using only UAV image had 0.4867 F1-score, and the results using UAV and PlanetScope images together showed that the value improved to 0.8064 F1-score. Moreover, the Kappa coefficiant value was also dramatically improved from 0.3674 to 0.8225.
In this study, collapsed building detection using UAV (Unmanned Aerial Vehicle) and PlanetScope satellite images was carried out, suggesting the possibility of utilization of heterogeneous sensors in object detection located on the surface. To this end, the area where about 20 buildings collapsed due to forest fire damage was selected as study site. First of all, the feature information of objects such as ExG (Excess Green), GLCM (Gray-Level Co-Occurrence Matrix), and DSM (Digital Surface Model) were generated using high-resolution UAV images performed object-based segmentation to detect collapsed buildings. The features were then used to detect candidates for collapsed buildings. In this process, a result of the change detection using PlanetScope were used together to improve detection accuracy. More specifically, the changed pixels acquired by the bitemporal PlanetScope images were used as seed pixels to correct the misdetected and overdetected areas in the candidate group of collapsed buildings. The accuracy of the detection results of collapse buildings using only UAV image and the accuracy of collapse building detection result when UAV and PlanetScope images were used together were analyzed through the manually dizitized reference image. As a result, the results using only UAV image had 0.4867 F1-score, and the results using UAV and PlanetScope images together showed that the value improved to 0.8064 F1-score. Moreover, the Kappa coefficiant value was also dramatically improved from 0.3674 to 0.8225.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 연구에서는 UAV와 위성영상을 함께 활용해 붕괴건물을 탐지하였다. 객체기반으로 분할된 고해상도 UAV 영상에 다양한 특징 정보를 생성하여 붕괴건물 후보군을 탐지하였으며 PlanetScope 영상을 통해 취득한 변화탐지 결과를 참고하여 최종적인 붕괴건물 탐지 결과를 도출하였다.
본 연구에서는 고해상도 UAV와 다시기 영상을 취득할 수 있는 PlanetScope를 이용해 붕괴건물 탐지를 진행하였다. 연구를 수행하기에 앞서 정합을 끝낸 UAV 영상과 PlanetScope 영상에 대해 방사 보정을 수행하였다.
7). 이 과정에서 연구지역이 촬영된 시계열 영상 중 산불 전, 후 주기해상도가 가장 짧은 영상을 선정하여 붕괴된 건물을 제외한 다른 객체들의 변화를 최소화하고자 하였다. 그 결과, PlanetScope 영상을 이용해 얻은 변화탐지 결과는 붕괴건물에 대한 정보만을 포함하고 있어 이를 통해 붕괴건물의 위치를 파악할 수 있다.
앞서 언급했듯이 UAV 영상만을 이용하여 효과적인 붕괴건물에 어려움이 있음을 확인하였다. 이에 본 연구에서는 PlanetScope 위성영상을 통해 취득된 연구지역의 산불발생 전과 후의 영상을 이용하여 이를 보완하고자 하였다.PlanetScope 영상에 변화탐지 기법 중 가장 보편적으로 사용되는 CVA를 사용하여 변화탐지를 수행한 후 Otsu 임계값을 적용해 변화지역과 비변화지역으로 나누어 나타내었다(Fig.
이에 본 연구에서는 UAV 영상과 위성영상인 PlanetScope를 함께 이용한 붕괴건물 탐지를 수행하였다. 8cm로 높은 공간해상도를 가지는 UAV 영상의 효율적인 활용을 위해 객체기반 분석을 수행했으며 이를 통해 분할 객체 기반의 여러 가지 특징 정보를 활용하였다.
객체 내 평균값을 의미하는 특징인 Mean DSM 또한 산불피해 지역의 경우 산림의 분포가 일정하지 않기 때문에 산림과 인접한 지역에 위치한 붕괴건물과의 차이가 크지 않다. 이에 본 연구에서는 이와 같은 문제들을 해결하고자 Maximum DSM를 사용하였는데 이는 객체 내에 위치하는 화소들이 갖는 DSM 값 중 가장 큰 값을 객체 값으로 할당한다. 붕괴건물로 오탐지된 화재 피해를 입은 산림과 붕괴건물 간의 최대 표고값 차는 대략 3~5m이며 이를 이용해 화재 피해를 입은 산림을 제거하였다.
제안 방법
이에 본 연구에서는 UAV 영상과 위성영상인 PlanetScope를 함께 이용한 붕괴건물 탐지를 수행하였다. 8cm로 높은 공간해상도를 가지는 UAV 영상의 효율적인 활용을 위해 객체기반 분석을 수행했으며 이를 통해 분할 객체 기반의 여러 가지 특징 정보를 활용하였다. 또한, 연구지역의 붕괴 전 시기에 대한 영상을 얻을 수 없다는 UAV 영상의 한계점을 보완하기 위해 연구지역의 건물 붕괴 전, 후 시계열 데이터를 모두 취득할 수 있는 위성영상 PlanetScope를 이용해 두 시기 간의 변화 탐지 결과를 도출하였으며 이를 붕괴건물 탐지에 함께 사용하였다.
이에 본 연구에서는 PlanetScope 위성영상을 통해 취득된 연구지역의 산불발생 전과 후의 영상을 이용하여 이를 보완하고자 하였다.PlanetScope 영상에 변화탐지 기법 중 가장 보편적으로 사용되는 CVA를 사용하여 변화탐지를 수행한 후 Otsu 임계값을 적용해 변화지역과 비변화지역으로 나누어 나타내었다(Fig.7). 이 과정에서 연구지역이 촬영된 시계열 영상 중 산불 전, 후 주기해상도가 가장 짧은 영상을 선정하여 붕괴된 건물을 제외한 다른 객체들의 변화를 최소화하고자 하였다.
UAV 영상에 객체기반의 특징 정보를 이용해 붕괴건물 후 보군을 탐지하였다. 하지만 Fig.
연구를 수행하기에 앞서 정합을 끝낸 UAV 영상과 PlanetScope 영상에 대해 방사 보정을 수행하였다. UAV 영상은 3%, 12%, 32% 그리고 56%의 반사율을 가지는 반사판(reflectancepanel)을 이용하여 방사 보정을 수행하였으며 PlanetScope 영상에는 영상 간 상대 방사 보정기법인 히스토그램 매칭을 적용하여 방사 보정을 수행하였다. 그 후 eCognition 소프트웨어를 이용해 UAV 객체 분할 영상을 생성한 후 다양한 texture 정보를 이용해 붕괴건물 후보군을 1차적으로 탐지하였다.
eCognition 소프트웨어를 이용한 붕괴건물 후보군 탐지를 위해 ExG (Excess Green), GLCM Dissimilarity 그리고Maximum DSM (Digital Surface Model) 세 가지의 특징 정보를 사용하였다. 연구지역은 산림과 밭 그리고 붕괴건물과 건물이 붕괴되면서 발생한 잔해들이 위치한 곳이다.
산림지역을 비관심 지역으로 분류한 후 붕괴건물 후보군 탐지를 위해 각 객체를 각각의 커널로 취급하여 GLCM Dissimilarity를 계산하였다. 각 객체가 갖는 GLCM Dissimilarity 값은 Fig. 5(a)와 같이 나타나며 이 또한, 시각적 분석을 통해 GLCM Dissimilarity 값이 20보다 클 경우 이를 붕괴건물 후보군으로 분류하였다.
붕괴건물 후보군 탐지를 위해 총 3가지의 특징 정보를 사용하였다. 각 특징 정보에 대해 통계적 계산을 거친 후 각 객체에 할당하였으며 이후 시각적 분석을 통해 선정된 가중치를 기준으로 붕괴건물 후보군과 비관심 지역으로 분류하였다.
본 연구에서는 UAV와 위성영상을 함께 활용해 붕괴건물을 탐지하였다. 객체기반으로 분할된 고해상도 UAV 영상에 다양한 특징 정보를 생성하여 붕괴건물 후보군을 탐지하였으며 PlanetScope 영상을 통해 취득한 변화탐지 결과를 참고하여 최종적인 붕괴건물 탐지 결과를 도출하였다. 이 과정에서 UAV 영상에 ExG, GLCM Dissimilarity 그리고 Maximum DSM 특징 정보들을 생성하였으며 이 과정에서 시각적 분석을 통한 가중치를 설정하여 붕괴건물과 미관심지역으로 분류하였다.
이 과정에서 UAV 영상에 ExG, GLCM Dissimilarity 그리고 Maximum DSM 특징 정보들을 생성하였으며 이 과정에서 시각적 분석을 통한 가중치를 설정하여 붕괴건물과 미관심지역으로 분류하였다. 그 후 PlanetScope 위성영상을 이용해 도출된 변화탐지 결과를 기준으로 붕괴건물 후보군으로 추출된 객체 중 과탐지된 객체들을 제거하였다. 더 나은 정확도를 위해 UAV 분할 영상에서 붕괴건물로 분류되지 않은 일부의 객체들을 추가적으로 붕괴건물로 재분류하여 최종 붕괴건물 탐지결과를 도출하였다.
UAV 영상은 3%, 12%, 32% 그리고 56%의 반사율을 가지는 반사판(reflectancepanel)을 이용하여 방사 보정을 수행하였으며 PlanetScope 영상에는 영상 간 상대 방사 보정기법인 히스토그램 매칭을 적용하여 방사 보정을 수행하였다. 그 후 eCognition 소프트웨어를 이용해 UAV 객체 분할 영상을 생성한 후 다양한 texture 정보를 이용해 붕괴건물 후보군을 1차적으로 탐지하였다. 이 과정에서 탐지되지 않은 붕괴건물에 대한 추가적인 정보를 얻기 위해 PlanetScope 영상에 변화탐지를 수행하였다.
이 지역에서 붕괴건물을 분류해내기에 앞서 붕괴건물들을 제외했을 때 가장 큰 면적을 차지하는 산림과 밭을 제거해주기 위해 ExG 값을 사용하였다. 그 후 다른 객체에 비해 붕괴건물 객체들이 큰 값의 GLCM Dissimilarity 값을 가지므로 이를 이용해 붕괴건물 후보군을 분류하였다. 이 과정에서 산불 피해를 입은 나무들이 속한 객체 또한 붕괴건물과 비슷한 GLCM Dissimilarity 값을 가져 붕괴건물 후보군으로 함께 추출되었다.
그 후 PlanetScope 위성영상을 이용해 도출된 변화탐지 결과를 기준으로 붕괴건물 후보군으로 추출된 객체 중 과탐지된 객체들을 제거하였다. 더 나은 정확도를 위해 UAV 분할 영상에서 붕괴건물로 분류되지 않은 일부의 객체들을 추가적으로 붕괴건물로 재분류하여 최종 붕괴건물 탐지결과를 도출하였다.
8cm로 높은 공간해상도를 가지는 UAV 영상의 효율적인 활용을 위해 객체기반 분석을 수행했으며 이를 통해 분할 객체 기반의 여러 가지 특징 정보를 활용하였다. 또한, 연구지역의 붕괴 전 시기에 대한 영상을 얻을 수 없다는 UAV 영상의 한계점을 보완하기 위해 연구지역의 건물 붕괴 전, 후 시계열 데이터를 모두 취득할 수 있는 위성영상 PlanetScope를 이용해 두 시기 간의 변화 탐지 결과를 도출하였으며 이를 붕괴건물 탐지에 함께 사용하였다. 최종적으로 단일의 UAV 영상만을 이용했을 때의 붕괴건물 탐지 결과와 PlanetScope를 통해 취득한 변화탐지 결과를 함께 이용해 붕괴건물 탐지 결과를 정량적인 비교평가를 통해 제안 기법의 활용 가능성을 평가하였다.
(6)). 본 연구에서는 붕괴건물과 그 외의 지역을 각각 P (Positive)와 N (Negative)으로 나타내었다. 또한, 붕괴건물이 붕괴건물로 제대로 탐지된 경우 TP (True Positive), 붕괴건물이 붕괴건물로 탐지되지 않았을 경우 TN (True Negative),붕괴건물 외의 객체가 붕괴건물로 오탐지된 경우 FP (False Positive) 그리고 붕괴건물이 그 외의 지역으로 오탐지된 경우 를 FN (False Negative)이라고 정의하였다.
분할 영상 생성을 위한 최적 파라미터는 데이터를 취득한 센서의 특성 그리고 분할 영상을 이용해 수행할 연구의 방향성에 따라 달라지며 이는 연구자의 판단에 의해 결정된다. 본 연구에서는 적당한 개수의 객체 생성과 분할 객체 생성 시 붕괴건물들의 일정하지 않은 가장자리가 잘 표현되는 것에 중점을 맞췄으며 이를 위해 compactness 파라미터 값을 크게 설정하였다. 이에 scale 100, shape 0.
최종적인 변화탐지 정확도 평가를 위해서 포털 사이트에서 제공하는 산불발생 전의 위성영상과 UAV 영상을 중첩시켜 작성한 참조 자료를 사용하였다. 본 연구에서는 참조 자료를 이용한 재현율 평가는 오탐지를 나타내는 FPR (False Positive Rate)과 PPV (Positive Prediction Value) 그리고 FNR (False Negative Rate)의 조화평균인 F1-score를 통해 평가하였다 (Eqs. (4) and (5)).
붕괴건물 탐지 정확도를 높이기 위해 PlanetScope를 통해 취득한 CVA 변화탐지 결과를 시드 화소(seed pixel)로 활용하였다. 이를 위해 CVA 기반 변화탐지 결과에서 변화지역으로 나타난 붕괴건물의 위치를 추출하였다.
붕괴건물 탐지에 앞서 연구 대상지를 촬영한 UAV의 광학영상만을 이용하여 분할 영상을 생성하였다. 분할 영상 생성을 위한 최적 파라미터는 데이터를 취득한 센서의 특성 그리고 분할 영상을 이용해 수행할 연구의 방향성에 따라 달라지며 이는 연구자의 판단에 의해 결정된다.
붕괴건물 후보군 탐지를 위해 총 3가지의 특징 정보를 사용하였다. 각 특징 정보에 대해 통계적 계산을 거친 후 각 객체에 할당하였으며 이후 시각적 분석을 통해 선정된 가중치를 기준으로 붕괴건물 후보군과 비관심 지역으로 분류하였다.
붕괴건물 후보군으로 오분류된 비관심 지역 중 가장 두드러지는 산불피해 산림지역을 비관심 지역으로 재분류하고자 Maximum DSM를 사용하였다. 이는 객체 내에 위치하는 화소들이 갖는 DSM 값 중 가장 큰 값을 객체 값으로 할당한다(Fig.
이 과정에서 탐지되지 않은 붕괴건물에 대한 추가적인 정보를 얻기 위해 PlanetScope 영상에 변화탐지를 수행하였다. 붕괴건물에 대한 위치를 변화탐지 결과를 통해 얻었으며 이를 바탕으로 UAV 영상만을 이용해 탐지된 붕괴건물 후보군을 보완하였다. 본 연구의 흐름도는 Fig.
GLCM texture에는 Homogeneity, Contrast, Angular Second Moment, Dissimilarity, Entropy, Energy 등이 있으며 그 중 Dissimilarity는 화소 사이의 차이를 이용해 산출되게 되며 커널 내에 화소 값 차이가 크게나는 화소의 수가 많을수록 큰 값을 갖게 된다. 붕괴건물을 이루는 화소 값들은 주변 다른 객체에 비해 그 차가 크므로 GLCM Dissimilarity 값을 붕괴건물 후보군 탐지에 사용하였다. GLCM Dissimilarity의 계산 방법은 Eq.
산림지역을 비관심 지역으로 분류한 후 붕괴건물 후보군 탐지를 위해 각 객체를 각각의 커널로 취급하여 GLCM Dissimilarity를 계산하였다. 각 객체가 갖는 GLCM Dissimilarity 값은 Fig.
객체기반으로 분할된 고해상도 UAV 영상에 다양한 특징 정보를 생성하여 붕괴건물 후보군을 탐지하였으며 PlanetScope 영상을 통해 취득한 변화탐지 결과를 참고하여 최종적인 붕괴건물 탐지 결과를 도출하였다. 이 과정에서 UAV 영상에 ExG, GLCM Dissimilarity 그리고 Maximum DSM 특징 정보들을 생성하였으며 이 과정에서 시각적 분석을 통한 가중치를 설정하여 붕괴건물과 미관심지역으로 분류하였다. 그 후 PlanetScope 위성영상을 이용해 도출된 변화탐지 결과를 기준으로 붕괴건물 후보군으로 추출된 객체 중 과탐지된 객체들을 제거하였다.
그 후 eCognition 소프트웨어를 이용해 UAV 객체 분할 영상을 생성한 후 다양한 texture 정보를 이용해 붕괴건물 후보군을 1차적으로 탐지하였다. 이 과정에서 탐지되지 않은 붕괴건물에 대한 추가적인 정보를 얻기 위해 PlanetScope 영상에 변화탐지를 수행하였다. 붕괴건물에 대한 위치를 변화탐지 결과를 통해 얻었으며 이를 바탕으로 UAV 영상만을 이용해 탐지된 붕괴건물 후보군을 보완하였다.
붕괴건물 탐지 정확도를 높이기 위해 PlanetScope를 통해 취득한 CVA 변화탐지 결과를 시드 화소(seed pixel)로 활용하였다. 이를 위해 CVA 기반 변화탐지 결과에서 변화지역으로 나타난 붕괴건물의 위치를 추출하였다. 이 위치 정보를 분할 영상(Fig.
첫 번째 과정으로 붕괴건물을 제외한 연구지역 내에서 대부분의 영역을 차지하는 식생지역을 제거해주었다. 이를 위해 광학 밴드만을 이용해 효과적인 식생탐지를 가능하게 하는 ExG를 사용하였다. 식생지역은 0이상의 ExG 값을 보였으며 이에 ExG 값이 0보다 큰 지역을 비관심영역으로 분류하였다(Fig.
이 과정에서 산불 피해를 입은 나무들이 속한 객체 또한 붕괴건물과 비슷한 GLCM Dissimilarity 값을 가져 붕괴건물 후보군으로 함께 추출되었다. 이를 제거해주기 위해 DSM 값을 이용하였으며 산불 피해를 입은 산림들과 Means DSM 값이 유사한 일부의 붕괴건물들이 비관심지역으로 오탐지되는 것을 방지하기 위해 객체 내에서 가장 큰 DSM 값을 객체 값으로 할당하는 Maximum DSM을 사용해 붕괴건물로 오탐지된 산불피해를 입은 나무들을 제거해주었다.
객체들의 특징 정보들을 이용해 붕괴건물 후보군 탐지를 수행할 경우 각 객체 별 다양한 특징 정보를 이용해 비교적 손쉬운 탐지가 가능하다는 장점이 있지만 붕괴건물로 오탐지된 객체나 특징 정보를 사용했음에도 불구하고 탐지되지 않은 객체가 필연적으로 발생하게 된다. 이를 해결하기 위해 PlanetScope의 이에 붕괴건물 탐지 정확도 향상을 위해 붕괴 건물에 대한 위치 정보가 필요하다고 판단했으며 PlanetScope 영상을 이용한 변화탐지를 수행하였다. 이를 위해 산불 발생전(2019/03/13), 산불 발생 후(2019/05/17) 두 시기 영상 간 대표적인 변화탐지 기법인 CVA (Change Vector Analysis)를 이용하였으며 CVA 변화확률 지도는 Eq.
, 2017). 이에 본 연구에서는 고해상도 UAV 영상의 효과적인 분석을위해 객체기반 분석을 수행했으며 이를 위해 eCognition 소프트웨어를 이용한 다중해상도 분할(multi-resolution segmentation) 기법을 통해 분할 영상을 생성하였다. 이 기법은 객체 생성 시 공간적 특성과 분광적 특성을 동시에 고려하여 분할 영상을 생성하게 된다.
또한, 연구지역의 붕괴 전 시기에 대한 영상을 얻을 수 없다는 UAV 영상의 한계점을 보완하기 위해 연구지역의 건물 붕괴 전, 후 시계열 데이터를 모두 취득할 수 있는 위성영상 PlanetScope를 이용해 두 시기 간의 변화 탐지 결과를 도출하였으며 이를 붕괴건물 탐지에 함께 사용하였다. 최종적으로 단일의 UAV 영상만을 이용했을 때의 붕괴건물 탐지 결과와 PlanetScope를 통해 취득한 변화탐지 결과를 함께 이용해 붕괴건물 탐지 결과를 정량적인 비교평가를 통해 제안 기법의 활용 가능성을 평가하였다.
대상 데이터
본 연구에서는 Inspire 2와 Zenmuse x4s 센서를 통해 취득한 UAV 영상과 PlanetScope 위성영상을 이용해 취득된 다시기 영상을 사용하였으며 각 센서의 제원은 Tables 1 and 2와 같다. UAV 영상은 Red, Green, Blue 세 개의 광학 밴드를 가지고 있으며 PlanetScope는 광학 밴드와 NIR (Near Infra Red) 총 네 개의 밴드를 가지고 있다.
UAV 영상은 Red, Green, Blue 세 개의 광학 밴드를 가지고 있으며 PlanetScope는 광학 밴드와 NIR (Near Infra Red) 총 네 개의 밴드를 가지고 있다. 연구지역은 강원도 고성군 일대로 이 지역은 2019년 4월 초 발생한 대형 산불로 인해 붕괴된 20여 채의 건물이 위치한 곳으로 선정하였으며 Table3과 같이 동일한 지역에 대해 UAV와 PlanetScope 위성의 영상을 취득하였다(Fig. 1). 이 지역은 주거지가 모여있던 곳으로 산림과 밭 그리고 산불로 인해 붕괴된 건물들의 잔해와 이로 인해 생긴 나지로 형성되어 있다.
eCognition 소프트웨어를 이용한 붕괴건물 후보군 탐지를 위해 ExG (Excess Green), GLCM Dissimilarity 그리고Maximum DSM (Digital Surface Model) 세 가지의 특징 정보를 사용하였다. 연구지역은 산림과 밭 그리고 붕괴건물과 건물이 붕괴되면서 발생한 잔해들이 위치한 곳이다. 이 지역에서 붕괴건물을 분류해내기에 앞서 붕괴건물들을 제외했을 때 가장 큰 면적을 차지하는 산림과 밭을 제거해주기 위해 ExG 값을 사용하였다.
본 연구에서는 적당한 개수의 객체 생성과 분할 객체 생성 시 붕괴건물들의 일정하지 않은 가장자리가 잘 표현되는 것에 중점을 맞췄으며 이를 위해 compactness 파라미터 값을 크게 설정하였다. 이에 scale 100, shape 0.4 그리고 compactness 0.9를 각각의 파라미터로 설정하였으며 이 과정에서 1,134개의 객체로 영상이 분할되었다(Fig. 3).
최종적인 변화탐지 정확도 평가를 위해서 포털 사이트에서 제공하는 산불발생 전의 위성영상과 UAV 영상을 중첩시켜 작성한 참조 자료를 사용하였다. 본 연구에서는 참조 자료를 이용한 재현율 평가는 오탐지를 나타내는 FPR (False Positive Rate)과 PPV (Positive Prediction Value) 그리고 FNR (False Negative Rate)의 조화평균인 F1-score를 통해 평가하였다 (Eqs.
데이터처리
F1-score는 이 둘의 조화평균으로 계산되며 이 값이 클수록 붕괴건물 탐지가 제대로 이루어졌다고 할 수 있다. UAV만을 이용했을 때의 붕괴건물탐지 결과, PlanetScope를 이용한 변화탐지 결과를 이용해 과탐지를 제거하고 난 후의 결과 그리고 미탐지 지역에 대한 추가 탐지를 진행한 후의 결과들의 정량적 평가 결과를 FPR, F1-score 그리고 Kappa 지수를 통해 나타내었다(Table 4).
이론/모형
GLCM Dissimilarity만을 이용하여 붕괴건물 후보군을 분류할 경우 화재로 피해를 입은 다수의 산림 또한 함께 분류되는데 이를 제거하기 위해 DSM을 사용하였다. 연구지역 특성상 객체 내 DSM 값의 표준편차를 나타내는 Std.
연구지역은 산림과 밭 그리고 붕괴건물과 건물이 붕괴되면서 발생한 잔해들이 위치한 곳이다. 이 지역에서 붕괴건물을 분류해내기에 앞서 붕괴건물들을 제외했을 때 가장 큰 면적을 차지하는 산림과 밭을 제거해주기 위해 ExG 값을 사용하였다. 그 후 다른 객체에 비해 붕괴건물 객체들이 큰 값의 GLCM Dissimilarity 값을 가지므로 이를 이용해 붕괴건물 후보군을 분류하였다.
이를 해결하기 위해 PlanetScope의 이에 붕괴건물 탐지 정확도 향상을 위해 붕괴 건물에 대한 위치 정보가 필요하다고 판단했으며 PlanetScope 영상을 이용한 변화탐지를 수행하였다. 이를 위해 산불 발생전(2019/03/13), 산불 발생 후(2019/05/17) 두 시기 영상 간 대표적인 변화탐지 기법인 CVA (Change Vector Analysis)를 이용하였으며 CVA 변화확률 지도는 Eq. (3)을 통해 생성된다.
성능/효과
0562과 비교했을 때 정확도가 향상된 것을 확인할 수 있다. FPR 지표뿐만 아니라 종합적인 참조 영상 재현율 분석 결과 지수인 F1-score에서도 UAV 영상만을 이용해 추출한 결과에서는 0.4867의 값을 갖는 반면 최종 결과에서는 0.8064로 약 65.7% 높게 나타났다. 또한, 두 자료 사이의 일치도 판단의 척도가 되는 Kappa 지수 또한 UAV 영상만으로 도출된 결과보다 최종 결과에서 약 123% 높아진 0.
2535를 가진다. PlanetScope 변화탐지 결과를 이용한 과탐지 제거 결과에서의 FPR 0.0571 그리고 붕괴건물에 대한 미탐지에 대한 부분까지 추가적으로 탐지한 결과의 FPR 0.0562과 비교했을 때 정확도가 향상된 것을 확인할 수 있다. FPR 지표뿐만 아니라 종합적인 참조 영상 재현율 분석 결과 지수인 F1-score에서도 UAV 영상만을 이용해 추출한 결과에서는 0.
그 결과 대부분의 식생지역은 제거가 되었으나 영상의 좌측 상단에 위치한 산불로 인해 피해를 입은 산림지역은 비관심지역으로 분류되지 않은 것을 확인할 수 있다.
본 연구의 객체분석 과정에서 사용한 가중치를 다른 지역이나 다른 데이터에 그대로 적용할 경우 본 연구와 동일한 결과가 나오기 힘드나, 사용된 특징 정보들은 붕괴건물 탐지에 있어 범용성을 가질 것으로 사료된다. 또한, UAV 영상만을 이용했을 때의 붕괴건물 탐지 결과보다 위성영상으로부터 얻은 변화탐지 결과를 함께 이용하여 도출한 붕괴건물 탐지 정확도가 더 높은 것을 확인할 수 있었으며 이를 이용해 객체탐지에 있어서 UAV와 인공위성과 같은 이종센서를 이용한 연구 가능성을 확인하였다.
7% 높게 나타났다. 또한, 두 자료 사이의 일치도 판단의 척도가 되는 Kappa 지수 또한 UAV 영상만으로 도출된 결과보다 최종 결과에서 약 123% 높아진 0.8825의 값을 갖는 것을 확인하였다.
앞서 언급했듯이 UAV 영상만을 이용하여 효과적인 붕괴건물에 어려움이 있음을 확인하였다. 이에 본 연구에서는 PlanetScope 위성영상을 통해 취득된 연구지역의 산불발생 전과 후의 영상을 이용하여 이를 보완하고자 하였다.
후속연구
본 연구의 객체분석 과정에서 사용한 가중치를 다른 지역이나 다른 데이터에 그대로 적용할 경우 본 연구와 동일한 결과가 나오기 힘드나, 사용된 특징 정보들은 붕괴건물 탐지에 있어 범용성을 가질 것으로 사료된다. 또한, UAV 영상만을 이용했을 때의 붕괴건물 탐지 결과보다 위성영상으로부터 얻은 변화탐지 결과를 함께 이용하여 도출한 붕괴건물 탐지 정확도가 더 높은 것을 확인할 수 있었으며 이를 이용해 객체탐지에 있어서 UAV와 인공위성과 같은 이종센서를 이용한 연구 가능성을 확인하였다.
, 2011). 본 연구의 연구지역 또한 초지 및 산림지역인 식생지역이 큰 부분을 차지하며 이를 분류하는 과정이 반드시 선행되어야 한다. 일반적으로 식생지역 추출에는 NIR 밴드를 활용하여 정규식생지수 (NDVI: Normalization Difference Vegetation Index)를 사용하는 것이 일반적이나 취득된 UAV 영상은 NIR 밴드가 포함되지 않은 광학 밴드만으로 구성되어 있어 이를 활용할 수 없다.
참고문헌 (18)
Awrangjeb, M., Zhang, C., and Fraser, C. S. (2011), Improved building detection using texture information, International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences-2011, 38, 5-7 October, Munich, Germany, pp. 143-148.
Hao, L., Zhang, Y., and Cao, Z. (2019), Robust building boundary extraction method based on dual-scale feature classification and decision fusion with satellite image, International journal of remote sensing. Vol. 40, No. 14, pp. 5497-5529.
Haralick, R.M., Shanmugam, K., and Dinstein, I.H. (1973), Textural features for image classification, IEEE Transactions on systems, man, and cybernetics, Vol. SMC-3. No. 6, pp. 610-621.
Hong, Z., Tong, X., Cao, W., Jiang, S., Chen, P., and Liu, S. (2015), Rapid three-dimensional detection approach for building damage due to earthquakes by the use of parallel processing of unmanned aerial vehicle imagery, Journal of Applied Remote Sensing, Vol. 9, No. 1, pp. 097292.
Huang, X., Zhang, L., and Zhu, T. (2013), Building change detection from multitemporal high-resolution remotely sensed images based on a morphological building index, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, Vol. 7, No. 1, pp. 105-115.
Jung, S.J., Kim, T.H., Lee, W.H., and Han, Y.K. (2019), Object-based Change Detection using Various Pixelbased Change Detection Results and Registration Noise, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Vol. 37, No. 6, pp. 481-489. (in Korean with English abstract)
Konstantinidis, D., Stathaki, T., Argyriou, V., and Grammalidis, N. (2016), Building detection using enhanced HOG-LBP features and region refinement processes, IEEE Journal of Selected topics in applied Earth observations and Remote Sensing, Vol. 10, No. 3, pp. 888-905.
Landis, J.R. and Koch, G.G. (1977), An application of hierarchical kappa-type statistics in the assessment of majority agreement among multiple observers, Biometrics, Vol. 33, No. 2, pp. 363-374.
Li, S., Tang, H., He, S., Shu, Y., Mao, T., Li, J., and Xu, Z. (2015), Unsupervised detection of earthquake-triggered roof-holes from UAV images using joint color and shape features, IEEE Geoscience and Remote Sensing Letters, Vol. 12, No. 9, pp. 1823-1827.
Liu, H., Yang, M., Chen, J., Hou, J., and Deng, M. (2018), Lineconstrained shape feature for building change detection in VHR remote sensing imagery, ISPRS International Journal of Geo-Information, Vol. 7, No. 10, pp. 410.
Ma, H., Liu, Y., Ren, Y., and Yu, J. (2020), Detection of Collapsed Buildings in Post-Earthquake Remote Sensing Images Based on the Improved YOLOv3, Remote Sensing, Vol. 12, No. 1, pp. 44.
Mosammam, H.M., Nia, J.T., Khani, H., Teymouri, A., and Kazemi, M. (2017), Monitoring land use change and measuring urban sprawl based on its spatial forms: The case of Qom city, The Egyptian Journal of Remote Sensing and Space Science, Vol. 20, No. 1, pp. 103-116.
Shin, D.Y., Kim, T.H., Han, Y.K., Kim, S.S., and Park, J.S. (2019), Change Detection of Building Demolition Area Using UAV, Korean Journal of Remote Sensing, Vol. 35, No. 5-2, pp. 819-829. (in Korean with English abstract)
Tanchotsrinon, C., Phimoltares, S., and Lursinsap, C. (2013), An autonomic building detection method based on texture analysis, color segmentation, and neural classification, In 2013 5th International Conference on Knowledge and Smart Technology (KST) IEEE-2013, 31 January - 1 February, Chonburi, Thailand, pp. 162-167.
Woebbecke, D.M., Meyer, G.E., Von Bargen, K., and Mortensen, D.A. (1995), Color indices for weed identification under various soil, residue, and lighting conditions, Transactions of the ASAE, Vol. 38, No. 1, pp. 259-269.
Xiao, P., Zhang, X., Wang, D., Yuan, M., Feng, X., and Kelly, M. (2016), Change detection of built-up land: A framework of combining pixel-based detection and objectbased recognition, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 119, pp. 402-414.
Xie, S., Duan, J., Liu, S., Dai, Q., Liu, W., Ma, Y., and Ma, C. (2016), Crowdsourcing rapid assessment of collapsed buildings early after the earthquake based on aerial remote sensing image: A case study of yushu earthquake, Remote Sensing, Vol. 8, No. 9, pp. 759.
Zhang, X., Chen, G., Wang, W., Wang, Q., and Dai, F. (2017), Object-based land-cover supervised classification for very-high-resolution UAV images using stacked denoising autoencoders, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, Vol. 10, No. 7, pp. 3373-3385.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.