최근 기후변화로 인해 중대형 산불이 빈번하게 발생하여 매년 인명 및 재산피해로 이어지고 있다. 원격탐사를 활용한 산불 피해지 모니터링 기법은 신속한 정보와 대규모 피해지의 객관적인 결과를 취득할 수 있다. 본 연구에서는 산불 피해지를 분류하기 위해 Sentinel-2의 분광대역, 정규식생지수(normalized difference vegetation index, NDVI), 정규수역지수(normalized difference water index, NDWI)를 활용하여 2022년 3월 발생한 강릉·동해 산불 피해지를 대상으로 U-net 기반 convolutional neural networks (CNNs) 딥러닝 모형을 모의하였다. 산불 피해지 분류 결과 강릉·동해 산불 피해지의 경우 97.3% (f1=0.486, IoU=0.946)로 분류 정확도가 높았으나, 과적합(overfitting)의 가능성을 배제하기 어려워 울진·삼척 지역으로 동일한 모형을 적용하였다. 그 결과, 국립산림과학원에서 보고한 산불 피해 면적과의 중첩도가 74.4%로 확인되어 모형의 불확도를 고려하더라도 높은 수준의 정확도를 확인하였다. 본 연구는 농림위성과 유사한 분광대역을 선택적으로 사용하였으며, Sentinel-2 영상을 활용한 산불 피해지 분류가 정량적으로 가능함을 시사한다.
최근 기후변화로 인해 중대형 산불이 빈번하게 발생하여 매년 인명 및 재산피해로 이어지고 있다. 원격탐사를 활용한 산불 피해지 모니터링 기법은 신속한 정보와 대규모 피해지의 객관적인 결과를 취득할 수 있다. 본 연구에서는 산불 피해지를 분류하기 위해 Sentinel-2의 분광대역, 정규식생지수(normalized difference vegetation index, NDVI), 정규수역지수(normalized difference water index, NDWI)를 활용하여 2022년 3월 발생한 강릉·동해 산불 피해지를 대상으로 U-net 기반 convolutional neural networks (CNNs) 딥러닝 모형을 모의하였다. 산불 피해지 분류 결과 강릉·동해 산불 피해지의 경우 97.3% (f1=0.486, IoU=0.946)로 분류 정확도가 높았으나, 과적합(overfitting)의 가능성을 배제하기 어려워 울진·삼척 지역으로 동일한 모형을 적용하였다. 그 결과, 국립산림과학원에서 보고한 산불 피해 면적과의 중첩도가 74.4%로 확인되어 모형의 불확도를 고려하더라도 높은 수준의 정확도를 확인하였다. 본 연구는 농림위성과 유사한 분광대역을 선택적으로 사용하였으며, Sentinel-2 영상을 활용한 산불 피해지 분류가 정량적으로 가능함을 시사한다.
Recently, forest fires have frequently occurred due to climate change, leading to human and property damage every year. The forest fire monitoring technique using remote sensing can obtain quick and large-scale information of fire-damaged areas. In this study, the Gangneung and Donghae forest fires ...
Recently, forest fires have frequently occurred due to climate change, leading to human and property damage every year. The forest fire monitoring technique using remote sensing can obtain quick and large-scale information of fire-damaged areas. In this study, the Gangneung and Donghae forest fires that occurred in March 2022 were analyzed using the spectral band of Sentinel-2, the normalized difference vegetation index (NDVI), and the normalized difference water index (NDWI) to classify the affected areas of forest fires. The U-net based convolutional neural networks (CNNs) model was simulated for the fire-damaged areas. The accuracy of forest fire classification in Donghae and Gangneung classification was high at 97.3% (f1=0.486, IoU=0.946). The same model used in Donghae and Gangneung was applied to Uljin and Samcheok areas to get rid of the possibility of overfitting often happen in machine learning. As a result, the portion of overlap with the forest fire damage area reported by the National Institute of Forest Science (NIFoS) was 74.4%, confirming a high level of accuracy even considering the uncertainty of the model. This study suggests that it is possible to quantitatively evaluate the classification of forest fire-damaged area using a spectral band and indices similar to that of the Compact Advanced Satellite 500 (CAS500-4) in the Sentinel-2.
Recently, forest fires have frequently occurred due to climate change, leading to human and property damage every year. The forest fire monitoring technique using remote sensing can obtain quick and large-scale information of fire-damaged areas. In this study, the Gangneung and Donghae forest fires that occurred in March 2022 were analyzed using the spectral band of Sentinel-2, the normalized difference vegetation index (NDVI), and the normalized difference water index (NDWI) to classify the affected areas of forest fires. The U-net based convolutional neural networks (CNNs) model was simulated for the fire-damaged areas. The accuracy of forest fire classification in Donghae and Gangneung classification was high at 97.3% (f1=0.486, IoU=0.946). The same model used in Donghae and Gangneung was applied to Uljin and Samcheok areas to get rid of the possibility of overfitting often happen in machine learning. As a result, the portion of overlap with the forest fire damage area reported by the National Institute of Forest Science (NIFoS) was 74.4%, confirming a high level of accuracy even considering the uncertainty of the model. This study suggests that it is possible to quantitatively evaluate the classification of forest fire-damaged area using a spectral band and indices similar to that of the Compact Advanced Satellite 500 (CAS500-4) in the Sentinel-2.
따라서 본 연구에서는 위성의 다중 분광대역을 활용한 산불 피해지 분류 딥러닝 알고리즘 개발에 초점을 맞췄으며, 2022년 발생한 강릉·동해, 울진·삼척 산불 피해지를 대상으로 향후 개발될 농림위성의 활용을 고려해 피해 전후 Sentinel 위성영상 자료를 사용하여 산불 피해지 분류 모형을 모의 및 평가하고자 한다.
본 연구는 Sentinel-2 영상에서 농림위성과 유사한 분광대역을 활용하여 산불 피해지 분류 가능성을 검증하고 평가하기 위해 수행되었다. 현재 Sentinel 영상을 활용한 분석은 5일 단위로 가능하지만, 이 또한 대상지 관측을 위한 운량 등의 기상 조건이 갖추어질 경우에 해당한다.
아울러, 농림위성 영상이 산림 정책에 활용될 수 있는 수준으로 제공되기 위해 정부, 지방자치단체, 대학, 기업, 일반 국민 등으로 세분화하여 주체 간 직접 활용이 가능한 형태의 산불 정보를 연계하는 과정이 필요하다. 본 연구는 농림위성을 통해 생산된 자료의 이용에 대한 명확한 기준을 수립하여 산림관리기준을 개선하기 위한 기초 자료로서 의미가 있다.
대상 데이터
산불이 발생하기 전후의 지수의 차이를 학습자료로 활용하기 위해 2월과 3월, 2월과 4월 NDVI와 NDWI 변위를 산출하였으며, 지수 고유의 값과 normalized NDVI, normalized NDWI를 모두 입력자료로 활용하였다.
연구지역은 2022년 3월 5일부터 3월 8일까지 산불이 발생한 강릉·동해 지역(128°59′E–129°70′E, 37°31′N–37°36′N)과 2022년 3월 4일부터 13일까지 산불이 발생한 울진·삼척 지역(129°11′E–129°27′E, 36°59′N–37°10′N)이다(Fig
이론/모형
강릉·동해 산불 피해지 분류를 위해 산림청에서 조사한 현장조사 자료와 Sentinel-2의 분광 대역 및 지수를 활용하여 U-net 기반 CNNs 모형을 구축하였다.
따라서 강릉·동해 산불로 개발한 U-net 기반 CNNs 모형을 유사시기에 발생한 울진·삼척 산불에 적용하였다.
성능/효과
산불 발생 면적과 현장조사(reference)의 범위에 따라 학습이 편향되지 않도록 class weight을 설정해 bias를 조정할 수 있다. Class weight의 최적 값을 찾기 위해 각 값을 변경하며 모형을 반복 구동하였으며, class weight 0부터 5사이일 때 loss가 가장 안정적으로 감소하였다. Loss weight이 0으로 설정할 경우 모형에서는 background 픽셀보다 산불이라 의심되는 픽셀을 정확하게 식별하려 노력한다.
Patch size가 증가할수록 feature 픽셀을 oversampling하여 과적합을 방지하고 모형을 더 일반적으로 만들 수 있다. 대상지의 규모를 고려했을 때 patch size는 304에서 784까지 실험하였으며, epoch당 loss를 보았을 때 patch size 512가 가장 적합함을 확인하였다. Patches per image는 epoch에 따라 50에서 350사이에 50단위로 가감하였다.
Blur distance의 조정을 통해 영상 edge에 대한 학습량을 조정할 수 있지만, 최대값이 과하게 설정되면 전체적인 분석 결과가 보간되어 손실될 수 있다. 따라서 blur distance의 값을 0부터 100까지 반복 구동을 5단위로 실험하였으며, 0~80 범위에서 edge에 대한 학습량이 고르게 분포하며, 결과물의 손실이 적음을 확인하였다.
향후 농림위성이 발사되어 일 단위의 영상을 확보되어 추가적인 알고리즘 개선이 된다면, 산불이 발생 후 일자별 면적 산출이 높은 정확도로 탐지될 수 있을 것으로 기대된다. 본 연구를 통해 U-net 기반 CNNs은 위성영상에서 산불의 전후 영향으로 인한 특징을 학습할 수 있으며, 종단간 학습 기능은 광범위한 전처리를 단순화시키는데 용이한 것으로 확인되었다. 이는 위성영상으로 산불 탐지를 할 수 있는 긍정적인 면을 전망하지만, 여전히 위성영상만으로 산불을 탐지하는 것은 한계가 있다.
후속연구
딥러닝을 기반으로 데이터에서 특징을 학습하고 산불 피해지 분류를 위한 방법론을 개발하는 연구는 국내에서 수행되고 있으나 충분히 수행되지 않았다. 2025년 발사될 농림위성의 1일 단위로 산출되는 방대한 양의 위성영상 분석을 위해서는 딥러닝을 통한 산불 피해지 분류 알고리즘 개발이 시급하다. 따라서 본 연구에서는 위성의 다중 분광대역을 활용한 산불 피해지 분류 딥러닝 알고리즘 개발에 초점을 맞췄으며, 2022년 발생한 강릉·동해, 울진·삼척 산불 피해지를 대상으로 향후 개발될 농림위성의 활용을 고려해 피해 전후 Sentinel 위성영상 자료를 사용하여 산불 피해지 분류 모형을 모의 및 평가하고자 한다.
강릉·동해 산불을 대상으로 구축한 U-net 기반 CNNs은 상당히 높은 정확도로 모형이 개발되었지만, 여전히 강릉·동해 지역을 대상으로 모형이 과적합(overfitting) 되었을 수 있으므로 추가적인 산불 발생지에 대한 검증이 필요하다
정확도 높은 분류 모형을 만들기 위해서는 산불 피해지에 대한 정밀한 현장조사자료의 누적이 필요하다. 또한, 우리나라 전역에 적용하기 위해 현재 시도하지 못한 최적의 매개 변수 조합을 찾아야 할 과제가 남아있다. 향후 산불피해지역의 신속하고 정확한 피해지 구획, 임상별 피해강도 평가 등 다양한 경관평가를 위해서는 추가적으로 넓고 촘촘한 분광대역을 가진 위성영상 뿐만 아니라 LiDAR, RADAR, 지형, 기후요인 등의 입력 변수를 추가하여 방법론을 더욱 개선하고 보다 정확한 추정 모형을 구축할 필요가 있다.
현재 Sentinel 영상을 활용한 분석은 5일 단위로 가능하지만, 이 또한 대상지 관측을 위한 운량 등의 기상 조건이 갖추어질 경우에 해당한다. 향후 농림위성이 발사되어 일 단위의 영상을 확보되어 추가적인 알고리즘 개선이 된다면, 산불이 발생 후 일자별 면적 산출이 높은 정확도로 탐지될 수 있을 것으로 기대된다. 본 연구를 통해 U-net 기반 CNNs은 위성영상에서 산불의 전후 영향으로 인한 특징을 학습할 수 있으며, 종단간 학습 기능은 광범위한 전처리를 단순화시키는데 용이한 것으로 확인되었다.
또한, 우리나라 전역에 적용하기 위해 현재 시도하지 못한 최적의 매개 변수 조합을 찾아야 할 과제가 남아있다. 향후 산불피해지역의 신속하고 정확한 피해지 구획, 임상별 피해강도 평가 등 다양한 경관평가를 위해서는 추가적으로 넓고 촘촘한 분광대역을 가진 위성영상 뿐만 아니라 LiDAR, RADAR, 지형, 기후요인 등의 입력 변수를 추가하여 방법론을 더욱 개선하고 보다 정확한 추정 모형을 구축할 필요가 있다. 아울러, 농림위성 영상이 산림 정책에 활용될 수 있는 수준으로 제공되기 위해 정부, 지방자치단체, 대학, 기업, 일반 국민 등으로 세분화하여 주체 간 직접 활용이 가능한 형태의 산불 정보를 연계하는 과정이 필요하다.
참고문헌 (25)
Cha, S., H.W. Jo, M. Kim, C. Song, H. Lee, E. Park, J. Lim, D. Schepaschenko, A. Shvidenko, and W.K. Lee, 2022. Application of deep learning algorithm for estimating stand volume in South Korea, Journal of Applied Remote Sensing, 16(2): 024503. https://doi.org/10.1117/1.JRS.16.024503
Djalante, R., 2019. Key assessments from the IPCC special report on global warming of 1.5 ℃ and the implications for the Sendai framework for disaster risk reduction, Progress in Disaster Science, 1: 100001. https://doi.org/10.1016/j.pdisas.2019.100001
Escuin, S., R. Navarro, and P. Fernandez, 2008. Fire severity assessment by using NBR (Normalized Burn Ratio) and NDVI (Normalized Difference Vegetation Index) derived from LANDSAT TM/ETM images, International Journal of Remote Sensing, 29(4): 1053-1073. https://doi.org/10.1080/01431160701281072
Gao, B.C., 1996. NDWI-A normalized difference water index for remote sensing of vegetation liquid water from space, Remote Sensing of Environment, 58(3): 257-266. https://doi.org/10.1016/S0034-4257(96)00067-3
Guede-Fernandez, F., L. Martins, R.V. de Almeida, H. Gamboa, and P. Vieira, 2021. A deep learning based object identification system for forest fire detection, Fire, 4(4): 75. https://doi.org/10.3390/fire4040075
He, K., X. Zhang, S. Ren, and J. Sun, 2016. Deep residual learning for image recognition, Proc. of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, Jun. 27-30, pp. 770-778. https://doi.org/10.1109/cvpr.2016.90
Jain, P., S.C. Coogan, S.G. Subramanian, M. Crowley, S. Taylor, and M.D. Flannigan, 2020. A review of machine learning applications in wildfire science and management, Environmental Reviews, 28(4): 478-505. https://doi.org/10.1139/er-2020-0019
Jung, M. and Y. Kim, 2020. Analysis on Topographic Normalization Methods for 2019 Gangneung-East Sea Wildfire Area Using PlanetScope Imagery, Korean Journal of Remote Sensing, 36(2): 179-197 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2020.36.2.1.7
Krizhevsky, A., I. Sutskever, and G.E. Hinton, 2017. Imagenet classification with deep convolutional neural networks, Communications of the ACM, 60(6): 84-90. https://doi.org/10.1145/3065386
Lentile, L.B., Z.A. Holden, A.M.S. Smith, M.J. Falkowski, A.T. Hudak, P. Morgan, S.A. Lewis, P.E. Gessler, and N.C. Benson, 2006. Remote sensing techniques to assess active fire characteristics and post-fire effects, International Journal of Wildland Fire, 15(3): 319-345. https://doi.org/10.1071/WF05097
Liu, Z., K. Zhang, C. Wang, and S. Huang, 2020. Research on the identification method for the forest fire based on deep learning, Optik, 223: 165491. https://doi.org/10.1016/j.ijleo.2020.165491
Magdalena, M.K., P. Bringfried, L. Jerome, D. Vincent, M.W. Uwe, and G. Ferran, 2017. Sen2Cor for Sentinel-2, Proc. of SPIE; International Society for Optics and Photonics, Bellingham, WA, USA, Oct. 4, vol. 10427, pp. 37-48. https://doi.org/10.1117/12.2278218
NIFoS (National Institute of Forest Science), 2022. Occurrence and Damage of Forest Fire, National Institute of Forest Science, Seoul, Korea, p. 20.
Ronneberger, O., P. Fischer, and T. Brox, 2015. October. U-net: Convolutional networks for biomedical image segmentation, In: Navab, N., Hornegger, J., Wells, W., Frangi, A. (eds), Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Springer, Cham, Switzerland, vol. 9351, pp. 234-241. https://doi.org/10.1007/978-3-319-24574-4_28
Rouse Jr, J.W., R.H. Haas, D.W. Deering, J.A. Schell, and J.C. Harlan, 1974. Monitoring the vernal advancement and retrogradation (green wave effect) of natural vegetation, No. E75-10354, Texas A&M University Remote Sensing Center, College Station, TX, USA.
Sim, S., W. Kim, J. Lee, Y. Kang, J. Im, C. Kwon, and S. Kim, 2020. Wildfire Severity Mapping Using Sentinel Satellite Data Based on Machine Learning Approaches, Korean Journal of Remote Sensing, 36(5-3): 1109-1123 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2020.36.5.3.9
Simonyan, K. and A. Zisserman, 2014. Very deep convolutional networks for large-scale image recognition, arXiv preprint arXiv:1409.1556.50. https://doi.org/10.48550/arXiv.1409.1556
Soenen, S.A., D.R. Peddle, and C.A. Coburn, 2005. SCS+ C: A modified sun-canopy-sensor topographic correction in forested terrain, IEEE Transactions on Geoscience and Remote Sensing, 43(9): 2148-2159. https://doi.org/10.1109/TGRS.2005.852480
Song, A., J. Choi, Y. Han, and Y. Kim, 2018. Change detection in hyperspectral images using recurrent 3d fully convolutional networks, Remote Sensing, 10(11): 1827. https://doi.org/10.3390/rs10111827
Stankova, N. and R. Nedkov, 2015. Monitoring forest regrowth with different burn severity using aerial and Landsat data, Proc. of 2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Milan, Italy, Jul. 26-31, pp. 2166-2169. https://doi.org/10.1109/IGARSS.2015.7326233
Szegedy, C., W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, 2015. Going deeper with convolutions, Proc. of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, MA, USA, Jun. 7-12, pp. 1-9. https://doi.org/10.1109/cvpr.2015.7298594
Won, M.S., K.S. Koo, and M.B. Lee, 2007. An Quantitative Analysis of Severity Classification and Burn Severity for the Large Forest Fire Areasusing Normalized Burn Ratio of Landsat Imagery, Journal of the Korean Association of Geographic Information Studies, 10(3): 80-92 (in Korean with English abstract).
Yamashita, R., M. Nishio, R.K.G. Do, and K. Togashi, 2018. Convolutional neural networks: an overview and application in radiology, Insights into Imaging, 9(4): 611-629. https://doi.org/10.1007/s13244-018-0639-9
Zhang, Q., J. Xu, L. Xu, and H. Guo, 2016, Deep convolutional neural networks for forest fire detection, Proc. of the 2016 International Forum on Management, Education and Information Technology Application, Guangzhou, China, Jan. 30-31, pp. 568-575. https://doi.org/10.2991/ifmeita16.2016.105
※ AI-Helper는 부적절한 답변을 할 수 있습니다.