$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

팽창된 잔차 합성곱신경망을 이용한 KOMPSAT-3A 위성영상의 융합 기법
A Pansharpening Algorithm of KOMPSAT-3A Satellite Imagery by Using Dilated Residual Convolutional Neural Network 원문보기

대한원격탐사학회지 = Korean journal of remote sensing, v.36 no.5 pt.2, 2020년, pp.961 - 973  

최호성 (충북대학교 토목공학과) ,  서두천 (한국항공우주연구원 위성정보센터) ,  최재완 (충북대학교 토목공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 CNN (Convolutional Neural Network) 기반의 영상융합 기법을 제안하고자 하였다. 딥러닝 구조의 성능을 향상시키기 위하여, CNN 기법에서 대표적인 합성곱(convolution) 방법으로 알려진 팽창된 합성곱(dilated convolution) 모델을 활용하여 모델의 깊이와 복잡성을 증대시키고자 하였다. 팽창된 합성곱을 기반으로 하여 학습과정에서의 효율을 향상시키기 위하여 잔차 네트워크(residual network)도 활용하였다. 또한, 본 연구에서는 모델학습을 위하여 전통적인 L1 노름(norm) 기반의 손실함수와 함께, 공간 상관도를 활용하였다. 본 연구에서는 전정색 영상만을 이용하거나 전정색 영상과 다중분광 영상을 모두 활용하여 구조에 적용한 DRNet을 개발하여 실험을 수행하였다. KOMPSAT-3A를 활용한 전정색 영상과 다중분광 영상을 이용한 DRNet은 융합영상의 분광특성에 과적합되는 결과를 나타냈으며, 전정색 영상만을 이용한 DRNet이 기존 기법들과 비교하여 융합영상의 공간적 특성을 효과적으로 반영함을 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

In this manuscript, a new pansharpening model based on Convolutional Neural Network (CNN) was developed. Dilated convolution, which is one of the representative convolution technologies in CNN, was applied to the model by making it deep and complex to improve the performance of the deep learning arc...

주제어

표/그림 (15)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 따라서, 딥러닝 모델의 성능을 평가하기 위해서는 학습에 사용되지 않은 자료를 활용하는 것이 필수적이다. 따라서, 본 연구에서는 Fig. 8과 같이, 학습에 사용되지 않았으며, 다른 지역을 촬영한 2장의 KOMPSAT-3A영상을 활용하여 딥러닝 모델의 성능을 평가하고자 하였다. site 1은 2016년 9월 20일에 아루바섬에서 촬영된 도심지 및 해양지역(다중분광 영상 기준 6,015×5,880 크기)이며, site 2는 2017년 10월 15일에 중국 바오타우시에서 촬영된 농경지 및 나지지역(다중분광 영상 기준 6,015×5,780 크기)이다.
  • 이로 인하여, 딥러닝 모델을 통하여 생성된 융합영상은 원 다중분광 영상과 유사한 분광특성을 가지지만, 전정색 영상과 유사한 공간적 특성을 가지지 못할 수 있다. 따라서, 본 연구에서는 식 (2)와 같이 융합영상과 원 다중분광 영상 사이의 공간적인 특성을 반영하기 위한 변수를 손실함수로 추가하고자 하였다. 딥러닝 모델을 통하여 생성된 융합영상은 분광왜곡과 공간선명도를 모두 만족해야 하기 때문에, 식 (1)과 식 (2)를 결합하여 최종적인 손실함수인 식 (3)을 구성하였다.
  • 그러나, 기존에 제안된 대부분의 CNN 아키텍처를 기반으로 하는 영상융합 기법들은 해상도가 강제적으로 저하된 영상을 훈련자료로 활용하여 학습을 진행하기 때문에, 원 공간해상도를 가지는 영상에 학습된 모델을 적용할 경우에는 원 고해상도 전정색 영상의 공간해상도를 지니는 융합영상을 생성하기 어려운 문제가 발생할 수 있다. 따라서, 본 연구에서는 융합영상의 공간해상도를 반영할 수 있는 손실 함수(loss function)을 구성하여, 기존 기법들에서 발생하는 융합영상의 공간해상도 저하 문제를 해결하고자 하였다. 특히, 해당 손실함수를 활용하기 위하여 팽창된 합성곱(dilated convolution)을 이용한 CNN 모델을 제안하였다.
  • 본 연구에서 제안한 DRNet의 성능을 평가하기 위하여, 융합영상의 분광왜곡과 공간선명도를 평가하기 위한 평가지수를 사용하고자 하였다. 융합영상의 분광 왜곡은 ERGAS(Erreur Relative Globale Adimensionnelle de Synthèse), SAM(Spectral Angle Mapper), UIQI(Universal Image Quality Index)를 사용하였다(Vivone et al.
  • 본 연구에서는 고해상도 위성영상의 융합을 위한 CNN 기반의 딥러닝 모델을 제안하고자 하였다. 제안된 모델은 팽창된 합성곱 레이어를 기반으로 하여 잔차 네트워크 구조를 활용하여 영상융합을 위한 네트워크의 성능을 향상시키고자 하였다.
  • 최적의 딥러닝 모델을 구성하기 위해서는 해당 네트워크의 학습을 위한 훈련자료(training data)의 구축이 필수적이다. 본 연구에서는 다양한 지역의 KOMPSAT-3A 위성영상 자료를 이용하여 훈련자료를 구축하고자 하였다. KOMPSAT-3A 자료는 전정색 영상과 다중분광 영상으로 이루어져 있으며, 각각의 공간해상도는 0.
  • 본 연구에서는 팽창된 합성곱을 이용하여 영상융합을 위한 CNN 모델을 구성하고자 하였다. 일반적인 합성곱(convolution)은 Fig.
  • 본 연구에서도 팽창된 합성곱을 이용하여 영상융합을 위한 CNN 아키텍처를 구성하고자 하였다. 특히, CNN의 효율성을 증대시키기 위하여 모델 구성과정에서 합성곱 레이어를 통하여 생성된 출력 레이어와 입력 레이어의 합을 다음 단계의 입력레이어로 활용하는 스킵연결(skip connection)에 의한 잔차 네트워크(residual network)를 기반으로 하는 반복적인 네트워크 구조를 구성하였다.
  • 학습된 모델은 훈련에 사용되지 않은 KOMPSAT-3A 위성영상을 이용하여 융합영상의 분광왜곡과 공간해상도를 평가하였다. 이를 통해, 향후 국토관측위성의 운용시 최적의 융합영상을 생성하기 위한 딥러닝 기반의 방법론을 제안하고자 하였다.
  • 본 연구에서는 고해상도 위성영상의 융합을 위한 CNN 기반의 딥러닝 모델을 제안하고자 하였다. 제안된 모델은 팽창된 합성곱 레이어를 기반으로 하여 잔차 네트워크 구조를 활용하여 영상융합을 위한 네트워크의 성능을 향상시키고자 하였다. 또한, 공간상관도를 기반으로 하는 손실함수를 이용하여 딥러닝 모델의 학습을 수행함으로써, 영상융합에 최적화된 모델을 생성하고자 하였다 KOMPSAT-3A 위성영상을 이용한 실험결과, 본 연구에서 제안된 모델이 KOMPSAT-3A 위성영상의 공간해상도를 효과적으로 향상시킬 수 있음을 확인하였으며, 기존 영상융합 기법 및 딥러닝 모델과 비교하여 우수한 성능을 보임을 확인하였다.
  • site 1은 2016년 9월 20일에 아루바섬에서 촬영된 도심지 및 해양지역(다중분광 영상 기준 6,015×5,880 크기)이며, site 2는 2017년 10월 15일에 중국 바오타우시에서 촬영된 농경지 및 나지지역(다중분광 영상 기준 6,015×5,780 크기)이다. 특히, 본 연구에서 개발한 딥러닝 모델의 효용성을 평가하기 위하여 Level 1R product 단위에 대한 전체영상을 융합하고자 하였다. 따라서, 딥러닝 모델의 훈련과정에서 사용한 64×64 크기의 패치단위로 영상융합을 수행하지 않았다.
  • 한편, 본 논문에서는 다양한 융합기법들과의 비교평가를 통하여 본 논문에서 제안한 DRNet의 성능을 검증하고자 하였다. 비교평가에 사용된 영상융합 기법은 GSA(Gram-SchmidtAdaptive),MTF-GLP(Laplacianpyramids with modulation transfer function-matched filtering), PNN, DiCNN을 선정하였다(Aiazzi et al.
본문요약 정보가 도움이 되었나요?

참고문헌 (13)

  1. Aiazzi, B., L. Alparone, S. Baronti, A. Garzelli, and M. Selva, 2006. MTF-tailored multiscale fusion of highresolution MS and Pan imagery, Photogrammetric Engineering and Remote Sensing, 72(5): 591-596. 

  2. Aiazzi, B., S. Baronti, F. Lotti, and M. Selva, 2009. A comparison between global and context-adaptive pansharpening of multispectral images, IEEE Geoscience and Remote Sensing Letters, 6(2): 302-306. 

  3. Chen, L.C., Y. Zhu, G. Papandreou, F. Schroff, and H. Adam, 2018. Encoder-decoder with atrous separable convolution for semantic image segmentation, Proc. of the European Conference on Computer Vision (ECCV), Munich, Germany, Sep. 8-14, pp. 801-818. 

  4. Choi, J., J. Yeom, A. Chang, Y. Byun, and Y. Kim, 2013. Hybrid pansharpening algorithm for high spatial resolution satellite imagery to improve spatial quality, IEEE Geoscience and Remote Sensing Letters, 10(3): 490-494. 

  5. Garzelli, A., F. Nencini, and L. Capobianco, 2008. Optimal MMSE pan sharpening of very high resolution multispectral images, IEEE Transactions on Geoscience and Remote Sensing, 46(1): 228-236. 

  6. He, L., Y. Rao, J. Lim, J. Chanussot, A. Plazam, J. Zhu, and B. Li, 2019. Pansharpening via detail injection based convolutional neural networks, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 12(4): 1188-1204. 

  7. Kim, Y., J. Choi, and Y. Kim, 2018. Image fusion methods for multispectral and panchromatic images of Pleiades and KOMPSAT 3 Satellites, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 36(5): 413-422. 

  8. Masi, G., D. Cozzolino, L. Verdoliva, and G. Scarpa, 2016. Pansharpening by convolutional neural networks, Remote Sensing, 8(7): 594. 

  9. Park, S.W., S.K. Choi, J.W. Choi, and S.K. Lee, 2018. Accuracy assessment of sharpening algorithms of thermal infrared image based on UAV, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 36(6): 555-563 (in Korean with English abstract). 

  10. Vivone, G., L. Alparone, J. Chanussot, M. Dalla Mura, A. Garzelli, G.A. Licciardi, R. Restaino, and L. Wald, 2015. A critical comparison among pansharpening algorithms, IEEE Transactions on Geoscience and Remote Sensing, 53(5): 2565-2586. 

  11. Wang, Z. and A.C. Bovik, 2002. A universal image quality index, IEEE Signal Processing Letters, 9(3): 81-84. 

  12. Yang, J., X. Fu, Y. Hu, Y. Huang, X. Ding, and J. Paisley, 2017. PanNet: A deep network architecture for pan-sharpening, Proc. of the IEEE International Conference on Computer Vision (ICCV), Venice, Italy, Oct. 22-29, vol. 1, pp. 1753-1761. 

  13. Zhang, Y., 2004. Understanding image fusion, Photogrammetric Engineering and Remote Sensing, 70(6): 657-661. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로