$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

입력 영상의 방사학적 불일치 보정이 다중 센서 고해상도 위성영상의 시공간 융합에 미치는 영향
Effect of Correcting Radiometric Inconsistency between Input Images on Spatio-temporal Fusion of Multi-sensor High-resolution Satellite Images 원문보기

대한원격탐사학회지 = Korean journal of remote sensing, v.37 no.5 pt.1, 2021년, pp.999 - 1011  

박소연 (인하대학교 공간정보공학과) ,  나상일 (농촌진흥청 국립농업과학원) ,  박노욱 (인하대학교 공간정보공학과)

초록
AI-Helper 아이콘AI-Helper

다중 센서 영상으로부터 공간 및 시간해상도가 모두 높은 영상을 예측하는 시공간 융합에서 다중 센서 영상의 방사학적 불일치는 예측 성능에 영향을 미칠 수 있다. 이 연구에서는 다중 센서 위성영상의 서로 다른 분광학적 특성을 보정하는 방사보정이 융합 결과에 미치는 영향을 분석하였다. 두 농경지에서 얻어진 Sentinel-2, PlanetScope 및 RapidEye 영상을 이용한 사례연구를 통해 상대 방사보정의 효과를 정량적으로 분석하였다. 사례연구 결과, 상대 방사보정을 적용한 다중 센서 영상을 사용하였을 때 융합의 예측 정확도가 향상되었다. 특히 입력 자료 간 상관성이 낮은 경우에 상대 방사보정에 의한 예측 정확도 향상이 두드러졌다. 분광 특성의 차이를 보이는 다중 센서 자료를 서로 유사하게 변환함으로써 예측 성능이 향상된 것으로 보인다. 이 결과를 통해 상대 방사보정은 상관성이 낮은 다중 센서 위성영상의 시공간 융합에서 예측 능력을 향상시키기 위해 필요할 것으로 판단된다.

Abstract AI-Helper 아이콘AI-Helper

In spatio-temporal fusion aiming at predicting images with both high spatial and temporal resolutionsfrom multi-sensor images, the radiometric inconsistency between input multi-sensor images may affect prediction performance. This study investigates the effect of radiometric correction, which compen...

주제어

표/그림 (13)

AI 본문요약
AI-Helper 아이콘 AI-Helper

제안 방법

  • 이 연구에서는 다중 센서 고해상도 위성영상의 시공간 융합에서 다중 센서 입력 자료의 방사학적 불일치의 보정 여부가 융합 결과에 미치는 영향을 정량적으로 분석하였다. 기존 변화탐지를 위한 상대 방사보정에 적용된 SPIF를 새롭게 정의하여 선형 회귀 기반 상대 방사 보정을 다중 센서 영상에 적용하였다.
  • 이 연구에서는 다중 센서 고해상도 위성영상의 시공간 융합에서 다중 센서 입력 자료의 방사학적 불일치의 보정 여부가 융합 결과에 미치는 영향을 정량적으로 분석하였다. 기존 변화탐지를 위한 상대 방사보정에 적용된 SPIF를 새롭게 정의하여 선형 회귀 기반 상대 방사 보정을 다중 센서 영상에 적용하였다.

대상 데이터

  • 소규모 필지로 구성된 연구 지역을 대상으로 시공간 융합을 적용하기 위해 사례연구에는 Sentinel-2(S2) 영상, PlanetScope(PS) 영상 그리고 RapidEye(RE) 영상을 이용하였다(Table 1). 각 연구 지역에서 재배되는 작물의 생육주기를 고려하여 합천 지역은 3월과 5월 영상을, 해남 지역은 6월과 11월 영상을 사례연구에 이용하였다.
  • 소규모 필지로 구성된 연구 지역을 대상으로 시공간 융합을 적용하기 위해 사례연구에는 Sentinel-2(S2) 영상, PlanetScope(PS) 영상 그리고 RapidEye(RE) 영상을 이용하였다(Table 1). 각 연구 지역에서 재배되는 작물의 생육주기를 고려하여 합천 지역은 3월과 5월 영상을, 해남 지역은 6월과 11월 영상을 사례연구에 이용하였다.
  • 이 연구에서는 공간해상도가 다른 두 위성에 비해 상대적으로 낮은 S2 반사율 영상을 CS 자료로, S2 영상보다 공간해상도가 높은 PS 반사율 영상과 RE반사율 영상을 FS 자료로 간주하였다. PS 영상을 S2 영상과의 시공간 융합에 적용하기 위해서는 공간해상도를 S2 영상의 배수로 구성해야 하기 때문에 최근린 재배열 방법을 이용하여 PS 영상의 공간해상도를 2.
  • 따라서 작물 모니터링은 구름이 없는 시기에 촬영된 영상을 이용해 시계열 자료를 구축할 수 있는 시공간 융합의 적용성이 매우 높다. 이러한 이유로 이 연구에서는 우리나라 마늘과 양파 주산지인 경상남도 합천군 초계면과 논벼와 배추를 재배하는 전라남도 해남군 산이면의 일부 지역을 사례연구 지역으로 선정하였다(Fig. 2).
  • 2). 합천 연구 지역의 면적은 약 676 ha이며, 농경지는 평균 적으로 약 0.4~0.5 ha 면적을 갖는 필지로 구성되어 있다. 해남 연구 지역의 전체 면적은 약 1,156 ha이며, 평균 약 0.
본문요약 정보가 도움이 되었나요?

참고문헌 (27)

  1. Belgiu, M. and A. Stein, 2019. Spatiotemporal image fusion in remote sensing, Remote Sensing, 11(7): 818. 

  2. Canty, M.J., A.A. Nielsen, and M. Schmidt, 2004. Automatic radiometric normalization of multitemporal satellite imagery, Remote Sensing of Environment, 91(3-4): 441-451. 

  3. Dennison, P.E., K.Q. Halligan, and D.A. Roberts, 2004. A comparison of error metrics and constraints for multiple endmember spectral mixture analysis and spectral angle mapper, Remote Sensing of Environment, 93(3): 359-367. 

  4. Du, Y., P.M. Teillet, and J. Cihlar, 2002. Radiometric normalization of multitemporal high-resolution satellite images with quality control for land cover change detection, Remote Sensing of Environment, 82(1): 123-134. 

  5. Gabr, B., M. Ahmed, and Y. Marmoush, 2020. PlanetScope and Landsat 8 imageries for bathymetry mapping, Journal of Marine Science and Engineering, 8(2): 143. 

  6. Gao, F., J. Masek, M. Schwaller, and F. Hall, 2006. On the blending of the Landsat and MODIS surface reflectance: Predicting daily Landsat surface reflectance, IEEE Transactions on Geoscience and Remote Sensing, 44(8): 2207-2218. 

  7. Gevaert, C.M. and F.J. Garcia-Haro, 2015. A comparison of STARFM and an unmixing-based algorithm for Landsat and MODIS data fusion, Remote Sensing of Environment, 156: 34-44. 

  8. Giri, C.P., 2012. Remote Sensing of Land Use and Land Cover: Principles and Applications, CRC Press, Boca Raton, FL, USA. 

  9. Hong, G. and Y. Zhang, 2008. A comparative study on radiometric normalization using high resolution satellite images, International Journal of Remote Sensing, 29(2): 425-438. 

  10. Houborg, R. and M.F. McCabe, 2018. A Cubesat enabled spatio-temporal enhancement method (CESTEM) utilizing Planet, Landsat and MODIS data, Remote Sensing of Environment, 209: 211-226. 

  11. Jang, E., Y.J. Kim, J. Im, and Y.-G. Park, 2021. Improvement of SMAP sea surface salinity in river-dominated oceans using machine learning approaches, GIScience and Remote Sensing, 58(1): 138-160. 

  12. Joyce, K.E., S.E. Belliss, S.V. Samsonov, S.J. McNeill, and P.J. Glassey, 2009. A review of the status of satellite remote sensing and image processing techniques for mapping natural hazards and disasters, Progress in Physical Geography, 33(2): 183-207. 

  13. Kim, J., S. Kang, B. Seo, A. Narantsetseg, and Y. Han, 2020. Estimating fractional green vegetation cover of Mongolian grasslands using digital camera images and MODIS satellite vegetation indices, GIScience and Remote Sensing, 57(1): 49-59. 

  14. Kim, Y. and N.-W. Park, 2019. Comparison of spatiotemporal fusion models of multiple satellite images for vegetation monitoring, Korean Journal of Remote Sensing, 35(6-3): 1209-1219 (in Korean with English abstract). 

  15. Kim, Y., P.C. Kyriakidis, and N.-W. Park, 2020. A cross-resolution, spatiotemporal geostatistical fusion model for combining satellite image time-series of different spatial and temporal resolutions, Remote Sensing, 12(10): 1553. 

  16. Latte, N. and P. Lejeune, 2020. PlanetScope radiometric normalization and Sentinel-2 super-resolution (2.5 m): A straightforward spectral-spatial fusion of multi-satellite multi-sensor images using residual convolutional neural networks, Remote Sensing, 12(15): 2366. 

  17. Leach, N., N.C. Coops, and N. Obrknezev, 2019. Normalization method for multi-sensor high spatial and temporal resolution satellite imagery with radiometric inconsistencies, Computers and Electronics in Agriculture, 164: 104893. 

  18. Park, S., Y. Kim, S.-I. Na, and N.-W. Park, 2020. Evaluation of spatio-temporal fusion models of multi-sensor high-resolution satellite Images for crop monitoring: An experiment on the fusion of Sentinel-2 and RapidEye images, Korean Journal of Remote Sensing, 36(5-1): 807-821 (in Korean with English abstract). 

  19. Planet, 2021. Planet Imagery Product Specifications, https://assets.planet.com/docs/Planet_Combined_Imagery_Product_Specs_letter_screen.pdf, Accessed on Aug. 31, 2021. 

  20. Sadeh, Y., X. Zhu, D. Dunkerley, J.P. Walker, Y. Zhang, O. Rozenstein, and K. Chenu, 2021. Fusion of Sentinel-2 and PlanetScope time-series data into daily 3 m surface reflectance and wheat LAI monitoring, International Journal of Applied Earth Observation and Geoinformation, 96: 102260. 

  21. Wilson, N., J. Greenberg, A. Jumpasut, A. Collison, and H. Weichelt, 2017. Absolute Radiometric Calibration of Planet Dove Satellites, Flocks 2p and 2e, https://earth.esa.int/eogateway/documents/20142/1305226/Absolute-Radiometric-Calibration-Planet-DoveFlocks-2p-2e.pdf, Accessed on Aug. 30, 2021. 

  22. Yang, X. and C.P. Lo, 2000. Relative radiometric normalization performance for change detection from multi-date satellite images, Photogrammetric Engineering and Remote Sensing, 66(8): 967-980. 

  23. Zhang, W., A. Li, H. Jin, J. Bian, Z. Zhang, G. Lei, and C. Huang, 2013. An enhanced spatial and temporal data fusion model for fusing Landsat and MODIS surface reflectance to generate high temporal Landsat-like data, Remote Sensing, 5(10): 5346-5368. 

  24. Zhao, Y., B. Huang, and H. Song, 2018. A robust adaptive spatial and temporal image fusion model for complex land surface changes, Remote Sensing of Environment, 208: 42-62. 

  25. Zhou, J., J. Chen, X. Chen, X. Zhu, Y. Qiu, H. Song, and X. Cui, 2021. Sensitivity of six typical spatiotemporal fusion methods to different influential factors: A comparative study for a normalized difference vegetation index time series reconstruction, Remote Sensing of Environment, 252: 112130. 

  26. Zhu, X., F. Cai, J. Tian, and T.K.A. Williams, 2018. Spatiotemporal fusion of multisource remote sensing data: Literature survey, taxonomy, principles, applications, and future directions, Remote Sensing, 10(4): 527. 

  27. Zhu, Z., 2017. Change detection using Landsat time series: A review of frequencies, preprocessing, algorithms, and applications, ISPRS Journal of Photogrammetry and Remote Sensing, 130: 370-384. 

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로