$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

광학 위성 영상 기반 선박탐지의 정확도 개선을 위한 딥러닝 초해상화 기술의 영향 분석
Impact Analysis of Deep Learning Super-resolution Technology for Improving the Accuracy of Ship Detection Based on Optical Satellite Imagery 원문보기

대한원격탐사학회지 = Korean journal of remote sensing, v.38 no.5 pt.1, 2022년, pp.559 - 570  

박성욱 (나라스페이스 테크놀로지) ,  김영호 (나라스페이스 테크놀로지) ,  김민식 (나라스페이스 테크놀로지)

초록
AI-Helper 아이콘AI-Helper

광학 위성 영상의 공간해상도가 낮게 되면 크기가 작은 객체들의 경우 객체 탐지의 어려움이 따른다. 따라서 본 연구에서는 위성 영상의 공간해상도를 향상시키는 초해상화(Super-resolution) 기술이 객체 탐지 정확도 향상에 대한 영향이 유의미한지 알아보고자 하였다. 쌍을 이루지 않는(unpaired) 초해상화 알고리즘을 이용하여 Sentinel-2 영상의 공간해상도를 3.2 m로 향상시켰으며, 객체 탐지 모델인 Faster-RCNN, RetinaNet, FCOS, S2ANet을 활용하여 초해상화 적용 유무에 따른 선박 탐지 정확도 변화를 확인했다. 그 결과 선박 탐지 모델의 성능 평가에서 초해상화가 적용된 영상으로 학습된 선박 탐지 모델들에서 Average Precision (AP)가 최소 12.3%, 최대 33.3% 향상됨을 확인하였고, 초해상화가 적용되지 않은 모델에 비해 미탐지 및 과탐지가 줄어듦을 보였다. 이는 초해상화 기술이 객체 탐지에서 중요한 전처리 단계가 될 수 있다는 것을 의미하고, 객체 탐지와 더불어 영상 기반의 다른 딥러닝 기술의 정확도 향상에도 크게 기여할 수 있을 것으로 기대된다.

Abstract AI-Helper 아이콘AI-Helper

When a satellite image has low spatial resolution, it is difficult to detect small objects. In this research, we aim to check the effect of super resolution on object detection. Super resolution is a software method that increases the resolution of an image. Unpaired super resolution network is used...

주제어

표/그림 (14)

AI 본문요약
AI-Helper 아이콘 AI-Helper

제안 방법

  • 기존 선행된 연구들은 공간해상도가 높은 영상을 사용하는 경우가 대부분이지만, 본 연구에서는 초해상화의 효과를 더 명확하게 확인하기 위해 상대적으로 공간 해상도가 낮은 Sentinel-2 위성 영상을 활용해 데이터를 구축하였다. Sentinel-2 영상의 10 m 공간해상도를 초해상화 기술을 통해 약 3배 향상시키고, 이를 객체 탐지 모델의 학습에 활용하여 초해상화를 적용하지 않은 non-SR 모델(10 m)과 SR 모델(3.2 m)의 객체 탐지 성능을 비교하였다.
  • 기존 선행된 연구들은 공간해상도가 높은 영상을 사용하는 경우가 대부분이지만, 본 연구에서는 초해상화의 효과를 더 명확하게 확인하기 위해 상대적으로 공간 해상도가 낮은 Sentinel-2 위성 영상을 활용해 데이터를 구축하였다. Sentinel-2 영상의 10 m 공간해상도를 초해상화 기술을 통해 약 3배 향상시키고, 이를 객체 탐지 모델의 학습에 활용하여 초해상화를 적용하지 않은 non-SR 모델(10 m)과 SR 모델(3.

대상 데이터

  • 영상 수집 지역은 Fig. 1과 같이 세계 컨테이너 항만들 중 상위권 내에 있는 부산, 싱가포르, 로스앤젤레스, 홍콩 지역의 항구와 연안 해역을 중심으로 수집하였다. 2019년부터 2022년까지의 영상 중 구름의 영향이 거의 없는 청천일 영상들을 위주로 수집하였다.
  • 1과 같이 세계 컨테이너 항만들 중 상위권 내에 있는 부산, 싱가포르, 로스앤젤레스, 홍콩 지역의 항구와 연안 해역을 중심으로 수집하였다. 2019년부터 2022년까지의 영상 중 구름의 영향이 거의 없는 청천일 영상들을 위주로 수집하였다. 수집된 영상의 총 개수는 40장이며, 1024×1024 크기의 패치 단위로 영상을 나누었다.
  • 또한 모델의 탐지 성능을 육안으로 확인하기 위해 학습에 사용되지 않은 네덜란드의 로테르담 항구 부근 영상을 테스트 지역으로 사용했으며, 다양한 조건에서의 탐지 성능을 알아보기 위해 Fig. 9, 10과 같이 테스트 지역을 로테르담 항구 부근 4곳으로 선정하였다.
  • 또한 모델의 탐지 성능을 육안으로 확인하기 위해 학습에 사용되지 않은 네덜란드의 로테르담 항구 부근 영상을 테스트 지역으로 사용했으며, 다양한 조건에서의 탐지 성능을 알아보기 위해 Fig. 9, 10과 같이 테스트 지역을 로테르담 항구 부근 4곳으로 선정하였다.
  • 본 연구의 훈련에 사용된 저해상도, 고해상도 영상의 개수는 각각 1600장이며, 저해상도, 고해상도 영상의 크기는 각각 64×64, 192×192로 잘라서 사용하였다.
  • 선박 탐지를 위해 본 연구에서 활용한 위성 영상은 유럽항공우주국(European Space Agency, ESA)에서 제공하는 Sentinel-2 Multispectral Instrument (MSI) 센서로부터 획득된 영상이다. Sentinel-2는 2A호와 2B호가 동시에 임무를 수행중인 위성으로 재방문주기는 5일이다.
  • 수집된 영상의 총 개수는 40장이며, 1024×1024 크기의 패치 단위로 영상을 나누었다.
  • 전체 데이터셋에서 학습 및 검증 데이터는 7:3 비율로 구축하여 사용하였고, 테스트에 사용한 영상으로는 네덜란드의 로테르담(Rotterdam) 항구 부근 영상을 사용하여 선박 탐지 결과를 비교하였다.

이론/모형

  • 모델의 학습은 SR을 적용하지 않은 데이터 셋(Non-SR)과 SR을 적용한 데이터 셋(SR)을 따로 구축하여 수행하였고, 각 모델별 학습에 필요한 파라미터는 모두 동일하게 설정한 후 진행하였다. 객체 탐지 모델의 성능 평가는 F1-score 및 Average Precision (AP)를 이용하여 수행하였으며, AP는 정밀도(precision)와 재현율(recall)을 그래프로 나타냈을 때의 면적에 해당한다. 각 클래스마다 하나의 AP를 가지며, 모든 클래스의 AP를 평균을 하게 되면 Mean Average Precision (mAP)를 계산할 수 있다.
본문요약 정보가 도움이 되었나요?

참고문헌 (25)

  1. Agustsson, E. and R. Timofte, 2017. NTIRE 2017 challenge on single image super-resolution: Dataset and study, Proc. of 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Honolulu, HI, USA, Jul. 21-26, pp. 1122-1131. https://doi.org/10.1109/CVPRW.2017.150 

  2. Bo, L., X. Xiaoyang, W. Xingxing, and T. Wenting, 2021. Ship detection and classification from optical remote sensing images: A survey, Chinese Journal of Aeronautics, 34(3): 145-163. https://doi.org/10.1016/j.cja.2020.09.022 

  3. Bose, P., D. Halder, O. Rahman, and T. Pial, 2022. Effectivity of super resolution convolutional neural network for the enhancement of land cover classification from medium resolution satellite images, arXiv preprint arXiv:2207. 02301. https://doi.org/10.48550/arXiv.2207.02301 

  4. Cao, L., C. Wang, and J. Li, 2016. Vehicle detection from highway satellite images via transfer learning, Information Sciences, 366: 177-187. https://doi.org/10.1016/j.ins.2016.01.004 

  5. Choi, Y. J., M.S. Kim, Y.W. Kim, and S.H. Han, 2020. A study of CNN-based super-resolution method for remote sensing image, Korean Journal of Remote Sensing, 36(3): 449-460 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2020.36.3.5 

  6. Chen, H., X. He, L. Qing, Y. Wu, C. Ren, R.E. Sheriff, and C. Zhu, 2022. Real-world single image superresolution: A brief review, Information Fusion, 79: 124-145. https://doi.org/10.48550/arXiv.2103.02368 

  7. Han, J., J. Ding, J. Li, and G.S. Xia, 2021. Align deep features for oriented object detection, IEEE Transactions on Geoscience and Remote Sensing, 60: 1-11. https://doi.org/10.1109/TGRS.2021.3062048 

  8. Haris, M., G. Shakhnarovich, and N. Ukita, 2018. Taskdriven super resolution: Object detection in lowresolution images, arXiv preprint arXiv:1803. 11316. https://doi.org/10.48550/arXiv.1803.11316 

  9. He, S., H. Zou, Y. Wang, R. Li, and F. Cheng, 2021a. ShipSRDet: An end-to-end remote sensing ship detector using super-resolved feature representation. Proc. of 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS, Brussels, Belgium, Jul. 11-16, pp. 3541-3544. https://doi.org/10.1109/IGARSS47720.2021.9554079 

  10. He, S., H. Zou, Y. Wang, R. Li, F. Cheng, X. Cao, and M. Li, 2021b. Enhancing Mid-Low-Resolution Ship Detection With High-Resolution Feature Distillation, IEEE Geoscience and Remote Sensing Letters, 19: 1-5. https://doi.org/10.1109/LGRS.2021.3110404 

  11. Li, L., Z. Zhou, B. Wang, L. Miao, and H. Zong, 2020. A novel CNN-based method for accurate ship detection in HR optical remote sensing images via rotated bounding box, IEEE Transactions on Geoscience and Remote Sensing, 59(1): 686-699. https://doi.org/10.1109/TGRS.2020.2995477 

  12. Lim, B., S.H. Son, H.W. Kim, S.J. Nah, and K.M. Lee, 2017. Enhanced deep residual networks for single image super-resolution, Proc of 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Honolulu, HI, USA, Jul. 21-26, pp. 136-144. https://doi.org/10.1109/CVPRW.2017.151 

  13. Lin, T. Y., P. Goyal, R. Girshick, K. He, and P. Dollar, 2017. Focal loss for dense object detection, Proc. of 2017 IEEE International Conference on Computer Vision (ICCV), Venice, Italy, Oct. 22-29, pp. 2999-3007. https://doi.org/10.1109/ICCV.2017.324 

  14. Maeda, S., 2020. Unpaired image super-resolution using pseudo-supervision, Proc. of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, WA, USA, Jun 13-19, pp. 288-297. https://doi.org/10.1109/CVPR42600.2020.00037 

  15. Padilla, R., S.L. Netto, and E.A. Da Silva, 2020. A survey on performance metrics for object-detection algorithms, Proc. of 2020 International Conference on Systems, Signals and Image Processing (IWSSIP), Niteroi, Brazil, Jul. 1-3, pp. 237-242. https://doi.org/10.1109/IWSSIP48289.2020.9145130 

  16. Park, J.J., S.W. Oh, K.-A. Park, M.-S. Lee, J.-C. Jang, and M.J. Lee, 2018. A methodology of ship detection using high-resolution satellite optical image, Journal of the Korean Earth Science Society, 39(3): 241-249 (in Korean with English abstract). https://doi.org/10.5467/JKESS.2018.39.3.241 

  17. Ren, S., K. He, R. Girshick, and J. Sun, 2015. Faster R-CNN: Towards real-time object detection with region proposal networks, arXiv preprint arXiv: 1506.01497. https://doi.org/10.48550/arXiv.1506.01497 

  18. Shermeyer, J. and A. Van Etten, 2019. The effects of super-resolution on object detection performance in satellite imagery, Proc. of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Long Beach, CA, USA, Jun 16-17, pp. 1432-1441. https://doi.org/10.1109/CVPRW.2019.00184 

  19. Stofa, M.M., M.A. Zulkifley, and S.Z.M. Zaki, 2020. A deep learning approach to ship detection using satellite imagery, IOP Conference Series: Earth and Environmental Science, 540: 012049. https://doi.org/10.1088/1755-1315/540/1/012049 

  20. Tian, Z., C. Shen, H. Chen, and T. He, 2019. FCOS: Fully convolutional one-stage object detection, Proc. of 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, South Korea, Oct. 27-Nov. 2, pp. 9626-9635. https://doi.org/10.1109/ICCV.2019.00972 

  21. Wang, Z., A.C. Bovik, H.R. Sheikh, and E.P. Simoncelli, 2004. Image quality assessment: from error visibility to structural similarity, IEEE Transactions on Image Processing, 13(4): 600-612. https://doi.org/10.1109/TIP.2003.819861 

  22. Xie, X., L. Li, Z. An, G. Lu, and Z. Zhou, 2022. Small Ship Detection Based on Hybrid Anchor Structure and Feature Super-Resolution, Remote Sensing, 14(15): 3530. https://doi.org/10.3390/rs14153530 

  23. Yoo, J., N. Ahn, and K.-A. Sohn, 2020. Rethinking data augmentation for image super-resolution: A comprehensive analysis and a new strategy, Proc. of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, WA, USA, Jun 13-19, pp. 8372-8381. https://doi.org/10.1109/CVPR42600.2020.00840 

  24. Yang, W., X. Zhang, Y. Tian, W. Wang, J.H. Xue, and Q. Liao, 2019. Deep learning for single image super-resolution: A brief review, IEEE Transactions on Multimedia, 21(12): 3106-3121. https://doi.org/10.1109/TMM.2019.2919431 

  25. Yang, X., H. Sun, K. Fu, J. Yang, X. Sun, M. Yan, and Z. Guo, 2018. Automatic ship detection in remote sensing images from google earth of complex scenes based on multiscale rotation dense feature pyramid networks, Remote Sensing, 10(1): 132. https://doi.org/10.3390/rs10010132 

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로