$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

잘피 서식지 모니터링을 위한 딥러닝 기반의 드론 영상 의미론적 분할
Semantic Segmentation of Drone Imagery Using Deep Learning for Seagrass Habitat Monitoring 원문보기

대한원격탐사학회지 = Korean journal of remote sensing, v.36 no.2 pt.1, 2020년, pp.199 - 215  

전의익 ((주)지오스토리 기술연구소) ,  김성학 ((주)지오스토리 기술연구소) ,  김병섭 (한국수산자원공단) ,  박경현 (한국수산자원공단) ,  최옥인 (한국수산자원공단)

초록
AI-Helper 아이콘AI-Helper

잘피는 연안해역에 서식하는 해양수생관속식물로 해양생태계의 중요한 역할을 하고 있어, 주기적인 잘피 서식지의 모니터링이 이루어지고 있다. 최근 효율적인 잘피 서식지의 모니터링을 위해 고해상도의 영상 획득이 가능한 드론의 활용도가 높아지고 있다. 그리고 의미론적 분할에 있어 합성곱 신경망 기반의 딥러닝이 뛰어난 성능을 보임에 따라, 원격탐사 분야에 이를 적용한 연구가 활발하게 이루어지고 있다. 그러나 다양한 딥러닝 모델, 영상, 그리고 하이퍼파라미터에 의해 의미론적 분할의 정확도가 다르게 나타나고, 영상의 정규화와 타일과 배치 크기에서도 정형화되어 있지 않은 상태이다. 이에 따라 본 연구에서는 우수한 성능을 보여주는 딥러닝 모델을 이용하여 드론의 광학 영상에서 잘피 서식지를 분할하였다. 그리고 학습 자료의 정규화 및 타일의 크기를 중점으로 결과를 비교 및 분석하였다. 먼저 정규화와 타일, 배치 크기에 따른 결과 비교를 위해 흑백 영상을 만들고 흑백 영상을 Z-score 정규화 및 Min-Max 정규화 방법으로 변환한 영상을 사용하였다. 그리고 타일 크기를 특정 간격으로 증가시키면서 배치 크기는 메모리 크기를 최대한 사용할 수 있도록 하였다. 그 결과, Z-score 정규화가 적용된 영상이 다른 영상보다 IoU가 0.26 ~ 0.4 정도 높게 나타났다. 또한, 타일과 배치 크기에 따라 최대 0.09까지 차이가 나타나는 것을 확인하였다. 딥러닝을 이용한 의미론적 분할에 있어 정규화, 타일의 배치 크기의 변화에 따른 결과가 다르게 나타났다. 그러므로 실험을 통해 이들 요소에 대한 적합한 결정 과정이 있어야 함을 알 수 있었다.

Abstract AI-Helper 아이콘AI-Helper

A seagrass that is marine vascular plants plays an important role in the marine ecosystem, so periodic monitoring ofseagrass habitatsis being performed. Recently, the use of dronesthat can easily acquire very high-resolution imagery is increasing to efficiently monitor seagrass habitats. And deep le...

주제어

표/그림 (13)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구는 우리나라 남해에서 획득된 드론 광학 영상으로부터 생성된 정사영상에서 합성곱 신경망 기반의 딥러닝 모델인 U-Net을 이용하여 잘피 서식지 영역을 파악하기 위한 의미론적 분할을 하였다. 의미론적 분할을 수행함에 있어 본 연구는 딥러닝을 이용하여 정사영상에서 잘피 서식지를 분류하는 것에 대한 기초연구라고할수 있다.
  • 본 연구는 우리나라 남해에서 획득된 드론 광학 영상으로부터 생성된 정사영상에서 합성곱 신경망 기반의 딥러닝 모델인 U-Net을 이용하여 잘피 서식지 영역을 파악하기 위한 의미론적 분할을 하였다. 의미론적 분할을 수행함에 있어 본 연구는 딥러닝을 이용하여 정사영상에서 잘피 서식지를 분류하는 것에 대한 기초연구라고할수 있다. 이에 따라 영상의 정규화와 타일과 배치 크기의 변화에 따른 결과를 비교 및 분석하였으며, 그에 따른 결론은 다음과 같다.
  • 생성한 정사영상들에서 실측 자료(Ground truth)를 구축하기 위해, Blue Marble Geographics 사의 Global Mapper 소프트웨어를 이용하여 잘피 서식지에 대한 벡터 자료를 제작하였다. 이때 잘피 서식지의 구분은 육안과 현장 및 잠수 조사 결과를 바탕으로 하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
분할이란 무엇인가? 분류는 입력영상 내의 객체의 종류를 구분하는 것이고, 탐지는 영상에서 객체 구분과 위치 정보를 제공하는 것을 의미한다. 분할은 영상 내 모든 화소의 클래스를 정해주는 것을 의미한다. 분할은 다시 같은 클래스의 객체를 서로 다른 개체로 분류하는 개체분할(Instance segmentation)과 개체를 구분하지 않는 의미론적 분할(Semantic segmentation)로 구분된다.
분할은 무엇으로 구분되는가? 분할은 영상 내 모든 화소의 클래스를 정해주는 것을 의미한다. 분할은 다시 같은 클래스의 객체를 서로 다른 개체로 분류하는 개체분할(Instance segmentation)과 개체를 구분하지 않는 의미론적 분할(Semantic segmentation)로 구분된다. 기존 영상인식에서는 입력영상이 다양하고 복잡하다는 점과 영상인식 알고리즘이 매우 복잡한 연산과정을 필요로 한다는 점, 많은 양의 데이터를 처리하기 위한 메모리가 요구된다는 점에 있어 구현이 어려웠다.
잘피는 어떤 점에서 매우 중요한 생태적 기능을 하는 생물인가? 잘피는 다양한 해양생물의 산란 및 서식지를 제공하고 지구온난화의 주요 요인인 이산화탄소를 흡수한다. 또한, 광합성 작용을 통해 해양생물의 호흡에 필요한 산소를 생산하여 공급한다는 점에서 매우 중요한 생태적 기능을 하는 생물이다(Thomas and Cornelisen, 2003). 그러나 1970년대 이후 산업화에 따른 무분별한 개발과 환경오염으로 인해 잘피의 개체 수가 현저하게 감소함에 따라 2007년에 해양수산부에서 보호대상 해양생물로 지정하여 한국수산자원공단에 의해 관리되고 있다(Lee and Lee, 2003; Park et al.
질의응답 정보가 도움이 되었나요?

참고문헌 (37)

  1. Alickovic, E. and A. Subasi, 2019. Normalized neural networks for breast cancer classification, Proc. of International Conference on Medical and Biological Engineering, Banja Luka, Bosnia and Herzegovina, May 16-18, pp. 519-524. 

  2. Badrinarayanan, V., A. Kendall, and R. Cipolla, 2017. Segnet: A deep convolutional encoder-decoder architecture for image segmentation, IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(12): 2481-2495. 

  3. Buscombe, D. and A.C. Ritchie, 2018. Landscape classifi-cation with deep neural networks, Geosciences, 8(7): 244. 

  4. Chen, L.C., G. Papandreou, I. Kokkinos, K. Murphy, and A.L. Yuille, 2017. Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs, IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(4): 834-848. 

  5. Fu, G., C. Liu, R. Zhou, T. Sun, and Q. Zhang, 2017. Classification for high resolution remote sensing imagery using a fully convolutional network, Remote Sensing, 9(5): 498. 

  6. Goyal, P., P. Dollear, R. Girshick, P. Noordhuis, L. Wesolowski, A. Kyrola, A. Tulloch, Y. Jia, and K. He, 2017. Accurate, large minibatch sgd:Training imagenet in 1 hour, arXiv:1706.02677. 

  7. Guo, Z., H. Shengoku, G. Wu, Q. Chen, W. Yuan, X. Shi, X. Shao, Y. Xu, and R. Shibasaki, 2018. Semantic segmentation for urban planning maps based on U-Net, Proc. of 2018 IEEE International Geoscience and Remote Sensing Symposium, Valencia, Spain, Jul. 22-27, pp. 6187-6190. 

  8. Ioffe, S., 2017. Batch renormalization: Towards reducing minibatch dependence in batch-normalized model, Proc. of 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA, Jul. 22-27, pp. 1945-1953. 

  9. Kampffmeyer, M., A.B. Salberg, and R. Jenssen, 2016. Semantic segmentation of small objects and modeling of uncertainty in urban remote sensing images using deep convolutional neural networks, Proc. of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, Las Vegas, NV, USA, Jun. 26-Jul. 1, pp. 1-9. 

  10. Keskar, N.S., D. Mudigere, J. Nocedal, M. Smelyanskiy, and P.T.P. Tang, 2016. On large-batch training for deep learning: Generalization gap and sharp minima, Proc. of 5th International Conference on Learning Representations, Palais des Congres Neptune, Toulon, France, Apr. 24-26, pp. 1-16. 

  11. Khalel, A. and M. El-Saban, 2018. Automatic pixelwise object labeling for aerial imagery using stacked u-nets, arXiv:1803.04953. 

  12. Kim, J.B., J.I. Park, C.S. Jung, P.Y. Lee, and K.S. Lee, 2009. Distributional range extension of the seagrass Halophila nipponica into coastal waters off the Korean peninsula, Aquatic Botany, 90(3):269-272. 

  13. Kim, J.B., J.I. Park, W.J. Choi, J.S. Lee, and K.S. Lee, 2010. Spatial distribution and ecological characteristics of Zostera marina and Zostera japonica in the Seomjin Estuary, Korean Journal of Fisheries and Aquatic Sciences, 43(4): 351-361 (in Korean with English abstract). 

  14. Kingma, D.P. and J. Ba, 2014. Adam: A method for stochastic optimization, Proc. of 3rd International Conference on Learning Representations, San Diego, CA, USA, May 7-9, pp. 1-15. 

  15. Krizhevsky, A., I. Sutskever, and G.E. Hinton, 2012. Imagenet classification with deep convolutional neural networks, Proc. of Neural Information Processing Systems Conference, Lake Tahoe, Nevada, USA, Dec. 3-6, pp. 1097-1105. 

  16. LeCun, Y., L. Bottou, Y. Bengio, and P. Haffner, 1998. Gradient-based learning applied to document recognition, Proceedings of the IEEE, 86(11):2278-2324. 

  17. Lee, K.S. and S.Y. Lee, 2003. The seagrasses of the Republic of Korea, In: Short, F.T., Green, E.P. (Ed.), World atlas of seagrasses: present status and future conservation, University of California Press, Berkeley, USA, pp. 193-198. 

  18. Li, R., W. Liu, L. Yang, S. Sun, W. Hu, F. Zhang, and W. Li, 2018. Deepunet: A deep fully convolutional network for pixel-level sea-land segmentation, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 11(11):3954-3962. 

  19. Li, W., C. He, J. Fang, and H. Fu, 2018. Semantic Segmentation Based Building Extraction Method Using Multi-Source GIS Map Datasets and Satellite Imagery, Proc. of 2018 Computer Vision and Pattern Recognition Workshops, Salt Lake City, Utah, USA, Jun. 18-22, pp. 238-241. 

  20. Liu, L., 2019. Semantic Segmentation of Urban Airborne Oblique Images, University of Twente, Enschede, Netherlands. 

  21. Long, J., E. Shelhamer, and T. Darrell, 2015. Fully convolutional networks for semantic segmentation, Proc. of the IEEE Conference on Computer Vision and Pattern Recognition, Salt Lake City, Utah, USA, Jun. 18-22, pp. 3431-3440. 

  22. Masters, D. and C. Luschi, 2018. Revisiting small batch training for deep neural networks, arXiv:1804.07612. 

  23. Okatani, T. and M. Saito, 2015. Deep learning, Koudansha, Tokyo, Japan, pp. 101-121. 

  24. Park, J.I., J.Y. Park, and M.H. Son, 2012. Seagrass Distribution in Jeju and Chuja Islands, Korean Journal of Environmental Biology, 30(4): 339-348 (in Korean with English abstract). 

  25. Park, S.W. and Y.W. Lee, 2019. Detection of forest disaster using high-resolution satellite images with semantic segmentation, The Association of Korean Photo-Geographers, 28(4): 87-101 (in Korean with English abstract). 

  26. Paszke, A., A. Chaurasia, S. Kim, and E. Culurciello, 2016. Enet: A deep neural network architecture for real-time semantic segmentation, arXiv:1606.02147. 

  27. Peng, B., Y. Li, L. He, K. Fan, and L. Tong, 2018. Road Segmentation of UAV RS Image Using Adversarial Network with Multi-Scale Context Aggregation, Proc. of 2018 IEEE International Geoscience and Remote Sensing Symposium, Valencia, Spain, Jul. 22-27, pp. 6935-6938. 

  28. Ronneberger, O., P. Fischer, and T. Brox, 2015. U-net:Convolutional networks for biomedical image segmentation, Proc. of International Conference on Medical Image Computing and Computerassisted Intervention, Munich, Germany, Oct. 5-9, pp. 234-241. 

  29. Ruder, S., 2016. An overview of gradient descent optimization algorithms, arXiv preprint, arXiv:1609.04747. 

  30. Sameen, M.I., B. Pradhan, and O.S. Aziz, 2018. Classification of very high resolution aerial photos using spectral-spatial convolutional neural networks, Journal of Sensors, 1-16. 

  31. Sun, W. and R. Wang, 2018. Fully convolutional networks for semantic segmentation of very high resolution remotely sensed images combined with DSM, IEEE Geoscience and Remote Sensing Letters, 15(3): 474-478. 

  32. Thomas, F.I. and C.D. Cornelisen, 2003. Ammonium uptake by seagrass communities: effects of oscillatory versus unidirectional flow, Marine Ecology Progress Series, 247: 51-57. 

  33. Varia, N., A. Dokania, and J. Senthilnath, 2018. DeepExt: A Convolution Neural Network for Road Extraction using RGB images captured by UAV, Proc. of 2018 IEEE Symposium Series on Computational Intelligence, Bangalore, India, Nov. 18-21, pp. 1890-1895. 

  34. Yi, Y., Z. Zhang, W. Zhang, C. Zhang, W. Li, and T. Zhao, 2019. Semantic Segmentation of urban buildings from vhr remote sensing imagery using a deep convolutional neural network, Remote Sensing, 11(15): 1774. 

  35. You, Y., I. Gitman, and B. Ginsburg, 2017. Scaling sgd batch size to 32k for imagenet training, arXiv:1708.03888. 

  36. Zhang, Z., Q. Liu, and Y. Wang, 2018. Road extraction by deep residual u-net, IEEE Geoscience and Remote Sensing Letters, 15(5): 749-753. 

  37. Zhao, H., J. Shi, X. Qi, X. Wang, and J. Jia, 2017. Pyramid scene parsing network, Proc. of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, Hawaii, USA, Jul. 21-26, pp. 2881-2890. 

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로