인공위성이 촬영한 영상의 내용을 정확하게 분석하기 위해서는 영상에 존재하는 구름 영역을 정확하게 인지하는 것이 필요하다. 최근 다양한 분야에서 딥러닝(deep learning) 모델이 뛰어난 성능을 보여줌에 따라 구름 영역 검출을 위해 딥러닝 모델을 적용한 방법들이 많이 제안되고 있다. 하지만 현재 구름 영역 검출 방법들은 의미 영역 분할 방법의 네트워크 구조를 그대로 사용하여 구름 검출 성능을 향상하는 데는 한계가 있다. 따라서 본 논문에서는 구름 검출 데이터 세트에 다중 브랜치 네트워크 구조 탐색을 적용하여 구름 영역 검출에 최적화된 네트워크 모델을 생성함으로써 구름 검출 성능을 향상하는 방법을 제안한다. 또한 구름 검출 성능을 향상하기 위하여 의미 영역 분할 모델의 학습 단계와 평가 단계의 평가 기준 불일치를 해소하기 위해 제안된 soft intersection over union (IoU) 손실 함수를 사용하고, 다양한 데이터 증강 방법을 적용하여 학습 데이터를 증가시켰다. 본 논문에서 제안된 방법의 성능을 검증하기 위하여 아리랑위성 3/3A호에서 촬영한 영상으로 구성된 구름 검출 데이터 세트를 사용하였다. 먼저 제안 방법과 의미 영역 분할 데이터 세트에서 탐색된 기존 네트워크 모델의 성능을 비교하였다. 실험 결과, 제안 방법의 mean IoU는 68.5%이며, 기존 모델보다 mIoU 측면에서 4%의 높은 성능을 보여주었다. 또한 soft IoU 손실 함수를 포함한 다섯 개의 손실 함수를 적용하여 손실 함수에 따른 구름 검출 성능을 분석하였으며, 실험 결과 본 연구에서 사용한 soft IoU 함수가 가장 좋은 성능을 보여주었다. 마지막으로 의미 영역 분할 분야에서 활용되는 최신 네트워크 모델과 제안 방법의 구름 검출 성능을 비교하였다. 실험 결과, 제안 모델이 의미 영역 분할 분야의 최신 모델들보다 mIoU와 정확도 측면에서 더 나은 성능을 보여주는 것을 확인하였다.
인공위성이 촬영한 영상의 내용을 정확하게 분석하기 위해서는 영상에 존재하는 구름 영역을 정확하게 인지하는 것이 필요하다. 최근 다양한 분야에서 딥러닝(deep learning) 모델이 뛰어난 성능을 보여줌에 따라 구름 영역 검출을 위해 딥러닝 모델을 적용한 방법들이 많이 제안되고 있다. 하지만 현재 구름 영역 검출 방법들은 의미 영역 분할 방법의 네트워크 구조를 그대로 사용하여 구름 검출 성능을 향상하는 데는 한계가 있다. 따라서 본 논문에서는 구름 검출 데이터 세트에 다중 브랜치 네트워크 구조 탐색을 적용하여 구름 영역 검출에 최적화된 네트워크 모델을 생성함으로써 구름 검출 성능을 향상하는 방법을 제안한다. 또한 구름 검출 성능을 향상하기 위하여 의미 영역 분할 모델의 학습 단계와 평가 단계의 평가 기준 불일치를 해소하기 위해 제안된 soft intersection over union (IoU) 손실 함수를 사용하고, 다양한 데이터 증강 방법을 적용하여 학습 데이터를 증가시켰다. 본 논문에서 제안된 방법의 성능을 검증하기 위하여 아리랑위성 3/3A호에서 촬영한 영상으로 구성된 구름 검출 데이터 세트를 사용하였다. 먼저 제안 방법과 의미 영역 분할 데이터 세트에서 탐색된 기존 네트워크 모델의 성능을 비교하였다. 실험 결과, 제안 방법의 mean IoU는 68.5%이며, 기존 모델보다 mIoU 측면에서 4%의 높은 성능을 보여주었다. 또한 soft IoU 손실 함수를 포함한 다섯 개의 손실 함수를 적용하여 손실 함수에 따른 구름 검출 성능을 분석하였으며, 실험 결과 본 연구에서 사용한 soft IoU 함수가 가장 좋은 성능을 보여주었다. 마지막으로 의미 영역 분할 분야에서 활용되는 최신 네트워크 모델과 제안 방법의 구름 검출 성능을 비교하였다. 실험 결과, 제안 모델이 의미 영역 분할 분야의 최신 모델들보다 mIoU와 정확도 측면에서 더 나은 성능을 보여주는 것을 확인하였다.
To precisely and reliably analyze the contents of the satellite imagery, recognizing the clouds which are the obstacle to gathering the useful information is essential. In recent times, deep learning yielded satisfactory results in various tasks, so many studies using deep neural networks have been ...
To precisely and reliably analyze the contents of the satellite imagery, recognizing the clouds which are the obstacle to gathering the useful information is essential. In recent times, deep learning yielded satisfactory results in various tasks, so many studies using deep neural networks have been conducted to improve the performance of cloud detection. However, existing methods for cloud detection have the limitation on increasing the performance due to the adopting the network models for semantic image segmentation without modification. To tackle this problem, we introduced the multi-branch neural architecture search to find optimal network structure for cloud detection. Additionally, the proposed method adopts the soft intersection over union (IoU) as loss function to mitigate the disagreement between the loss function and the evaluation metric and uses the various data augmentation methods. The experiments are conducted using the cloud detection dataset acquired by Arirang-3/3A satellite imagery. The experimental results showed that the proposed network which are searched network architecture using cloud dataset is 4% higher than the existing network model which are searched network structure using urban street scenes with regard to the IoU. Also, the experimental results showed that the soft IoU exhibits the best performance on cloud detection among the various loss functions. When comparing the proposed method with the state-of-the-art (SOTA) models in the field of semantic segmentation, the proposed method showed better performance than the SOTA models with regard to the mean IoU and overall accuracy.
To precisely and reliably analyze the contents of the satellite imagery, recognizing the clouds which are the obstacle to gathering the useful information is essential. In recent times, deep learning yielded satisfactory results in various tasks, so many studies using deep neural networks have been conducted to improve the performance of cloud detection. However, existing methods for cloud detection have the limitation on increasing the performance due to the adopting the network models for semantic image segmentation without modification. To tackle this problem, we introduced the multi-branch neural architecture search to find optimal network structure for cloud detection. Additionally, the proposed method adopts the soft intersection over union (IoU) as loss function to mitigate the disagreement between the loss function and the evaluation metric and uses the various data augmentation methods. The experiments are conducted using the cloud detection dataset acquired by Arirang-3/3A satellite imagery. The experimental results showed that the proposed network which are searched network architecture using cloud dataset is 4% higher than the existing network model which are searched network structure using urban street scenes with regard to the IoU. Also, the experimental results showed that the soft IoU exhibits the best performance on cloud detection among the various loss functions. When comparing the proposed method with the state-of-the-art (SOTA) models in the field of semantic segmentation, the proposed method showed better performance than the SOTA models with regard to the mean IoU and overall accuracy.
따라서 본 연구에서는 멀티 브랜치 탐색이 가능한 NAS를 활용하여 구름 영역을 검출하는 방법을 제안하였다. 먼저 NAS를 사용하여 구름 영역 검출에 최적화된 네트워크 모델을 생성하였다.
본 연구에서는 멀티 브랜치 탐색이 가능한 NAS를 적용하여 구름 검출 방법의 성능을 향상하는 방법을 제안하였다. 이를 위해서 의미 영역 분할 분야에 적용된 NAS 모델을 기반으로 손실 함수와 데이터 증강 방법을 개선하여 구름 검출 데이터 세트에서 최적의 네트워크 모델을 탐색할 수 있도록 하였다.
제안 방법
따라서 본 연구에서는 멀티 브랜치 탐색이 가능한 NAS를 활용하여 구름 영역을 검출하는 방법을 제안하였다. 먼저 NAS를 사용하여 구름 영역 검출에 최적화된 네트워크 모델을 생성하였다. 이후 의미 영역 분할의 특성을 반영한 손실 함수 및 데이터 증강 방법을 활용하여 구름 검출 모델의 성능을 향상하였다.
본 연구에서는 멀티 브랜치 탐색이 가능한 NAS 알고리즘을 구름 영역의 특성을 반영할 수 있게 구름 영역 검출 태스크에 적용하였으며, 구름 검출 데이터 세트를 사용하여 탐색된 네트워크 모델을 CloudNAS로 정의하였다. CloudNAS는 기존의 FasterSeg 모델과 다르게 구름 영역 검출 데이터 세트를 활용하여 최적의 네트워크 모델을 탐색하였으며, 성능 개선을 위하여 soft IoU 함수및본 연구에서 제안한 데이터 증강 방법들을 사용하였다.
손실 함수는 구름 검출 모델의 성능에 영향을 미치는 주요한 요소 중 하나이기 때문에 본 연구에서는 CloudNAS에 다양한 손실 함수를 적용하여 성능을 비교하였다. 손실 함수에 따른 CloudNAS 모델의 성능은 Table 5와 같다.
본 연구에서는 멀티 브랜치 탐색이 가능한 NAS를 적용하여 구름 검출 방법의 성능을 향상하는 방법을 제안하였다. 이를 위해서 의미 영역 분할 분야에 적용된 NAS 모델을 기반으로 손실 함수와 데이터 증강 방법을 개선하여 구름 검출 데이터 세트에서 최적의 네트워크 모델을 탐색할 수 있도록 하였다. 본 연구에서는 의미 영역 분할 모델의 성능을 평가할 때 활용되는 IoU를 학습 과정에 적용할 수 있도록 수정한 soft IoU 함수를 손실 함수로 사용하였다.
제안된 모델의 성능을 평가하기 위하여 아리랑위성 3/3A호에서 촬영한 위성영상으로 구성된 구름 검출 데이터 세트를 사용하였다. 먼저 구름 검출 데이터 세트에 제안 방법을 적용하여 탐색한 네트워크 모델인 CloudNAS와 의미 영역 분할 데이터 세트에서 탐색 된 최적의 네트워크 모델인 FasterSeg과 정량적, 정성적 성능을 비교하였다. 실험 결과 CloudNAS는 FasterSeg보다 mIoU 측면에서 4%의 성능 향상을 보여주었으며, 정성적인 결과에서도 기존 모델이 잘 검출하지 못하던 옅은 구름을 잘 검출하는 것을 보여주었다.
대상 데이터
FasterSeg은 Fig. 1과 같이 다운 샘플링 비율이 각각 8, 16, 32인 3개의 브랜치가 존재하며, 네트워크 구조 탐색을 통해 1개 이상의 브랜치로 구성된 멀티 브랜치 네트워크 구조를 생성할 수 있다. 만약 2개의 브랜치로 구성된 네트워크를 생성할 때, 선택할 수 있는 브랜치는 {8, 16}, {8, 32}, {16, 32} 등 3개의 다운 샘플링 비율 조합이 가능하다.
제안 방법은 PyTorch 프레임워크를 사용하여 구현하였으며, 성능 비교를 위한 실험은 듀얼 Intel Xeon 6258 CPU와 A40 GPU 8개가 장착된 리눅스 서버(운영체제: Ubuntu 20.04)에서 수행하였다. MMSegmentation 프레임워크는 기본 설정값들이 GPU 4개에 맞춰져 있어서, 비교 방법들을 학습할 때는 GPU 4개를 사용하였다.
04)에서 수행하였다. MMSegmentation 프레임워크는 기본 설정값들이 GPU 4개에 맞춰져 있어서, 비교 방법들을 학습할 때는 GPU 4개를 사용하였다.
본 연구에서는 의미 영역 분할 모델의 성능을 평가할 때 활용되는 IoU를 학습 과정에 적용할 수 있도록 수정한 soft IoU 함수를 손실 함수로 사용하였다. 또한 인공위성에서 촬영한 구름 영상의 경우 매우 다양한 형태를 가지기 때문이 이를 고려하기 위하여 랜덤 플립, 랜덤 스케일, 랜덤 로테이션, 랜덤 크롭 등의 다양한 데이터 증강 기법을 적용하였다.
제안된 모델의 성능을 평가하기 위하여 아리랑위성 3/3A호에서 촬영한 위성영상으로 구성된 구름 검출 데이터 세트를 사용하였다. 먼저 구름 검출 데이터 세트에 제안 방법을 적용하여 탐색한 네트워크 모델인 CloudNAS와 의미 영역 분할 데이터 세트에서 탐색 된 최적의 네트워크 모델인 FasterSeg과 정량적, 정성적 성능을 비교하였다.
본 연구에서 사용한 구름 데이터 세트는 적색, 녹색, 청색 등 3개의 색상 채널과 한 개의 근적외선 채널로 구성되어 있다. 하지만, 본 연구에서는 기존 방법과의 객관적인 성능 비교를 위해 3개의 색상 정보만을 입력으로 사용하였으며, 기존 방법에 비해 성능이 개선되는 것을 확인하였다.
데이터처리
이후 의미 영역 분할의 특성을 반영한 손실 함수 및 데이터 증강 방법을 활용하여 구름 검출 모델의 성능을 향상하였다. 마지막으로 제안 방법과 다양한 딥러닝 기반 모델들의 성능을 비교 분석하였다. 실험 결과, 위성영상 데이터 세트에 멀티 브랜치 기반 NAS를 적용한 제안 방법이 기존 의미 영역 분할 분야에서 활용되는 최신 네트워크 모델보다 더 개선된 성능을 보여주는 것을 확인하였다.
IoU 이외에도 전체 픽셀 중 해당 범주로 바르게 분류된 픽셀의 비율을 의미하는 전체 정확도(overall accuracy)와 각 범주의 IoU 평균값을 의미하는 mean IoU를 성능 평가 기준으로 사용하였다.
실험 결과 CloudNAS는 FasterSeg보다 mIoU 측면에서 4%의 성능 향상을 보여주었으며, 정성적인 결과에서도 기존 모델이 잘 검출하지 못하던 옅은 구름을 잘 검출하는 것을 보여주었다. 또한 CloudNAS 모델에 CE 손실, 초점 손실 등 5개 손실 함수를 적용하여 손실 함수에 따른 구름 검출 성능을 비교하였다. 실험 결과 본 연구에서 사용한 soft IoU 손실 함수가 mIoU와 정확도 측면에서 가장 좋은 성능을 보여주었으며, CE 손실 함수가 두 번째로 좋은 성능을 보여주었다.
실험 결과 본 연구에서 사용한 soft IoU 손실 함수가 mIoU와 정확도 측면에서 가장 좋은 성능을 보여주었으며, CE 손실 함수가 두 번째로 좋은 성능을 보여주었다. 마지막으로 제안 방법의 성능을 확인하기 위해 의미 영역 분할 분야에서 활용되는 DeepLabV3+, OCRNet, SegFormer 등 5개 모델과의 성능을 비교하였다. 실험 결과 제안 모델이 의미 영역 분할 분야의 가장 최신 모델인 SegFormer 보다 더 나은 성능을 보여주었으며, 이를 통하여 데이터 세트에 최적화된 네트워크를 탐색하는 것이 딥러닝 모델의 성능 향상에 중요한 요소임을 확인하였다.
이론/모형
본 연구에서는 멀티 브랜치 탐색이 가능한 NAS 알고리즘을 구름 영역의 특성을 반영할 수 있게 구름 영역 검출 태스크에 적용하였으며, 구름 검출 데이터 세트를 사용하여 탐색된 네트워크 모델을 CloudNAS로 정의하였다. CloudNAS는 기존의 FasterSeg 모델과 다르게 구름 영역 검출 데이터 세트를 활용하여 최적의 네트워크 모델을 탐색하였으며, 성능 개선을 위하여 soft IoU 함수및본 연구에서 제안한 데이터 증강 방법들을 사용하였다.
구름 영역의 검출 성능을 평가하기 위한 척도로 범주별 IoU를 사용하였다. 짙은 구름 범주에 대한 IoU는 실제 짙은 구름 픽셀 또는 딥러닝 모델이 짙은 구름으로 분류한 픽셀 중에서 실제 짙은 구름이면서 딥러닝 모델에 의해 짙은 구름으로 분류된 픽셀의 비율을 의미한다.
이를 위해서 의미 영역 분할 분야에 적용된 NAS 모델을 기반으로 손실 함수와 데이터 증강 방법을 개선하여 구름 검출 데이터 세트에서 최적의 네트워크 모델을 탐색할 수 있도록 하였다. 본 연구에서는 의미 영역 분할 모델의 성능을 평가할 때 활용되는 IoU를 학습 과정에 적용할 수 있도록 수정한 soft IoU 함수를 손실 함수로 사용하였다. 또한 인공위성에서 촬영한 구름 영상의 경우 매우 다양한 형태를 가지기 때문이 이를 고려하기 위하여 랜덤 플립, 랜덤 스케일, 랜덤 로테이션, 랜덤 크롭 등의 다양한 데이터 증강 기법을 적용하였다.
성능/효과
먼저 NAS를 사용하여 구름 영역 검출에 최적화된 네트워크 모델을 생성하였다. 이후 의미 영역 분할의 특성을 반영한 손실 함수 및 데이터 증강 방법을 활용하여 구름 검출 모델의 성능을 향상하였다. 마지막으로 제안 방법과 다양한 딥러닝 기반 모델들의 성능을 비교 분석하였다.
마지막으로 제안 방법과 다양한 딥러닝 기반 모델들의 성능을 비교 분석하였다. 실험 결과, 위성영상 데이터 세트에 멀티 브랜치 기반 NAS를 적용한 제안 방법이 기존 의미 영역 분할 분야에서 활용되는 최신 네트워크 모델보다 더 개선된 성능을 보여주는 것을 확인하였다.
CloudNAS의 경우 정확도 향상을 위하여 일반적인 합성곱을 많이 사용한 반면, FasterSeg의 경우 임베디드(embedded) 환경에서의 처리 속도를 고려하여 확대 합성곱이 많이 사용되는 것을 확인할 수 있다. 또한 각 합성곱에 사용된 필터의 수를 살펴보면 CloudNAS가 기존의 FasterSeg보다 더 많이 사용하는 것을 확인할 수 있다.
CloudNAS와 FasterSeg의 구름 검출 테스트 데이터 세트에 관한 결과는 Table 4와 같다. Table 4를 살펴보면 구름 검출 데이터 세트를 사용하여 최적의 네트워크 구조를 탐색한 CloudNAS가 mIoU 측면에서 기존 FastserSeg보다 4%의 성능 향상을 보여주었다. 세부적으로 살펴보면 구름 그림자, 옅은 구름, 짙은 구름, 청전 범주에서 IoU가 각각 6.
Table 4를 살펴보면 구름 검출 데이터 세트를 사용하여 최적의 네트워크 구조를 탐색한 CloudNAS가 mIoU 측면에서 기존 FastserSeg보다 4%의 성능 향상을 보여주었다. 세부적으로 살펴보면 구름 그림자, 옅은 구름, 짙은 구름, 청전 범주에서 IoU가 각각 6.4%, 5.3%, 1.8%, 1.4% 향상되었으며, 기존 모델이 낮은 성능을 보여주었던 범주인 구름 그림자와 옅은 구름에서 더 높은 성능 향상을 보여주었다. 이와 같은 실험 결과는 데이터 세트의 특성으로 인하여 최적의 성능을 내는 네트워크 구조가 달라지기 때문에 타겟 데이터 세트를 활용하여 최적의 네트워크 구조를 탐색하는 것이 필요하다는 것을 의미한다.
Fig. 5를 살펴보면 제안 방법이 FasterSeg보다 더 정확하게 구름 영역을 탐지하는 것을 확인할 수 있다. 특히 정량적인 결과와 같이 제안 방법이 옅은 구름을 더 정확하게 검출하는 것을 확인할 수 있다.
5를 살펴보면 제안 방법이 FasterSeg보다 더 정확하게 구름 영역을 탐지하는 것을 확인할 수 있다. 특히 정량적인 결과와 같이 제안 방법이 옅은 구름을 더 정확하게 검출하는 것을 확인할 수 있다.
또한 범주 불균형을 고려하기 위해서 제안된 초점 손실, OHEM 기반 CE 손실 함수 등이 CE 손실 함수보다 mIoU 측면에서는 더 낮은 성능을 보여주었다. 실험 결과를 보면 구름 검출을 위하여 최적의 네트워크 모델을 탐색하는 것과 함께 최적의 손실 함수를 찾는 것도 중요하다는 것을 확인할 수 있다.
이는 구름 검출 학습 데이터의 양이 적어서 모델 규모가 큰 SegFormer-B5의 성능 향상이 제한되는 것으로 판단된다. 의미 영역 분할 분야에서 실시간 처리를 위해 속도에 초점을 둔 STDC, BiSeNetV2 모델과 정확도에 초점을 둔 DeepLabV3+, OCRNet 모델을 비교하면 정확도에 초점을 둔 DeepLabV3+, OCRNet 모델들이 5% 이상의 높은 성능을 보여주었다.
먼저 구름 검출 데이터 세트에 제안 방법을 적용하여 탐색한 네트워크 모델인 CloudNAS와 의미 영역 분할 데이터 세트에서 탐색 된 최적의 네트워크 모델인 FasterSeg과 정량적, 정성적 성능을 비교하였다. 실험 결과 CloudNAS는 FasterSeg보다 mIoU 측면에서 4%의 성능 향상을 보여주었으며, 정성적인 결과에서도 기존 모델이 잘 검출하지 못하던 옅은 구름을 잘 검출하는 것을 보여주었다. 또한 CloudNAS 모델에 CE 손실, 초점 손실 등 5개 손실 함수를 적용하여 손실 함수에 따른 구름 검출 성능을 비교하였다.
또한 CloudNAS 모델에 CE 손실, 초점 손실 등 5개 손실 함수를 적용하여 손실 함수에 따른 구름 검출 성능을 비교하였다. 실험 결과 본 연구에서 사용한 soft IoU 손실 함수가 mIoU와 정확도 측면에서 가장 좋은 성능을 보여주었으며, CE 손실 함수가 두 번째로 좋은 성능을 보여주었다. 마지막으로 제안 방법의 성능을 확인하기 위해 의미 영역 분할 분야에서 활용되는 DeepLabV3+, OCRNet, SegFormer 등 5개 모델과의 성능을 비교하였다.
마지막으로 제안 방법의 성능을 확인하기 위해 의미 영역 분할 분야에서 활용되는 DeepLabV3+, OCRNet, SegFormer 등 5개 모델과의 성능을 비교하였다. 실험 결과 제안 모델이 의미 영역 분할 분야의 가장 최신 모델인 SegFormer 보다 더 나은 성능을 보여주었으며, 이를 통하여 데이터 세트에 최적화된 네트워크를 탐색하는 것이 딥러닝 모델의 성능 향상에 중요한 요소임을 확인하였다.
본 연구에서 사용한 구름 데이터 세트는 적색, 녹색, 청색 등 3개의 색상 채널과 한 개의 근적외선 채널로 구성되어 있다. 하지만, 본 연구에서는 기존 방법과의 객관적인 성능 비교를 위해 3개의 색상 정보만을 입력으로 사용하였으며, 기존 방법에 비해 성능이 개선되는 것을 확인하였다. 따라서 향후 연구에서는 현재 분류 성능이 낮은 옅은 구름이나 구름 그림자의 검출 성능을 향상하기 위하여 근적외선 채널 정보를 통합하여 최적의 네트워크 구조를 탐색할 수 있도록 제안 방법을 확장할 예정이다.
의미 영역 분할 분야에서 많이 활용되는 5개 모델과 제안 방법의 성능은 Table 6과 같다. 의미 영역 분할 분야에서 가장 중요한 성능 지표인 mIoU 측면에서 성능을 살펴보면 제안 방법이 의미 영역 분할 분야에서 가장 최신 모델인 트랜스포머 기반의 SegFormer에 비해 더 나은 성능을 보여주는 것을 확인할 수 있다. 이는 데이터 세트에 최적화된 네트워크를 탐색하는 것이 딥러닝 모델의 성능 향상에 중요한 요소임을 의미한다.
후속연구
하지만, 본 연구에서는 기존 방법과의 객관적인 성능 비교를 위해 3개의 색상 정보만을 입력으로 사용하였으며, 기존 방법에 비해 성능이 개선되는 것을 확인하였다. 따라서 향후 연구에서는 현재 분류 성능이 낮은 옅은 구름이나 구름 그림자의 검출 성능을 향상하기 위하여 근적외선 채널 정보를 통합하여 최적의 네트워크 구조를 탐색할 수 있도록 제안 방법을 확장할 예정이다.
참고문헌 (36)
Buttar, P. K. and Sachan, M. K., 2022. Semantic?segmentation of clouds in satellite images based?on U-Net++ architecture and attention mechanism.?Expert Systems with Applications, 209, 118380.?https://doi.org/10.1016/j.eswa.2022.118380
Byeon, Y., Jin, D., Seong, N., Woo, J., Jeon, U., and?Han, K.-S., 2022. A study on daytime transparent?cloud detection through machine learning: Using?GK-2A/AMI. Korean Journal of Remote Sensing,?38(6-1), 1181-1189. https://doi.org/10.7780/kjrs.2022.38.6.1.15
Chu, X., Zhou, T., Zhang, B., and Li, J., 2020. Fair DARTS:?Eliminating unfair advantages in differentiable?architecture search. In: Vedaldi, A., Bischof, H.,?Brox, T., Frahm, J. M. (eds.), Computer Vision -?ECCV 2020, Springer, pp. 1-17. https://doi.org/10.1007/978-3-030-58555-6_28
Demir, I., Koperski, K., Lindenbaum, D., Pang, G.,?Huang, J., Basu, S. et al., 2018. DeepGlobe 2018:?A challenge to parse the earth through satellite?images. In Proceedings of the 2018 IEEE/CVF?Conference on Computer Vision and Pattern?Recognition Workshops (CVPRW), Salt Lake City,?UT, USA, June 18-22, pp. 172-181. https://doi.org/10.1109/CVPRW.2018.00031
Fan, M., Lai, S., Huang, J., Wei, X., Chai, Z., Luo, J.,?and Wei, X., 2021. Rethinking BiSeNet for real-time semantic segmentation. In Proceedings of?the 2021 IEEE/CVF Conference on Computer?Vision and Pattern Recognition (CVPR), Nashville,?TN, USA, June 20-25, pp. 9711-9720. https://doi.org/10.1109/CVPR46437.2021.00959
Hong, Y., Pan, H., Sun, W., and Jia, Y., 2021. Deep dual-resolution networks for real-time and accurate?semantic segmentation of road scenes. arXiv?preprint arXiv:2101.06085. https://doi.org/10.48550/arXiv.2101.06085
Huang, Y., Tang, Z., Chen, D., Su, K., and Chen, C., 2020. Batching soft IoU for training semantic?segmentation networks. IEEE Signal Processing?Letters, 27, 66-70. https://doi.org/10.1109/LSP.2019.2956367
Jeong, C.-Y., Shin, H.-C., and Kim, M., 2021. Sensor-data augmentation for human activity recognition?with time-warping and data masking. Multimedia?Tools and Applications, 80, 20991-21009. https://doi.org/10.1007/s11042-021-10600-0
Jeong, C.-Y., Moon, K., and Kim, M., 2023. An end-to-end deep learning approach for real-time single?image dehazing. Journal of Real-Time Image?Processing, 20(1), 12. https://doi.org/10.1007/s11554-023-01270-2
Kang, J., Park, G., Kim, G., Youn, Y., Choi, S., and?Lee, Y., 2022. Cloud detection from sentinel-2?images using DeepLabV3+ and swin transformer?models. Korean Journal of Remote Sensing,?38(6-2), 1743-1747. https://doi.org/10.7780/kjrs.2022.38.6.2.14
Kim, M.-J. and Ko, Y.-H., 2022. A study on the cloud?detection technique of heterogeneous sensors?using modified DeepLabV3+. Korean Journal of?Remote Sensing, 38(5-1), 511-521. https://doi.org/10.7780/kjrs.2022.38.5.1.6
Lee, M., Kim, M., and Jeong, C. Y., 2022. Real-time?semantic segmentation on edge devices: A?performance comparison of segmentation models.?In Proceedings of the 2022 13th International?Conference on Information and Communication?Technology Convergence (ICTC), Jeju Island,?Republic of Korea, Oct. 19-21, pp. 383-388.?https://doi.org/10.1109/ICTC55196.2022.9952938
Li, L., Zhou, T., Wang, W., Li, J., and Yang, Y., 2022.?Deep hierarchical semantic segmentation. In?Proceedings of the 2022 IEEE/CVF Conference?on Computer Vision and Pattern Recognition?(CVPR), New Orleans, LA, USA, June 18-24,?pp. 1236-1247. https://doi.org/10.1109/CVPR52688.2022.00131
Li, Q., Yang, W., Liu, W., Yu, Y., and He, S., 2021.?From contexts to locality: ultra-high resolution?image segmentation via locality-aware contextual?correlation. In Proceedings of the 2021 IEEE/CVF?International Conference on Computer Vision?(ICCV), Montreal, QC, Canada, Oct. 10-17, pp.?7232-7241. https://doi.org/10.1109/ICCV48922.2021.00716
Lin, T. Y., Goyal, P., Girshick, R., He, K., and Dollar,?P., 2017. Focal loss for dense object detection. In?Proceedings of the 2017 IEEE/CVF International?Conference on Computer Vision (ICCV), Venice,?Italy, Oct. 22-29, pp. 2999-3007. https://doi.org/10.1109/ICCV.2017.324
Liu, C., Yang, S., Di, D., Yang, Y., Zhou, C., Hu, X.,?and Sohn, B. J., 2022. A machine learning-based?cloud detection algorithm for the Himawari-8?spectral image. Advances in Atmospheric Sciences,?39, 1994-2007. https://doi.org/10.1007/s00376-021-0366-x
Liu, H., Simonyan, K., and Yang, Y., 2018. DARTS:?Differentiable architecture search. arXiv preprint?arXiv:1806.09055. https://doi.org/10.48550/arXiv.1806.09055
Long, J., Shelhamer, E., and Darrell, T., 2015. Fully?convolutional networks for semantic segmentation.?In Proceedings of the 2015 IEEE/CVF Conference?on Computer Vision and Pattern Recognition?(CVPR), Boston, MA, USA, June 8-10, pp. 3431-3440. https://doi.org/10.1109/CVPR.2015.7298965
MMSegmentation, 2020. MMSegmentation: OpenMMLab?semantic segmentation toolbox and benchmark.?Available online: https://github.com/open-mmlab/mmsegmentation (accessed on Jan. 10, 2023).
Mohajerani, S. and Saeedi, P., 2020. Cloud and cloud?shadow segmentation for remote sensing imagery?via filtered Jaccard loss function and parametric?augmentation. arXiv preprint arXiv:2001.08768.?https://doi.org/10.48550/arXiv.2001.08768
National Information Society Agency AI Hub, 2020.?Dataset for object recognition from satellite?imagery. Available online: https://aihub.or.kr/aihubdata/data/view.do?currMenu115topMenu100 (accessed on Jan. 10, 2023).
Qiu, S., He, B., Zhu, Z., Liao, Z., and Quan, X., 2017.?Improving Fmask cloud and cloud shadow?detection in mountainous area for Landsats 4-8?images. Remote Sensing of Environment, 199,?107-119. https://doi.org/10.1016/j.rse.2017.07.002
Ronneberger, O., Fischer, P., and Brox, T., 2015. U-Net: Convolutional Networks for Biomedical Image?Segmentation. In: Navab, N., Hornegger, J., Wells,?W., Frangi, A. (eds.), Medical Image Computing?and Computer-Assisted Intervention - MICCAI?2015, Springer, pp. 234-241. https://doi.org/10.1007/978-3-319-24574-4_28
Seo, S. and Jung, H., 2023. A robust collision prediction?and detection method based on neural network?for autonomous delivery robots. ETRI Journal,?45(2), 329-337. https://doi.org/10.4218/etrij.2021-0397
Shrivastava, A., Gupta, A., and Girshick, R., 2016. Training?region-based object detectors with online hard?example mining. In Proceedings of the 2016 IEEE?Conference on Computer Vision and Pattern?Recognition (CVPR), Las Vegas, NV, USA, June?27-30, pp. 761-769. https://doi.org/10.1109/CVPR.2016.89
Tian, J., Mithun, N. C., Seymour, Z., Chiu, H., and Kira,?Z., 2021. Striking the right balance: Recall loss?for semantic segmentation. arXiv preprint arXiv: 2106.14917. https://doi.org/10.48550/arXiv.2106.14917
Wei, J., Huang, W., Li, Z., Sun, L., Zhu, X., Yuan, Q.,?Liu, L., and Cribb, M., 2020. Cloud detection?for Landsat imagery by combining the random?forest and superpixels extracted via energy-driven?sampling segmentation approaches. Remote Sensing?of Environment, 248, 112005. https://doi.org/10.1016/j.rse.2020.112005
Xie, E., Wang, W., Yu, Z., Anandkumar, A., Alvarez, J.?M., and Luo, P., 2021. SegFormer: Simple and?efficient design for semantic segmentation with?transformers. Advances in Neural Information?Processing Systems, 34, 12077-12090.
Yeom, J., Ko, J., Hwang, J., Lee, C., Choi, C., and?Jeong, S., 2018. Updating absolute radiometric?characteristics for KOMPSAT-3 and KOMPSAT3A multispectral imaging sensors using well-characterized pseudo-invariant tarps and microtops?II. Remote Sensing, 10(5), 697. https://doi.org/10.3390/rs10050697
Yuan, Y., Chen, X., and Wang, J., 2020. Object-contextual?representations for semantic segmentation. In:?Vedaldi, A., Bischof, H., Brox, T., Frahm, J. M.?(eds.), Computer Vision - ECCV 2020, Springer,?pp. 173-190. https://doi.org/10.1007/978-3-030-58539-6_11
Yun, S., Han, D., Oh, S. J., Chun, S., Choe, J., and Yoo,?Y., 2019. Cutmix: Regularization strategy to?train strong classifiers with localizable features.?In Proceedings of the 2019 IEEE/CVF International?Conference on Computer Vision (ICCV), Seoul,?Republic of Korea, Oct. 27-Nov. 2, pp. 6022-6031. https://doi.ieeecomputersociety.org/10.1109/ICCV.2019.00612
Zhang, J., Li, X., Li, L., Sun, P., Su, X., Hu, T., and?Chen, F., 2020. Lightweight U-Net for cloud?detection of visible and thermal infrared remote?sensing images. Optical and Quantum Electronics,?52(397), 1-14. https://doi.org/10.1007/s11082-020-02500-8
Zhu, Z., Wang, S., and Woodcock, C. E., 2015. Improvement?and expansion of the Fmask algorithm: cloud,?cloud shadow, and snow detection for Landsats?4-7, 8, and Sentinel 2 images. Remote Sensing?of Environment, 159, 269-277. https://doi.org/10.1016/j.rse.2014.12.014
※ AI-Helper는 부적절한 답변을 할 수 있습니다.