[국내논문]다양한 크기의 식별자를 적용한 Cycle GAN을 이용한 다목적실용위성 5호 SAR 영상 색상 구현 방법 The Method for Colorizing SAR Images of Kompsat-5 Using Cycle GAN with Multi-scale Discriminators원문보기
다목적실용위성 5호는 국내 최초로 영상레이더(SAR)가 탑재된 지구관측위성이다. SAR 영상은 위성에 부착된 안테나로부터 방사된 마이크로파가 물체로부터 반사된 신호를 수신하여 생성된다. SAR는 대기 중의 입자의 크기에 비해 파장이 긴 마이크로파를 사용하기 때문에 구름이나 안개 등을 투과할 수 있으며, 주야간 구분 없이 고해상도의 영상을 얻을 수 있다. 하지만, SAR 영상에는 색상 정보가 부재하는 제한점이 존재한다. 이러한 SAR 영상의 제한점을 극복하기 위해, 도메인 변환을 위해 개발된 딥러닝 모델인 Cycle GAN을 활용하여 SAR 영상에 색상을 대입하는 연구를 수행하였다. Cycle GAN은 unpaired 데이터셋 기반의 무감독 학습으로 인해 학습이 불안정하다. 따라서 Cycle GAN의 학습 불안정성을 해소하고, 색상 구현의 성능을 향상하기 위해 다중 크기 식별자를 적용한 MS Cycle GAN을 제안하였다. MS Cycle GAN과 Cycle GAN의 색상 구현 성능을 비교하기 위하여 두 모델이 Florida 데이터셋을 학습하여 생성한 영상을 정성적 및 정량적으로 비교하였다. 다양한 크기의 식별자가 도입된 MS Cycle GAN은 기존의 Cycle GAN과 비교하여 학습 결과에서 생성자 및 식별자 손실이 대폭 감소되었고, 나뭇잎, 강, 토지 등의 영역 특성에 부합하는 색상이 구현되는 것을 확인하였다.
다목적실용위성 5호는 국내 최초로 영상레이더(SAR)가 탑재된 지구관측위성이다. SAR 영상은 위성에 부착된 안테나로부터 방사된 마이크로파가 물체로부터 반사된 신호를 수신하여 생성된다. SAR는 대기 중의 입자의 크기에 비해 파장이 긴 마이크로파를 사용하기 때문에 구름이나 안개 등을 투과할 수 있으며, 주야간 구분 없이 고해상도의 영상을 얻을 수 있다. 하지만, SAR 영상에는 색상 정보가 부재하는 제한점이 존재한다. 이러한 SAR 영상의 제한점을 극복하기 위해, 도메인 변환을 위해 개발된 딥러닝 모델인 Cycle GAN을 활용하여 SAR 영상에 색상을 대입하는 연구를 수행하였다. Cycle GAN은 unpaired 데이터셋 기반의 무감독 학습으로 인해 학습이 불안정하다. 따라서 Cycle GAN의 학습 불안정성을 해소하고, 색상 구현의 성능을 향상하기 위해 다중 크기 식별자를 적용한 MS Cycle GAN을 제안하였다. MS Cycle GAN과 Cycle GAN의 색상 구현 성능을 비교하기 위하여 두 모델이 Florida 데이터셋을 학습하여 생성한 영상을 정성적 및 정량적으로 비교하였다. 다양한 크기의 식별자가 도입된 MS Cycle GAN은 기존의 Cycle GAN과 비교하여 학습 결과에서 생성자 및 식별자 손실이 대폭 감소되었고, 나뭇잎, 강, 토지 등의 영역 특성에 부합하는 색상이 구현되는 것을 확인하였다.
Kompsat-5 is the first Earth Observation Satellite which is equipped with an SAR in Korea. SAR images are generated by receiving signals reflected from an object by microwaves emitted from a SAR antenna. Because the wavelengths of microwaves are longer than the size of particles in the atmosphere, i...
Kompsat-5 is the first Earth Observation Satellite which is equipped with an SAR in Korea. SAR images are generated by receiving signals reflected from an object by microwaves emitted from a SAR antenna. Because the wavelengths of microwaves are longer than the size of particles in the atmosphere, it can penetrate clouds and fog, and high-resolution images can be obtained without distinction between day and night. However, there is no color information in SAR images. To overcome these limitations of SAR images, colorization of SAR images using Cycle GAN, a deep learning model developed for domain translation, was conducted. Training of Cycle GAN is unstable due to the unsupervised learning based on unpaired dataset. Therefore, we proposed MS Cycle GAN applying multi-scale discriminator to solve the training instability of Cycle GAN and to improve the performance of colorization in this paper. To compare colorization performance of MS Cycle GAN and Cycle GAN, generated images by both models were compared qualitatively and quantitatively. Training Cycle GAN with multi-scale discriminator shows the losses of generators and discriminators are significantly reduced compared to the conventional Cycle GAN, and we identified that generated images by MS Cycle GAN are well-matched with the characteristics of regions such as leaves, rivers, and land.
Kompsat-5 is the first Earth Observation Satellite which is equipped with an SAR in Korea. SAR images are generated by receiving signals reflected from an object by microwaves emitted from a SAR antenna. Because the wavelengths of microwaves are longer than the size of particles in the atmosphere, it can penetrate clouds and fog, and high-resolution images can be obtained without distinction between day and night. However, there is no color information in SAR images. To overcome these limitations of SAR images, colorization of SAR images using Cycle GAN, a deep learning model developed for domain translation, was conducted. Training of Cycle GAN is unstable due to the unsupervised learning based on unpaired dataset. Therefore, we proposed MS Cycle GAN applying multi-scale discriminator to solve the training instability of Cycle GAN and to improve the performance of colorization in this paper. To compare colorization performance of MS Cycle GAN and Cycle GAN, generated images by both models were compared qualitatively and quantitatively. Training Cycle GAN with multi-scale discriminator shows the losses of generators and discriminators are significantly reduced compared to the conventional Cycle GAN, and we identified that generated images by MS Cycle GAN are well-matched with the characteristics of regions such as leaves, rivers, and land.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
앞서 언급한 사전 연구에서는 사용자가 정의한 색상의 개수로만 표현할 수 있거나, 입력 영상에 대한 라벨 영상이 존재하는 paired 데이터셋 기반으로만 모델의 학습이 가능했던 한계점이 존재하였다. 이러한 기존 연구의 한계점을 해소하기 위해서 본 논문에서는 unpaired 데이터셋 기반으로 무감독 학습(Unsupervised Learning)이 가능한 Cycle GAN(Zhu et al., 2017)을 이용하여 SAR 영상에 색상을 구현하는 연구를 수행하였다.
Cycle GAN은 unpaired 데이터셋을 기반의 색상 구현을 위한 학습 과정이 무감독 학습으로 수행되면서 학습이 불안정한 문제점이 발생한다. 따라서 본 논문에서는 기존 GAN의 학습 불안정성을 해소하고 SAR 영상에서 광학 영상으로 도메인 변환을 통해 SAR 영상에 색상을 구현하기 위해 다중 식별자를 Cycle GAN에 도입하여 MS Cycle GAN을 제안하였다.
, 2017). 따라서 본 장에서는 SAR 영상에서 광학 영상으로 도메인 변환을 수행할 때 발생하는 Cycle GAN의 학습 불안정을 해소하기 위해 GAN의 학습 불안정성을 해소하려는 목적으로 수행되었던 다중 식별자(Durugkar et al., 2017) 및 다양한 크기의 식별자(Wang et al., 2016)를 Cycle GAN에 적용하여 SAR 영상의 색상 구현을 위한 딥러닝 모델인 MS(Multi-Scale) Cycle GAN을 제안하였다. MS Cycle GAN의 개략적인 구성도는 Fig.
이러한 Cycle GAN의 한계점을 극복하기 위한 대안으로 다양한 크기의 식별자를 적용하였다. 다양한 크기의 식별자는 기존 연구에서 GAN의 학습 불안정성과 생성 영상의 해상도 향상에 효과가 있음이 증명되었으며, 본 논문에서는 다중 크기의 식별자 적용한 Cycle GAN을 MS Cycle GAN을 제안하였다.
제안 방법
기존의 인공 신경망은 많은 데이터를 가지고 있더라도 실제의 확률 밀도 값을 알 수 없기 때문에 회귀 분석을 통한 학습이 불가능했다. 하지만, GAN은 실제 확률 밀도 값을 모르더라도 가우시안 분포에서 잡음 벡터를 임의로 추출하고, 추출된 잡음 벡터를 생성자 인공신경망을 통해 데이터로 변환하였다. GAN은 데이터를 생성하는 인공 신경망인 생성자와 생성되는 데이터 분포의 진위 여부를 식별하는 인공 신경망인 식별자로 구성되어 있으며, 생성자와 식별자의 적대적 학습을 위한 목적함수가 제시되어야 한다.
, 2017). 학습 과정에서 입력 영상과 해당 영상의 라벨을 추가적으로 제공하는 Conditional GAN(Mirza et al., 2014; Isola et al., 2017)에 크기가 다른 다중 식별자를 적용하여 도메인 변환을 위한 학습을 진행하였다. 다중 크기의 식별자는 다양한 크기로 생성자가 생성한 영상을 동시에 판별한다.
본 장에서는 unpaired 데이터셋 기반의 도메인 변환을 목적으로 개발된 Cycle GAN(Zhu et al., 2017)과본논문에서 제안한 MS Cycle GAN의 색상 구현 성능을 정량적 및 정성적으로 비교하였다. Cycle GAN과 MS Cycle GAN을 Florida 데이터셋으로 학습시킴으로써 SAR 영상에 색상을 구현하기 위한 실험을 수행하고, 그 결과를 수록하였다.
, 2017)과본논문에서 제안한 MS Cycle GAN의 색상 구현 성능을 정량적 및 정성적으로 비교하였다. Cycle GAN과 MS Cycle GAN을 Florida 데이터셋으로 학습시킴으로써 SAR 영상에 색상을 구현하기 위한 실험을 수행하고, 그 결과를 수록하였다. 실험에 사용된 SAR 영상의 공간 해상도는 1 m이다.
, 2014; Goodfellow, 2016). 따라서 다수의 실험을 통해 하이퍼파라미터의 값을 생성자가 최적의 영상을 생성하는 값을 시각적으로 판단하여 선택하였다. MS Cycle GAN의 학습 과정은 Cycle GAN과 동일하다.
본 논문에 수록한 실험 결과는 크게 정량적인 분석과정성적인 결과로 나누어진다. Cycle GAN과 MS Cycle GAN이 Florida 데이터셋의 학습 과정에서 출력하는 adversarial 손실과 cycle-consistency 손실을 분석하여 그 수치를 정성적으로 비교하였다. 정성적 분석에서 그치지 않고 Cycle GAN과 MS Cycle GAN이 Florida데 데이터셋을 학습한 후 동일하게 입력된 시험 데이터의 SAR 영상에서 광학 영상으로 도메인 변환을 수행하여 색상을 구현한 영상을 정량적으로 비교하였다.
Cycle GAN과 MS Cycle GAN이 Florida 데이터셋의 학습 과정에서 출력하는 adversarial 손실과 cycle-consistency 손실을 분석하여 그 수치를 정성적으로 비교하였다. 정성적 분석에서 그치지 않고 Cycle GAN과 MS Cycle GAN이 Florida데 데이터셋을 학습한 후 동일하게 입력된 시험 데이터의 SAR 영상에서 광학 영상으로 도메인 변환을 수행하여 색상을 구현한 영상을 정량적으로 비교하였다. 또한, MS Cycle GAN과 Cycle GAN의 학습의 안정성을 비교하기 위하여 50 에폭마다 학습된 생성자가 생성하는 영상을 비교 및 수록하였다.
정성적 분석에서 그치지 않고 Cycle GAN과 MS Cycle GAN이 Florida데 데이터셋을 학습한 후 동일하게 입력된 시험 데이터의 SAR 영상에서 광학 영상으로 도메인 변환을 수행하여 색상을 구현한 영상을 정량적으로 비교하였다. 또한, MS Cycle GAN과 Cycle GAN의 학습의 안정성을 비교하기 위하여 50 에폭마다 학습된 생성자가 생성하는 영상을 비교 및 수록하였다. Fig.
38이었다. 두 모델의 adversarial 손실에 따른 학습 안정성을 비교하기 위해 Fig. 7에서 50 에폭마다 두 모델의 생성자가 생성하는 영상을 비교하였다. Fig.
하지만, SAR 데이터는 대상체의 색상에 관한 정보를 포함하지 않는다. SAR 영상의 이러한 제한점을 극복하기 위해 GAN을 기반으로 한 딥러닝 모델을 이용하여 SAR 영상의 색상을 구현하는 실험을 수행하고 그 결과를 수록하였다.
이러한 Cycle GAN의 한계점을 극복하기 위한 대안으로 다양한 크기의 식별자를 적용하였다. 다양한 크기의 식별자는 기존 연구에서 GAN의 학습 불안정성과 생성 영상의 해상도 향상에 효과가 있음이 증명되었으며, 본 논문에서는 다중 크기의 식별자 적용한 Cycle GAN을 MS Cycle GAN을 제안하였다.
Cycle GAN과 MS Cycle GAN의 SAR 영상 색상 구현성능을 비교하기 위한 실험을 수행하였고, 학습된 두 모델이 생성하는 영상을 정성적 및 정량적으로 비교하였다. 두 모델의 학습에는 Florida 데이터셋을 이용하였다.
두 모델의 학습에는 Florida 데이터셋을 이용하였다. Florida 데이터셋은 다목적실용위성 5호가 촬영한 Florida 주 도심 지역의 SAR 위성 영상과 Google Earth Pro 프로그램에서 캡쳐한 광학 영상을 두 도메인으로 하여 구축하였다.
Cycle GAN과 MS Cycle GAN은 Python 언어를 기반으로 Pytorch(Facebook, 2017) 딥러닝 라이브러리를 활용하여 구현하였다. 본 연구를 수행한 환경은 Table 2와 같다.
대상 데이터
국내에서 최초로 SAR가 탑재된 지구관측위성은 한국항공우주연구원에서 2013년 8월 22일일에 발사되고 이후 운영하는 다목적 실용위성 5호이다. 다목적실용위성 5호는 하루 네 번 한반도를 관측할 수 있으며 공공안전, 재난 재해 예측, 국토 자원관리, 환경감시 등 다양한 분야에서 활용되고 있다.
, 2017). 입력하는 SAR 영상에 기하학적으로 일치하는 하는 광학 영상으로 구성된 paired 데이터셋을 모델의 학습에 이용하였다. Paired 데이터셋은 모든 SAR 영상에 해상도가 동일하며 기하학적으로 완벽히 일치하는 광학 영상이 쌍으로 구성된 데이터셋을 의미한다.
Cycle GAN과 MS Cycle GAN을 Florida 데이터셋으로 학습시킴으로써 SAR 영상에 색상을 구현하기 위한 실험을 수행하고, 그 결과를 수록하였다. 실험에 사용된 SAR 영상의 공간 해상도는 1 m이다. 광학영상은 R, G, B 세 밴드를 이용하여 생성되었으며, 공간 해상도는 약 15 cm이다(Google, 2018).
광학영상은 R, G, B 세 밴드를 이용하여 생성되었으며, 공간 해상도는 약 15 cm이다(Google, 2018). 두 모델의 SAR 영상에서 광학 영상으로 도메인 변환 실험을 수행하기 위하여 Florida 데이터셋을 구축하였다.
일반적으로 동일한 지역을 촬영한 광학 영상과 SAR 위성 영상은 해상도가 다르며 영상에 포함된 대상 물체는 시간에 따른 자연적인 변화 및 공사 등에 의한 인위적인 변화로 인해 동일한 모습을 유지하지 않기 때문에 같은 지역이더라도 촬영되는 영상이 다를 수 있다. 따라서 MS Cycle GAN과 Cycle GAN을 학습시키기 위한 데이터는 unpaired 데이터셋으로 구축하였으며 Florida 데이터셋으로 명하였다.
5와 같다. Florida 데이터셋에서 SAR 영상은 한국항공우주연구원에서 운영하고 있는 다목적10월 동안 HR모드로 미국의 Florida 주 도심 지역을 촬영한 영상을 이용하여 구축하였다. 광학 영상은 Google Earth Pro프로그램에서 Florida 주 내의 임의의 지역을 캡쳐하였다.
Florida 데이터셋에서 SAR 영상은 한국항공우주연구원에서 운영하고 있는 다목적10월 동안 HR모드로 미국의 Florida 주 도심 지역을 촬영한 영상을 이용하여 구축하였다. 광학 영상은 Google Earth Pro프로그램에서 Florida 주 내의 임의의 지역을 캡쳐하였다. 획득한 SAR 영상의 개수가 두 모델을 학습시키기에 불충분하였기 때문에, 다목적실용위성 5호가 촬영한 영상을 256×256의 크기로 무작위로 추출하여 전체적인 영상의 개수를 늘렸다.
Cycle GAN과 MS Cycle GAN의 SAR 영상 색상 구현성능을 비교하기 위한 실험을 수행하였고, 학습된 두 모델이 생성하는 영상을 정성적 및 정량적으로 비교하였다. 두 모델의 학습에는 Florida 데이터셋을 이용하였다. Florida 데이터셋은 다목적실용위성 5호가 촬영한 Florida 주 도심 지역의 SAR 위성 영상과 Google Earth Pro 프로그램에서 캡쳐한 광학 영상을 두 도메인으로 하여 구축하였다.
이론/모형
MS Cycle GAN의 목적함수는 수식(7)~(11)과 같다. MS Cycle GAN과 마찬가지로 LSGAN(Xudong et al., 2017)의 목적 함수를 이용하였다.
성능/효과
MS Cycle GAN과 Cycle GAN의 학습에는 Florida 데이터셋을 구축하여 이용하였으며, 학습 과정과 생성 영상을 정량적 및 정성적 방법으로 비교 및 평가함으로써, Cycle GAN에 다양한 크기의 식별자가 적용되었을 때, 학습 불안정이 완화되었으며 색상 구현 성능이 효과적으로 개선되었음을 확인하였다.
반면, 학습 과정에서 수식 (8)의 첫 항과 둘째 항인 생성자 손실과 식별자 손실을 더한 adversarial 손실과 마지막 항의 cycleconsistency 손실의 반영 비중을 결정하는 λ는 색상 구현을 위한 Cycle GAN은 3에서 최적의 생성 영상을 보였으며, MS Cycle GAN은 0.0003일 때 모드의 진동 없이 안정적으로 학습이 진행되었다.
Fig. 6(a)에서 Cycle GAN의 생성자 손실은 학습이 진행되면서 증가하는 양상을 보이며 특정한 값에 수렴하지 않았으며 수식 (2)에서 설계하였던 LSGAN의 목적 함수에 부합하게 학습되지 않았음을 확인할 수 있다. Fig.
7(b)의 MS Cycle GAN의 생성 영상 #는 학습 과정 동안 안정적으로 변환이 수행되었으며, 입력 영상의 강, 나무, 토지 등이 영역 특성에 적절하게 색상이 구현되었다. 따라서 다양한 크기의 식별자는 Cycle GAN의 학습 불안정성을 해소하는데 효과가 있음을 확인하였다. 학습에 사용되지 않은 시험 데이터를 두 모델이 변환한 결과는 Fig.
실험을 수행한 결과, MS Cycle GAN은 기존의 Cycle GAN과 비교하여 학습 불안정성이 개선되었다. Cycle GAN의 adversarial 손실은 수렴하지 않았지만, MS Cycle GAN의 adversarial 손실은 대폭 감소되어 0.
실험을 수행한 결과, MS Cycle GAN은 기존의 Cycle GAN과 비교하여 학습 불안정성이 개선되었다. Cycle GAN의 adversarial 손실은 수렴하지 않았지만, MS Cycle GAN의 adversarial 손실은 대폭 감소되어 0.0001이하로 수렴하였으며, MS Cycle GAN이 변환한 영상에서는 입력 영상의 특성에 맞는 색상이 구현되었다.
후속연구
MS Cycle GAN은 Cycle GAN의 학습 불안정성을 해소함으로써 색상 구현 성능을 향상할 수 있었지만, 생성되는 영상의 해상도가 향상되는 것은 확인할 수 없었다. 또한, SAR 위성 영상이 입력되어 변환된 광학 영상과 실제 광학 영상이 일치하는 정도를 객관적으로 제시할 수 있는 지표를 도입하여 결과를 분석하는 과정이 추가적으로 수행되어야 할 것이다.
질의응답
핵심어
질문
논문에서 추출한 답변
SAR를 탑재한 위성으로 얻은 데이터의 문제점은?
SAR를 탑재한 위성은 전천후 주야간 구분 없이 고해상도 영상을 얻을 수 있다. 하지만, SAR 데이터는 입사 및 반사 전자파 간의 관계를 기반으로 계산되고 대상의 산란 메커니즘에 따라 달라지기 때문에 SAR 데이터 자체는 대상의 색상에 관한 정보를 포함하지 않는다(Argenti et al., 2012).
국내에서 최초로 SAR가 탑재된 지구관측위성은 무엇인가?
국내에서 최초로 SAR가 탑재된 지구관측위성은 한국항공우주연구원에서 2013년 8월 22일일에 발사되고 이후 운영하는 다목적 실용위성 5호이다. 다목적실용위성 5호는 하루 네 번 한반도를 관측할 수 있으며 공공안전, 재난 재해 예측, 국토 자원관리, 환경감시 등 다양한 분야에서 활용되고 있다.
GAN은 무엇인가요?
GAN(Goodfellow et al., 2014)은 실제 데이터의 확률밀도 값을 알 수 없을 때 발생하는 최대우도 추정의 한계를 적대적 학습(Adversarial Training)을 통해 우회한 생성형 모델(Generative Model)의 새로운 프레임워크이다(Goodfellow et al., 2014).
참고문헌 (19)
Argenti, F., A. Lapini, T. Bianchi, and L. Alparone, 2013. A tutorial on speckle reduction in synthetic aperture radar images, IEEE Geoscience and remote sensing magazine, 1(3): 6-35.
Deng, Q., Y. Chen, W. Zhang, and J. Yang, 2008. Colorization for Polarimetric SAR image based on scattering mechanisms, Proc. of 2008 Congress on Image and Signal Processing, Las Vegas, NV, Mar. 30-Apr. 4, vol. 1, pp. 697-701.
Durugkar, I., I. Gemp and S. Mahadevan, 2016. Generative multi-adversarial networks, arXiv preprint arXiv:1611.01673.
Goodfellow, I., J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farely, S. Ozaire, A. Courvile, and Y. Bengio, 2014. Generative Adversarial Nets, Proc. of 2014 Advances in Neural Information Processing Systems, Montreal, Quebec, Dec. 8-13, vol. 1, pp. 2672-2680.
Google, 2018. https://lp.google-mkto.com/Google-imagery.html, Accessed on Dec. 12, 2018.
He, K., X. Zhang, S. Ren, and J. Sun, 2016. Deep residual learning for image recognition, Proc. of 2016 International Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, Jun. 26-Jul. 1, vol. 1, pp. 770-778.
Kala, Z., K. Mikolajczyk, and J. Matas, 2010. Forwardbackward error: Automatic detection of tracking failures, Proc. of 2010 International Conference on Pattern Recognition, Istanbul, Turkey, Aug. 23-Aug. 26, vol. 1, pp. 2756-2759.
LeCun, Y., 1998. The MNIST database of handwritten digits, http://yann.lecun.com/exdb/mnist/, Accessed on Nov. 29, 2018.
Mirza, M. and O. Simon, 2014. Conditional generative adversarial nets, arXiv preprint arXiv:1411.1784.
NASA, 2013. https://eospso.nasa.gov/missions/seasat-1, Accessed on Oct. 30, 2018.
Xudong, M., H. Xie, R. Lau, Z. Wang, and S. P. Smolley, 2017. Proc. of 2017 International Conference on Computer Vision and Pattern Recognition, Honolulu, HI, Jul. 22-Jul. 25, vol. 1, pp. 2812-2821.
Isola, P., J. Zhu, T. Zhou, and A. A. Efros, 2017. Imageto-Image Translation with Conditional Adversarial Networks, Proc. of 2017 International Conference on Computer Vision and Pattern Recognition, Honolulu, HI, Jul. 22-Jul. 25, vol. 1, pp. 5967-5976.
Radford, A., L. Metz, and S. Chintala, 2015. Unsupervised representation learning with deep convolutional generative adversarial networks, arXiv preprint arXiv:1511.06434.
Song, Q., F. Xu, and Y. Jin, 2018. Radar Image Colorization: Converting Single-Polarization to Fully Polarimetric Using Deep Neural Networks, IEEE Access, 6: 1647-1661.
Space-Track, 2013. https://www.space-track.org/#catalog, Accessed on Nov. 29, 2018.
Sundaram, N., T. Brox, and K. Keutzer, 2010. Dense point trajectories by GPU-accelerated large displacement optical flow, Proc. of 2010 European conference on Computer Vision, Heraklion, Greece, Sep. 5-Sep. 11, vol. 1, pp. 438-451.
Wang, T. C., M. Y. Liu, J. Y. Zhu, A. Tao, J. Kautz, and B. Cantanzaro, 2017. High-resolution image synthesis and semantic manipulation with conditional gans, arXiv preprint arXiv: 1711.11585.
Zhu, J. Y., T. Park, P. Isola, and A. A. Efros, 2017. Unpaired Image-to- Image Translation using Cycle-Consistent Adversarial Networks, Proc. of 2017 International Conference on Computer Vision, Venice, Italy, Oct. 22-Oct. 29, vol. 1, pp. 2242-2251.
이 논문을 인용한 문헌
활용도 분석정보
상세보기
다운로드
내보내기
활용도 Top5 논문
해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다. 더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.