정사영상 생성을 위한 많은 연구들이 진행되어 왔다. 기존의 방법은 정사영상을 제작할 경우, 폐색지역을 탐지하고 복원하기 위해 항공영상의 외부표정요소와 정밀 3D 객체 모델링 데이터가 필요하며, 일련의 복잡한 과정을 자동화하는 것은 어렵다. 본 논문에서는 기존의 방법에서 탈피하여 딥러닝(DL)을 이용하여 엄밀정사영상을 제작하는 새로운 방법을 제안하였다. 딥러닝은 여러 분야에서 더욱 급속하게 활용되고 있으며, 최근 생성적 적대 신경망(GAN)은 영상처리 및 컴퓨터비전 분야에서 많은 관심의 대상이다. GAN을 구성하는 생성망은 실제 영상과 유사한 결과가 생성되도록 학습을 수행하고, 판별망은 생성망의 결과가 실제 영상으로 판단될 때까지 반복적으로 수행한다. 본 논문에서 독일 사진측량, 원격탐사 및 공간정보학회(DGPF)가 구축하고 국제 사진측량 및 원격탐사학회(ISPRS)가 제공하는 데이터 셋 중에서 라이다반사강도 데이터와 적외선 정사영상을 GAN기반의 Pix2Pix 모델 학습에 사용하여 엄밀정사영상을 생성하는 두 가지 방법을 제안하였다. 첫 번째 방법은 라이다 반사강도영상을 입력하고 고해상도의 정사영상을 목적영상으로 사용하여 학습하는 방식이고, 두 번째 방법에서도 입력영상은 첫 번째 방법과 같이 라이다 반사강도영상이지만 목적영상은 라이다 점군집 데이터에 칼라를 지정한 저해상도의 영상을 이용하여 재귀적으로 학습하여 점진적으로 화질을 개선하는 방법이다. 두 가지 방법으로 생성된 정사영상을 FID(Fréchet Inception Distance)를 이용하여 정량적 수치로 비교하면 큰 차이는 없었지만, 입력영상과 목적영상의 품질이 유사할수록, 학습 수행 시 epoch를 증가시키면 우수한 결과를 얻을 수 있었다. 본 논문은 딥러닝으로 엄밀정사영상 생성 가능성을 확인하기 위한 초기단계의 실험적 연구로서 향후 보완 및 개선할 사항을 파악할 수 있었다.
정사영상 생성을 위한 많은 연구들이 진행되어 왔다. 기존의 방법은 정사영상을 제작할 경우, 폐색지역을 탐지하고 복원하기 위해 항공영상의 외부표정요소와 정밀 3D 객체 모델링 데이터가 필요하며, 일련의 복잡한 과정을 자동화하는 것은 어렵다. 본 논문에서는 기존의 방법에서 탈피하여 딥러닝(DL)을 이용하여 엄밀정사영상을 제작하는 새로운 방법을 제안하였다. 딥러닝은 여러 분야에서 더욱 급속하게 활용되고 있으며, 최근 생성적 적대 신경망(GAN)은 영상처리 및 컴퓨터비전 분야에서 많은 관심의 대상이다. GAN을 구성하는 생성망은 실제 영상과 유사한 결과가 생성되도록 학습을 수행하고, 판별망은 생성망의 결과가 실제 영상으로 판단될 때까지 반복적으로 수행한다. 본 논문에서 독일 사진측량, 원격탐사 및 공간정보학회(DGPF)가 구축하고 국제 사진측량 및 원격탐사학회(ISPRS)가 제공하는 데이터 셋 중에서 라이다 반사강도 데이터와 적외선 정사영상을 GAN기반의 Pix2Pix 모델 학습에 사용하여 엄밀정사영상을 생성하는 두 가지 방법을 제안하였다. 첫 번째 방법은 라이다 반사강도영상을 입력하고 고해상도의 정사영상을 목적영상으로 사용하여 학습하는 방식이고, 두 번째 방법에서도 입력영상은 첫 번째 방법과 같이 라이다 반사강도영상이지만 목적영상은 라이다 점군집 데이터에 칼라를 지정한 저해상도의 영상을 이용하여 재귀적으로 학습하여 점진적으로 화질을 개선하는 방법이다. 두 가지 방법으로 생성된 정사영상을 FID(Fréchet Inception Distance)를 이용하여 정량적 수치로 비교하면 큰 차이는 없었지만, 입력영상과 목적영상의 품질이 유사할수록, 학습 수행 시 epoch를 증가시키면 우수한 결과를 얻을 수 있었다. 본 논문은 딥러닝으로 엄밀정사영상 생성 가능성을 확인하기 위한 초기단계의 실험적 연구로서 향후 보완 및 개선할 사항을 파악할 수 있었다.
During last decades numerous studies generating orthoimage have been carried out. Traditional methods require exterior orientation parameters of aerial images and precise 3D object modeling data and DTM (Digital Terrain Model) to detect and recover occlusion areas. Furthermore, it is challenging tas...
During last decades numerous studies generating orthoimage have been carried out. Traditional methods require exterior orientation parameters of aerial images and precise 3D object modeling data and DTM (Digital Terrain Model) to detect and recover occlusion areas. Furthermore, it is challenging task to automate the complicated process. In this paper, we proposed a new concept of true orthoimage generation using DL (Deep Learning). DL is rapidly used in wide range of fields. In particular, GAN (Generative Adversarial Network) is one of the DL models for various tasks in imaging processing and computer vision. The generator tries to produce results similar to the real images, while discriminator judges fake and real images until the results are satisfied. Such mutually adversarial mechanism improves quality of the results. Experiments were performed using GAN-based Pix2Pix model by utilizing IR (Infrared) orthoimages, intensity from LiDAR data provided by the German Society for Photogrammetry, Remote Sensing and Geoinformation (DGPF) through the ISPRS (International Society for Photogrammetry and Remote Sensing). Two approaches were implemented: (1) One-step training with intensity data and high resolution orthoimages, (2) Recursive training with intensity data and color-coded low resolution intensity images for progressive enhancement of the results. Two methods provided similar quality based on FID (Fréchet Inception Distance) measures. However, if quality of the input data is close to the target image, better results could be obtained by increasing epoch. This paper is an early experimental study for feasibility of DL-based true orthoimage generation and further improvement would be necessary.
During last decades numerous studies generating orthoimage have been carried out. Traditional methods require exterior orientation parameters of aerial images and precise 3D object modeling data and DTM (Digital Terrain Model) to detect and recover occlusion areas. Furthermore, it is challenging task to automate the complicated process. In this paper, we proposed a new concept of true orthoimage generation using DL (Deep Learning). DL is rapidly used in wide range of fields. In particular, GAN (Generative Adversarial Network) is one of the DL models for various tasks in imaging processing and computer vision. The generator tries to produce results similar to the real images, while discriminator judges fake and real images until the results are satisfied. Such mutually adversarial mechanism improves quality of the results. Experiments were performed using GAN-based Pix2Pix model by utilizing IR (Infrared) orthoimages, intensity from LiDAR data provided by the German Society for Photogrammetry, Remote Sensing and Geoinformation (DGPF) through the ISPRS (International Society for Photogrammetry and Remote Sensing). Two approaches were implemented: (1) One-step training with intensity data and high resolution orthoimages, (2) Recursive training with intensity data and color-coded low resolution intensity images for progressive enhancement of the results. Two methods provided similar quality based on FID (Fréchet Inception Distance) measures. However, if quality of the input data is close to the target image, better results could be obtained by increasing epoch. This paper is an early experimental study for feasibility of DL-based true orthoimage generation and further improvement would be necessary.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
또한, 중복 촬영된 여러 영상으로부터 폐색지역을 복원할 수 있는 영상을 선택하여야 하는 여러 단계의 복잡한 과정이 요구되며, 이러한 일련의 과정을 자동화하는 것은 어렵다. 본 논문은 기존의 방법과 다른 라이다 반사강도(intensity)를 딥러닝의 학습 데이터로 사용하는 방안을 제시하고자 한다. 연구를 위해 Isola et al.
제안 방법
본 논문은 기존의 방법과 다른 라이다 반사강도(intensity)를 딥러닝의 학습 데이터로 사용하는 방안을 제시하고자 한다. 연구를 위해 Isola et al. (2017)가 제안한 Pix2Pix를 사용하여 반사강도 데이터로부터 엄밀정사영상을 생성하는 것을 두 가지 방법으로 진행하였다: (1) 반사강도영상과 목적영상인 정사영상을 사용하여 딥러닝 모델을 한번 학습하는 방법, (2) 반사강도영상과 목적영상을 단계별로 서로 다르게 사용하여 딥러닝 모델을 재귀적으로 학습하는 방법.
1 참조). CNN의 특성적 구조를 적용하여 생성망과 판별망을 구성하였다. Pix2Pix의 학습 성과를 판단하기 위한 오차함수는 Eqs.
Pix2Pix 모델에서 학습하기에 적합한 형태인 입력영상과 목적영상을 학습 데이터로 사용하기 위해 한 쌍으로 구성하였다. 또한, 학습에 필요한 데이터의 수량을 증가시키기 위해 Fig.
Ubuntu 18.04 환경에서 Pytorch 라이브러리를 사용하여 Pix2Pix 모델 학습을 수행하였다. 본 연구에서 제안한 두 가지 방법은 Fig.
초기 단계에서는 반사강도영상과 래스터화한 자연컬러영상을 학습시키고, 중간 단계에서는 초기 단계의 결과 영상과 래스터화한 자연컬러영상을 학습시킨다. 최종 단계에서는 중간 단계의 결과영상과 적외선영상을 인공신경망을 사용하여 변환한 자연컬러영상을 학습시켰다.
딥러닝의 효율은 하이퍼파라미터와 같은 학습환경에 영향을 받으므로 본 연구에서는 Pix2Pix 모델이 제시한 초기 설정 값으로 하이퍼 파라미터를 적용하였다. 모든 학습은 초기 학습률을 0.
학습 결과(Fig. 11 참조)와 학습된 모델(trained model)에 시험 영상을 입력한 결과(Fig. 12 참조)를 분석하였다. 엄밀정사영상의 품질을 정량적으로 수치화하여 FID 점수를 이용하여 평가하였지만, 한계가 있으므로 보다 세부적인 평가를 위해 결과 영상과 목적영상을 시각적으로 비교 분석하였다.
12 참조)를 분석하였다. 엄밀정사영상의 품질을 정량적으로 수치화하여 FID 점수를 이용하여 평가하였지만, 한계가 있으므로 보다 세부적인 평가를 위해 결과 영상과 목적영상을 시각적으로 비교 분석하였다. 이를 위하여 학습 방법에 따른 결과를 건물, 도로 및 수목지역으로 구별하여 선정하였다.
엄밀정사영상의 품질을 정량적으로 수치화하여 FID 점수를 이용하여 평가하였지만, 한계가 있으므로 보다 세부적인 평가를 위해 결과 영상과 목적영상을 시각적으로 비교 분석하였다. 이를 위하여 학습 방법에 따른 결과를 건물, 도로 및 수목지역으로 구별하여 선정하였다. 다만, 방법 1의 경우 1은 누적 epoch 횟수에 차이가 있고 방법 2의 단계별 결과는 중간 과정이므로 시각적 비교에서 생략했다.
본 연구에서 제안한 딥러닝을 적용하여 라이다 반사강도영상을 이용하여 엄밀정사영상을 생성하는 연구를 수행한 결과, 다음과 같은 결론을 얻을 수 있었다.
특히 고층 건물이 밀집한 도심지역에서는 왜곡 보정과 폐색지역 복원을 위해 세밀도(LoD)가 높은 건물모델 데이터가 요구된다. 그러므로 정사투영에 의해 획득된 라이다 데이터로부터 딥러닝 기법으로 효율적으로 엄밀정사영상을 생성할 수 있는 방법을 제시하였다.
Vaihingen 데이터 셋은 적외선 정사영상을 제공하므로 Fig. 4의 인공신경망을 이용하여 동일한 해상도의 자연 컬러영상(natural color image)으로 변환하였다. 일반적으로 적외선 영상을 자연 컬러영상으로 변환하는 분광변환식을 이용하지만, 센서마다 특정 컬러에 대한 민감도가 다르므로 분광변환식을 적용하는 것은 한계가 있다.
일반적으로 적외선 영상을 자연 컬러영상으로 변환하는 분광변환식을 이용하지만, 센서마다 특정 컬러에 대한 민감도가 다르므로 분광변환식을 적용하는 것은 한계가 있다. 본 연구에서는 Fig. 4와 같은 밴드조합 원리를 적용한 인공신경망(ANN)을 구성하여 밴드별 조합계수의 미세조정에 의해 더욱 자연스러운 컬러영상을 생성했다(Hyung et al., 2020).
본 연구에서 제안하는 두 가지 학습 방법은 서론에서 설명한 바와 같으며, 방법 1은 영상 품질의 차이가 크게 나는 라이다 데이터로부터 생성한 단일 밴드의 반사강도영상과 광학 영상으로부터 생성된 RGB 밴드의 정사영상을 입력영상과 목적영상으로 하여 학습하는 것이다. 방법 2는 방법 1의 영상 품질 차이가 학습 결과 저하에 영향을 주는 것으로 판단하여 세 번의 단계적 학습을 수행하여 단일 밴드인 반사강도영상에 먼저 색상을 입히고 학습한다면 최종적으로 더 나은 결과영상을 보일 것으로 예상하여 수행하였다.
본 연구에서 제안하는 두 가지 학습 방법은 서론에서 설명한 바와 같으며, 방법 1은 영상 품질의 차이가 크게 나는 라이다 데이터로부터 생성한 단일 밴드의 반사강도영상과 광학 영상으로부터 생성된 RGB 밴드의 정사영상을 입력영상과 목적영상으로 하여 학습하는 것이다. 방법 2는 방법 1의 영상 품질 차이가 학습 결과 저하에 영향을 주는 것으로 판단하여 세 번의 단계적 학습을 수행하여 단일 밴드인 반사강도영상에 먼저 색상을 입히고 학습한다면 최종적으로 더 나은 결과영상을 보일 것으로 예상하여 수행하였다.
, 2020). 또한, 방법 2의 재귀적 DL 모델의 학습을 위해 IDW 보간법으로 입력영상인 반사강도영상과 동일한 품질의 컬러 목적영상을 생성했다. Fig.
시험 데이터를 학습된 모델에 입력하여 생성된 결과 영상을 분석하였다. 딥러닝의 특성상 시험 데이터의 결과는 학습 결과에 비해 생성 품질이 저하된다.
대상 데이터
연구를 위해 ISPRS에서 제공하는 Vaihingen 지역의 라이다 데이터로부터 반사강도영상을 생성하고, 인공신경망에 의해 자연 컬러영상을 재현하여 학습 데이터로 사용하여 최종적으로 연구를 진행하였다.
실험에 사용한 데이터는 ISPRS의 “도심지역 분류와 3D 건물 재현을 위한 시범 프로젝트”(Rottensteiner et al, 2013)의 일환으로 독일 Vaihingen 지역에 대해 구축한 공간정보 데이터 셋이며, German Society for Photogrammetry, Remote Sensing & Geoinformatics가 제공하고 있다(Cramer, 2010).
실험에 사용한 데이터는 ISPRS의 “도심지역 분류와 3D 건물 재현을 위한 시범 프로젝트”(Rottensteiner et al, 2013)의 일환으로 독일 Vaihingen 지역에 대해 구축한 공간정보 데이터 셋이며, German Society for Photogrammetry, Remote Sensing & Geoinformatics가 제공하고 있다(Cramer, 2010). Vaihingen 데이터 셋에서 DL 모델의 학습(training)과 시험(test)을 위해 적외선 정사영상(IR-R-G 밴드)과 라이다 반사강도 데이터를 사용하였다. GSD (Ground Sample Distance) 0.
50m 이다. 사용 좌표계는 EPSG:32632 (WGS 84/UTM zone 32N)로 구성되어 있다. Fig.
Pix2Pix 모델에서 학습하기에 적합한 형태인 입력영상과 목적영상을 학습 데이터로 사용하기 위해 한 쌍으로 구성하였다. 또한, 학습에 필요한 데이터의 수량을 증가시키기 위해 Fig. 6에서 보여주는 것처럼 종횡방향으로 50% 중복하여 256X256 크기의 영상으로 분할하였다. 학습을 위해선 정한 Vaihingen 데이터는 4개 지역으로 구성하였고 분할한 총 1023장의 영상 중에서 800장(75%)은 학습용, 223장(25%)은 시험용으로 구분하여 사용하였다(Table 1 참조).
6에서 보여주는 것처럼 종횡방향으로 50% 중복하여 256X256 크기의 영상으로 분할하였다. 학습을 위해선 정한 Vaihingen 데이터는 4개 지역으로 구성하였고 분할한 총 1023장의 영상 중에서 800장(75%)은 학습용, 223장(25%)은 시험용으로 구분하여 사용하였다(Table 1 참조).
이론/모형
5(b)와 Fig. 5(c)에 사용한 IDW 보간법은 Laspy 파이썬 라이브러리를 사용하여 포인트의 좌표를 추출하였고 QGIS를 이용하여 래스터화했다.
(2017)이 고안한 방법이다. 따라서 본 논문에서는 GAN의 생성 영상을 보다 객관적으로 판단하기 위해 정량적으로 측정하는 방법인 FID를 사용하여 평가한다.
학습에 필요한 반사강도영상은 IDW (Inverse Distance Weighting) 보간법으로 재배열(resampling)하여 생성하였다. 자연 컬러로 변환된 영상과 공간 해상도는 동일하지만, 품질이 낮다.
성능/효과
10은 학습 데이터(800장)와 시험 데이터(223장)로부터 2가지 방법을 경우와 단계별로 나눠 계산한 FID 점수의 평균을 그래프로 나타낸 것이다. FID 점수는 낮을수록 목적영상과 생성영상의 차이가 없는 것을 나타내며 학습 방법별로 유의미한 정보를 얻을 수 있었다. 첫 번째로, 입력영상과 목적영상의 품질 차이에서 오는 결과 영상의 생성수준이다.
FID 점수는 낮을수록 목적영상과 생성영상의 차이가 없는 것을 나타내며 학습 방법별로 유의미한 정보를 얻을 수 있었다. 첫 번째로, 입력영상과 목적영상의 품질 차이에서 오는 결과 영상의 생성수준이다. 방법 1의 경우 1과 방법 2의 단계 1의 학습 epoch 횟수는 200회로 같지만, 방법 1의 경우 1은 입력 영상과 목적영상간의 품질 차이가 크고 방법 2의 단계 1은 품질이 동일하다.
두 번째로, 본 논문에서 제시하는 방법 2의 학습 과정은 단일 밴드인 반사강도영상과 RGB 밴드인 정사영상 간의 품질 차이가 학습 결과에 영향을 미친다고 판단하여 단계적으로 품질을 향상 시키고 학습하였지만, 직접적으로 학습한 방법과 비교하여 생성영상에 대한 FID 점수가 거의 같으며 차이가 없었다. 오히려 방법 1의 경우 1과 경우 2를 비교하면 epoch 횟수가 학습 수준에 지대한 영향을 보인다는 것을 확인할 수 있다.
학습 결과를 분석하면 건물의 경우 전체적인 건물의 형태와 세부 객체 측면에서 방법 1에 비해 방법 2의 결과가 다소 우수하다고 판단된다. 도로와 수목지역은 두 가지 방법에 의한 결과가 유사하다.
도로의 경우는 방법 1의 결과가 방법 2보다 다소 우수하다. 시험 데이터에 의한 결과는 재귀적 학습 과정에서 이전 단계의 결과가 미흡하면 저하된 품질의 결과물이 생성되어 다음 단계의 모델 학습에 사용되므로 최종 결과에 부정적인 영향을 줄 수 있다. 또한, 항공영상의 촬영 시기와 라이다 데이터의 획득 시기가 서로 다른 경우 지형지물에 변화가 발생할 수 있으므로(예: 이동하는 차량, 건축물 및 시설물의 시간적 변화) 결과에 영향을 주는 요인이 될 수 있다.
또한, 항공영상의 촬영 시기와 라이다 데이터의 획득 시기가 서로 다른 경우 지형지물에 변화가 발생할 수 있으므로(예: 이동하는 차량, 건축물 및 시설물의 시간적 변화) 결과에 영향을 주는 요인이 될 수 있다. 연구에 사용한 딥러닝 모델인 Pix2Pix는 모든 방법의 학습데이터와 시험 데이터의 결과영상에서 라이다 반사강도영상의 화질을 저하시키는 줄무늬 노이즈를 효과적으로 제거하여 영상의 품질이 향상됨을 확인하였다.
(3) Pix2Pix는 반사강도영상에 발생하는 노이즈를 효과적으로 감소시키는 장점이 있으므로 고품질 영상으로 개선하는 방법으로 사용할 수 있다. 그러나 본 논문은 소량의 데이터를 학습에 사용하였으므로 만족할 만한 성과를 얻지 못했지만, 딥러닝에 의한 정밀정사영상 생성 가능성을 확인하였다.
(3) Pix2Pix는 반사강도영상에 발생하는 노이즈를 효과적으로 감소시키는 장점이 있으므로 고품질 영상으로 개선하는 방법으로 사용할 수 있다. 그러나 본 논문은 소량의 데이터를 학습에 사용하였으므로 만족할 만한 성과를 얻지 못했지만, 딥러닝에 의한 정밀정사영상 생성 가능성을 확인하였다.
(6) Pix2Pix 모델은 입력영상과 목적영상의 품질 차이가 학습에 영향을 미친다는 것을 확인할 수 있다. 그러므로 라이다 데이터 취득 시 점밀도를 광학영상 수준의 GSD만큼 취득 할 수 있다면 더욱 향상된 결과를 얻을 수 있는 학습이 가능할 것으로 판단된다.
후속연구
(4) 본 연구에서 제시한 재귀적 학습은 방법론적으로는 우수하지만 여러 조건이 만족될 때만 상승효과가 향상될 것으로 사료된다. 이를 위해 다양한 학습 조건(epoch, batch 크기 및 정규화 방법 등)에 따른 최적화가 필요하다.
이를 위해 다양한 학습 조건(epoch, batch 크기 및 정규화 방법 등)에 따른 최적화가 필요하다. 또한, 학습에 사용한 영상에는 다양한 객체(건물, 수목, 도로, 자동차 등)이 혼재되어 학습 객체의 일관성이 결여되어 있으므로 객체별로 구분하여 학습을 수행하면 결과가 향상될 것으로 사료된다.
(5) 정사영상 제작에서 건물에 비해 도로와 수목은 기복 변위나 폐색지역이 적게 나타나므로 추후 연구에서는 건물 객체에 대한 딥러닝을 수행하여 건물 외의 지역은 일반광학영상으로, 건물 지역은 딥러닝을 통해 생성한 영상을 조합한다면 효율적인 정사영상 생성이 가능할 것으로 사료된다.
(6) Pix2Pix 모델은 입력영상과 목적영상의 품질 차이가 학습에 영향을 미친다는 것을 확인할 수 있다. 그러므로 라이다 데이터 취득 시 점밀도를 광학영상 수준의 GSD만큼 취득 할 수 있다면 더욱 향상된 결과를 얻을 수 있는 학습이 가능할 것으로 판단된다.
질의응답
핵심어
질문
논문에서 추출한 답변
GAN은 누구에 의해 처음 개발되었는가?
GAN은 Goodfellow et al. (2014)에 의해 처음 개발되었으며, GAN의 구조는 결과를 생성하는 생성망과 이를 구별하는 판별망으로 구성되어 있다. 임의의 데이터가 생성망에 입력되어 학습을 수행한다.
GAN의 구조는 무엇들로 구성되어 있는가?
GAN은 Goodfellow et al. (2014)에 의해 처음 개발되었으며, GAN의 구조는 결과를 생성하는 생성망과 이를 구별하는 판별망으로 구성되어 있다. 임의의 데이터가 생성망에 입력되어 학습을 수행한다.
기존의 방법으로 정사영상 생성에는 어떠한 단점이 있었는가?
정사영상 생성을 위한 많은 연구들이 진행되어 왔다. 기존의 방법은 정사영상을 제작할 경우, 폐색지역을 탐지하고 복원하기 위해 항공영상의 외부표정요소와 정밀 3D 객체 모델링 데이터가 필요하며, 일련의 복잡한 과정을 자동화하는 것은 어렵다. 본 논문에서는 기존의 방법에서 탈피하여 딥러닝(DL)을 이용하여 엄밀정사영상을 제작하는 새로운 방법을 제안하였다.
참고문헌 (31)
Amhar, F., Jansa, J., and Ries, C. (1998), The generation of true orthophotos using a 3d building model in conjunction with a conventional DTM, International Archives of Photogrammetry and Remote Sensing, Vol. 32, pp. 16-22.
Arjovsky, M., Chintala, S., and Bottou, L. (2017), Wasserstein generative adversarial networks, International Conference on Machine Learning-2017, 6-11 August, Sydney, Australia, pp. 214-223.
Bashmal, L., Bazi, Y., AlHichri, H., AlRahhal, M., Ammour, N., and Alajlan, N. (2018), Siamese-GAN: Learning invariant representations for aerial vehicle image categorization, Remote Sensing, Vol. 10, No. 2, pp. 351.
Behnke, S. (2003), Hierarchical Neural Networks for Image Interpretation, Springer-Verlag, Berlin, Germany.
Cramer, M. (2010), The DGPF test on digital aerial camera evaluation - Overview and test design. Photogrammetrie, Fernerkundung, Geoinformation, Vol. 2, pp. 73-82.
Demir, U. and Unal, G. (2018), Patch-Based image inpainting with generative adversarial networks, arXiv:1803.07422v1.
Demiray, B., Sit, M., and Demir, I. (2020), D-SRGAN: DEM super-resolution with generative adversarial networks, arXiv:2004.04788v2.
Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. (2014), Generative adversarial nets, Neural Information Processing Systems, pp. 2672-2680.
Gui, J., Sun, Z., Wen, Y., Tao, D., and Ye, J. (2020), A review on generative adversarial networks: algorithms, theory, and applications, arXiv:2001.06937v1.
Habib, A., Kim, E.M., and Kim, C.J. (2007), New methodologies for true orthophoto generation, Photogrammetric Engineering & Remote Sensing, Vol. 73, No. 1, pp. 25-36.
Heusel, M., Ramsauer, H., Unterthiner, T., Nessler, B., Klambauer, G., and Hochreiter, S. (2017), GANs trained by a two time-scale update rule converge to a Nash equilibrium, arXiv:1706.08500v6.
Hyung, S., Shin, Y., and Lee, D.C. (2020), Artificial neural network for IR image to true color image conversion, Proceedings of Korean Society of Surveying, Geodesy, Photogrammetry & Cartography-2020, 2-3 July, Seoul, Korea, pp. 212-217. (in Korean with English abstract)
Isola, P., Zhu, J.Y., Zhou, T., and Efros, A. (2017), Image-toimage translation with conditional adversarial networks, IEEE Conference on Computer Vision and Pattern Recognition-2017, 21-26 July, Honolulu, HI, USA, pp. 1125-1134.
Kim, E., Choi, H., and Park, J. (2017), Analysis of applicability of orthophoto using 3d mesh on aerial image with large file size, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Vol. 35, No. 3, pp. 155-166.
Kim, J. and Um, D. (2015), High quality ortho-image production using the high resolution DMC aerial image, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Vol. 33, No. 1, pp. 11-21.
LeCun, Y., Boser, B., Denker, J.S., Henderson, D., Howard, R.E., Hubbard, W., and Jackel, L.D. (1989), Backpropagation applied to handwritten zip code recognition, Neural Computation, Vol. 4, No. 1, pp. 541-551.
Lee, H. (2008), Producing true orthophoto using multidimensional spatial information, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Vol. 26, No. 3, pp. 241-253.
Li, C. and Wand, M. (2016), Precomputed real-time texture synthesis with markovian generative adversarial networks, European Conference on Computer Vision-2016, 11-14 October, Amsterdam, The Netherlands, pp. 702-716.
Mirza, M. and Osindero, S. (2014), Conditional generative adversarial nets, arXiv:1411.1784.
Panagiotou, E., Chochlakis, G., Grammatikopoulos, L., and Charou, E. (2020), Generating elevation surface from a single RGB remotely sensed image using deep learning, Remote Sensing, Vol. 12, No. 12.
Radford, A., Metz, L., and Chintala, S. (2015), Unsupervised representation learning with deep convolutional generative adversarial networks, arXiv:1511.06434.
Ronneberger, O., Fischer, P., and Brox, T. (2015), U-Net: Convolutional networks for biomedical image segmentation, Medical Image Computing and Computer-Assisted Intervention, pp. 234-241.
Rottensteiner, F., Sohn, G., Gerke, M., and Wegner, J. (2013), ISPRS test project on urban classification and 3D building reconstruction, http://www2.isprs.org/tl_files/isprs/wg34/docs/ComplexScenes_revision_v4.pdf (last date accessed: 6 April 2018).
Sajjadi, M., Scholkopf, B., and Hirsch, M. (2017), Enhancenet: Single image super-resolution through automated texture synthesis, The IEEE International Conference on Computer Vision-2017, 22-29 October, Venice, Italy, pp. 4501-4510.
Salimans, T., Goodfellow, I., Zaremba, W., Cheung, V., Radford, A., and Chen, X. (2016), Improved Techniques for Training GANs, arXiv:1606.03498v1.
Shelhamer, E., Long, J., and Darrell, T. (2017), Fully convolutional networks for semantic segmentation, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 39, No. 4, pp. 640-651.
Simard, P., Steinkraus, D., and Platt, J. (2003), Best practices for convolutional neural networks applied to visual document analysis, International Conference on Document Analysis and Recognition-2003, 3-6 August, Edinburgh, Scotland, UK, pp. 958-963.
Vaananen, P. (2019), Removing 3D Point Cloud Occlusion Artifacts with Generative Adversarial Networks, PhD thesis, Department of Computer Science, University of Helsinki, Helsinki, Finland, 56p.
Wang, A., Li, Y., Jiang, K., Zhao, L., and Iwahori, Y. (2019), Lidar data classification algorithm based on generative adversarial network, IEEE International Geoscience and Remote Sensing Symposium, pp. 2487-2490.
Yarlagadda, S., Guera, D., Bestagini, P., Zhu, F., Tubaro, S., and Delp, E. (2018), Satellite image forgery detection and localization using GAN and one-class classifier, Electronic Imaging, Vol. 2018, No. 7, pp. 214-1-214-9.
Yoo, E. and Lee D.C. (2016), True orthoimage generation by mutual recovery of occlusion areas, GIScience & Remote Sensing, Vol. 53, No. 2, pp. 227-246.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.