영상융합은 "특정 알고리즘의 사용을 통해 두 개 혹은 그 이상의 서로 다른 영상을 조합하여 새로운 영상을 만들어내는 것"을 뜻하며 원격탐사에서는 주로 낮은 공간해상도의 멀티스펙트럴 영상과 높은 공간해상도의 흑백영상을 융합하여 높은 공간해상도의 멀티스펙트럴 영상을 생성하는 것을 의미한다. 일반적으로 하이퍼스펙트럴 영상융합을 위해서는 기존의 멀티스펙트럴 영상융합 기법을 이용한 방법이나 분광혼합기법을 이용한 방법을 사용한다. 전자의 경우에는 분광정보가 손실될 가능성이 높으며, 후자의 경우는, endmember의 정보나 부가적인 데이터가 필요하고 결과 영상의 경우 공간적 정보가 상대적으로 부정확한 문제점을 보인다. 따라서 본 연구에서는 하이퍼스펙트럴 영상의 분광특성을 보존하기 위한 융합방법으로서 2단계 분광혼합기법을 사용한 영상융합 알고리즘을 제안하였으며 이를 실제 Hyperion, ALI 영상에 적용하여 평가하였다. 이를 통해 제안한 알고리즘에 의해서 융합된 결과가 PCA, GS 융합기법에 비해서 높은 공간, 분광 해상도를 유지할 수 있음을 보여주었다.
영상융합은 "특정 알고리즘의 사용을 통해 두 개 혹은 그 이상의 서로 다른 영상을 조합하여 새로운 영상을 만들어내는 것"을 뜻하며 원격탐사에서는 주로 낮은 공간해상도의 멀티스펙트럴 영상과 높은 공간해상도의 흑백영상을 융합하여 높은 공간해상도의 멀티스펙트럴 영상을 생성하는 것을 의미한다. 일반적으로 하이퍼스펙트럴 영상융합을 위해서는 기존의 멀티스펙트럴 영상융합 기법을 이용한 방법이나 분광혼합기법을 이용한 방법을 사용한다. 전자의 경우에는 분광정보가 손실될 가능성이 높으며, 후자의 경우는, endmember의 정보나 부가적인 데이터가 필요하고 결과 영상의 경우 공간적 정보가 상대적으로 부정확한 문제점을 보인다. 따라서 본 연구에서는 하이퍼스펙트럴 영상의 분광특성을 보존하기 위한 융합방법으로서 2단계 분광혼합기법을 사용한 영상융합 알고리즘을 제안하였으며 이를 실제 Hyperion, ALI 영상에 적용하여 평가하였다. 이를 통해 제안한 알고리즘에 의해서 융합된 결과가 PCA, GS 융합기법에 비해서 높은 공간, 분광 해상도를 유지할 수 있음을 보여주었다.
Image fusion is defined as making new image by merging two or more images using special algorithms. In case of remote sensing, it means fusing multispectral low-resolution remotely sensed image with panchromatic high-resolution image. Generally, hyperspectral image fusion is accomplished by utilizin...
Image fusion is defined as making new image by merging two or more images using special algorithms. In case of remote sensing, it means fusing multispectral low-resolution remotely sensed image with panchromatic high-resolution image. Generally, hyperspectral image fusion is accomplished by utilizing fusion technique of multispectral imagery or spectral unmixing model. But, the former may distort spectral information and the latter needs endmember data or additional data, and has a problem with not preserving spatial information well. This study proposes a new algorithm based on two stage spectral unmixing model for preserving hyperspectral image's spectral information. The proposed fusion technique is implemented and tested using Hyperion and ALI images. it is shown to work well on maintaining more spatial/spectral information than the PCA/GS fusion algorithms.
Image fusion is defined as making new image by merging two or more images using special algorithms. In case of remote sensing, it means fusing multispectral low-resolution remotely sensed image with panchromatic high-resolution image. Generally, hyperspectral image fusion is accomplished by utilizing fusion technique of multispectral imagery or spectral unmixing model. But, the former may distort spectral information and the latter needs endmember data or additional data, and has a problem with not preserving spatial information well. This study proposes a new algorithm based on two stage spectral unmixing model for preserving hyperspectral image's spectral information. The proposed fusion technique is implemented and tested using Hyperion and ALI images. it is shown to work well on maintaining more spatial/spectral information than the PCA/GS fusion algorithms.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
따라서, 본 연구에서는 endmember의 정보와 부가적인 자료가 필요하지 않으며 기존의 하이퍼스펙트럴 영상융합기법이 가지는 분광정보 및 공간정보의 손실문제를 극복하기 위해서 2단계 분광혼합기법 기반의 영상융합방법을 제안하였다. 또한 이를 기존의 대표적인 영상융합 방법인 PCA융합, GS융합기법과 비교하여 알고리즘의 유효성을 평가하였다.
및 개수의 정보를 알아야 한다. endmember의 개수와 종류에 의해서 abundance 영상과 RMSE (Root Mean Square Error)영상의 결과가 달라지기 때문에 영상융합에 선형분광혼합모델을 적용하기 위해서는 최적의endmember 집합을 찾는 것이 가장 중요하다(Antonio, 2004), 따라서 본 연구에서는 무감독 endmember 추출을 통한 제약선형분광혼합모델을 제시하였다. 이를 통해서 영상융합에 필요한 영상 내의 endmember를 자동으로 추출하였으며, endmember의 개수는 RMSE영상을이용하여 최적화 시키도록 하였다.
본 연구에서는 융합된 영상의 정량적인 평가와 시각적인 평가를 모두 고려하기 위해 두가지의 실험을 수행하였다. 또한, 제안한 알고리즘의 성능 평가를 위해서 하이퍼스펙트럴 영상융합에 효과적인 알고리즘으로 알려져 있는 Envi 4.
본 연구에서는 하이퍼스펙트럴 영상의 가장 큰 특징인 연속된 분광정보를 효과적으로 보존하기 위해서 2단계의 분광혼합모델을 이용한 융합기법을 제시하였다. 본 연구를 통해서 기존의 분광혼합모델을 이용한 융합기법들이 가지고 있던 문제점을 해결하였다.
제시하였다. 본 연구를 통해서 기존의 분광혼합모델을 이용한 융합기법들이 가지고 있던 문제점을 해결하였다. 일련의 알고리즘을 자동화하여 사용자의 개입이 최소화되도록 하였으며, 분류결과 등의 부가데이터나 endmember의 정보를 필요로 하지 않도록 하였다.
가설 설정
제약선형분광혼합모델의 적용을 위해서는 최소 2개 이상의 endmembei가 있어야 한다. 첫번째 endmember는 하이퍼스펙트럴 영상 내에서 가장 큰 벡터 크기를 가지고 있는 화소로 가정하며, 두번째 endmembei는 영상 내에서 가장 작은 벡터 크기를 가지는 화소로서 구하는 식은 아래와 같다.
하이퍼스펙트럴 영상의 각각의 endmember의 분광 정보를 고해상도 영상 화소의 밝기값으로 변환하였다고 가정하자. 이때 변환정보는 endmember들의 영상 내 위치정보를 알고 있기 때문에, 해당하는 고해상도 영상의 밝기값을 직접 추출하여 식 13과 같은 제약조건 식을 얻을 수 있다.
제안 방법
unmixing을 이용한 영상융합의 경우에는 분광정보의 보존이라는 측면에서는 뛰어난 성능을 보이지만 unmixing을 수행하기 위해서 미리 endmember1)에 관련된 정보를 알고 있어야 한다는 문제점을 가지고 있다. 또한, 융합방법을 적용할 때 고해상도 영상의 부가적인 조건들영상의 분류결과, 멀티스펙트럴 고해상도 영상)이 필요한 알고리즘도 존재하며, 시각적인 정확도 평가 및 abundance2) 영상에서 고해상도 하이퍼스펙트럴 영상으로의 복구에 대한 결과물 평가가 이루어지지 않았다.
제안하였다. 또한 이를 기존의 대표적인 영상융합 방법인 PCA융합, GS융합기법과 비교하여 알고리즘의 유효성을 평가하였다.
제안한 알고리즘은 크게 2단계로 구성된다. 첫 번째는 무감독 endmember 추출을 통한 제약선형분광혼합모델(constrained linear spectral unmixing model)의 적용부분으로 하이퍼스펙트럴 영상의 각 지표의 구성요소 간 점유비율을 나타내는 abundance 영상을 효과적으로 구성하기 위한 알고리즘을 제시하였다. 두 번째 단계는 abundance 영상의 공간해상도를 증가시키기 위한 방법으로써 추출된 제약조건을 가지고 조건방정식을 구성한 후 과소결정 최소제곱법Underdetermined Least Square Method)을 적용하여 abundance 영상의 공간해상도를 증가시켰다.
두 번째 단계는 abundance 영상의 공간해상도를 증가시키기 위한 방법으로써 추출된 제약조건을 가지고 조건방정식을 구성한 후 과소결정 최소제곱법Underdetermined Least Square Method)을 적용하여 abundance 영상의 공간해상도를 증가시켰다. 생성된 고해상도의 abundance 영상에 선형분광혼합모델의 역변환을 적용하여 고해상도의 하이퍼스펙트럴 영상을 생성하였다.
endmember의 개수와 종류에 의해서 abundance 영상과 RMSE (Root Mean Square Error)영상의 결과가 달라지기 때문에 영상융합에 선형분광혼합모델을 적용하기 위해서는 최적의endmember 집합을 찾는 것이 가장 중요하다(Antonio, 2004), 따라서 본 연구에서는 무감독 endmember 추출을 통한 제약선형분광혼합모델을 제시하였다. 이를 통해서 영상융합에 필요한 영상 내의 endmember를 자동으로 추출하였으며, endmember의 개수는 RMSE영상을이용하여 최적화 시키도록 하였다. 전체적인 알고리즘은 다음과 같다(Chein-Ⅰ, 2000).
관측식은 하이퍼스펙트럴 영상의한 화소와 이에 대응되는 고해상도 영상의 화소들 간의 제약조건들을 이용하여 구성할 수 있다. 본 연구에서는 3가지의 제약조건을 이용하여 abundance 영상의 관측방정식을 설정하였다. 3가지의 제약조건은 화소기반 제약조건, endmember기반 제약조건, 고해상도 영상기반제약조건으로 구분된다.
총 242개의 밴드 중 영상의 밝기값 평균이 0인 밴드는 분광정보를 전혀 가지고 있지 않은 것으로 간주하여 제거하였고, 또한 시각적으로 영상의 대부분에 걸쳐 노이즈가 존재하는 영상을 제외한 총 93개의 밴드를 선택하였다. 추출된 영상은 ALI 영상과의 기하보정을 실시하였으며, 최종적으로 두 영상의 공통부분을 추출하여 실험에 사용하였다.
영상융합 알고리즘의 정량적 평가의 경우에는 기준이 될 자료가 존재하지 않기 때문에, 강제적으로 해상도를 낮춘 영상을 실험에 사용하였으며, 이는 그림 3과 같다. 융합된 영상은 원 30m Hyperion 영상과 비교평가를 수행하였다. 비교평가의 기준은 상관관계와 Quality Index 값을 사용하였으며, 제안한 알고리즘의 유효성 평가를 위해서 PCA와 GS융합방법의 적용 결과와 비교해보았다.
Quality Index도 상관관계 분석과 마찬가지로 서울지역과 안양지역 실험영상에 적용해 보았다. 결과는 표4, 5와같다.
하지만, 시각적인 평가는 객관적인 지표가 불분명하기 때문에 객관적인 비교가 불가능하지만 노이즈나 분광정보의 특징, 특정 개체 등에 대한 상대적인 비교는 가능하다. 따라서 실험 2에서는 영상의 특징적인 부분에 대해서 각 영상융합 기법 간에 비교평가를 수행해보기로 하였다. 평가대상 영상으로는 서울 남부지역의 한강 주변지역 영상과 관악산지역의 영상을 사용하였으며 그림 4는 시각적평가의 실험방법을 나타낸 것이다.
본 연구를 통해서 기존의 분광혼합모델을 이용한 융합기법들이 가지고 있던 문제점을 해결하였다. 일련의 알고리즘을 자동화하여 사용자의 개입이 최소화되도록 하였으며, 분류결과 등의 부가데이터나 endmember의 정보를 필요로 하지 않도록 하였다. 또한, 제안한 알고리즘의 정량적, 시각적 평가를 통해서 정량적인 평가의 경우, 제안한 알고리즘이 PCA융합기법이나 GS 융합기법에 비해서 높은 상관도와 Quality Index 수치를 보인다는 것을 확인하였다.
대상 데이터
실험에 사용한 데이터는 EO-1 위성에 탑재된 Hyperion 센서 (30m 공간해상도) 및 ALI 센서(10m 공간해상도)로 촬영된 영상이다. 2002년 4월 3일에 취득된 것으로 서울지역의 경우, 150×480(ALI Pan영상: 450×1440), 안양지역의 경우는 180×480 크기의 영상을 추출하여 실험을 수행하였다.
실험에 사용한 데이터는 EO-1 위성에 탑재된 Hyperion 센서 (30m 공간해상도) 및 ALI 센서(10m 공간해상도)로 촬영된 영상이다. 2002년 4월 3일에 취득된 것으로 서울지역의 경우, 150×480(ALI Pan영상: 450×1440), 안양지역의 경우는 180×480 크기의 영상을 추출하여 실험을 수행하였다.
먼저, Hyperion 영상의 경우, 노이즈로 판단되는 영상들이 많이 포함되어 있는데, 이는 영상융합결과의 평가에 영향을 끼칠 수 있기 때문에 이러한 밴드를 추출하여 제거하였다. 총 242개의 밴드 중 영상의 밝기값 평균이 0인 밴드는 분광정보를 전혀 가지고 있지 않은 것으로 간주하여 제거하였고, 또한 시각적으로 영상의 대부분에 걸쳐 노이즈가 존재하는 영상을 제외한 총 93개의 밴드를 선택하였다. 추출된 영상은 ALI 영상과의 기하보정을 실시하였으며, 최종적으로 두 영상의 공통부분을 추출하여 실험에 사용하였다.
영상융합 알고리즘의 정량적 평가의 경우에는 기준이 될 자료가 존재하지 않기 때문에, 강제적으로 해상도를 낮춘 영상을 실험에 사용하였으며, 이는 그림 3과 같다. 융합된 영상은 원 30m Hyperion 영상과 비교평가를 수행하였다.
따라서 실험 2에서는 영상의 특징적인 부분에 대해서 각 영상융합 기법 간에 비교평가를 수행해보기로 하였다. 평가대상 영상으로는 서울 남부지역의 한강 주변지역 영상과 관악산지역의 영상을 사용하였으며 그림 4는 시각적평가의 실험방법을 나타낸 것이다.
실험영상을 이용해 실제 10m 공간해상도의 하이퍼스펙트럴 영상을 생성하였으며 그림 5는 한강 및 관악산지역 영상의 융합결과 중 1번, 20번 밴드와 40, 20, 10번째 밴드를 조합하여 얻은 RGB영상을 나타낸 것이다.
데이터처리
또한, 제안한 알고리즘의 성능 평가를 위해서 하이퍼스펙트럴 영상융합에 효과적인 알고리즘으로 알려져 있는 Envi 4.1 프로그램 내의 PCA융합기법과 GS융합기법과의 상대적인 비교 평가를 실시하였다.
융합된 영상은 원 30m Hyperion 영상과 비교평가를 수행하였다. 비교평가의 기준은 상관관계와 Quality Index 값을 사용하였으며, 제안한 알고리즘의 유효성 평가를 위해서 PCA와 GS융합방법의 적용 결과와 비교해보았다. 그림 3은 정량적 평가의 실험방법을 나타낸 것이다.
이론/모형
먼저, 기존의 멀티스펙트럴 영상융합방법을 하이퍼스펙트럴 영상에 적용한 연구는 Harvey(2002)가 Landsat 영상과 SPOT 영상의 융합에 적용되었던 회귀분석을 이용한 영상융합방법을 하이퍼스펙트럴 영상에 적용했으며, Ali(2005)는 Hyperion 영상과 SPOT, Quickbird 영상을 사용하여 주성분 변환의 일종인 PCA융합방법과 GS (Gram-Schmidt)융합방법을 적용하였다. Ali는 위의 연구에서 하이퍼스펙트럴 영상이 가지고 있는 밴드 간 높은 상관관계 때문에 분광변환의 일종인 PCA융합방법과 GS융합방법이 하이퍼스펙트럴 영상의 융합에 적합한 방법이라고 분석하였다.
첫 번째는 무감독 endmember 추출을 통한 제약선형분광혼합모델(constrained linear spectral unmixing model)의 적용부분으로 하이퍼스펙트럴 영상의 각 지표의 구성요소 간 점유비율을 나타내는 abundance 영상을 효과적으로 구성하기 위한 알고리즘을 제시하였다. 두 번째 단계는 abundance 영상의 공간해상도를 증가시키기 위한 방법으로써 추출된 제약조건을 가지고 조건방정식을 구성한 후 과소결정 최소제곱법Underdetermined Least Square Method)을 적용하여 abundance 영상의 공간해상도를 증가시켰다. 생성된 고해상도의 abundance 영상에 선형분광혼합모델의 역변환을 적용하여 고해상도의 하이퍼스펙트럴 영상을 생성하였다.
abundance 값이 양이 되어야 한다는 조건을 만족시키기 위해서는 Non-Negative Least Square (NNLS)알고리즘(Rasmus, 1997)을 이용하여 모든 해가 음의 값을 갖지 않도록 최적화하였다. NNLS 알고리즘은 Active Set 알고리즘에 기반을 두고 있으며, 행렬, Ax = B 에서 x를 계산할 때 세부적인 알고리즘 예는 표 1과 같다.
성능/효과
마지막으로, 고해상도 영상기반 제약조건은 융합된 영상의 abundance 값을 고해상도 영상에 적용하였을 경우, 원래의 고해상도 영상의 밝기값으로 복원되야 한다는 것을 뜻한다.
표 2, 3과 같이, 제안한 알고리즘을 이용한 영상융합 방법의 결과물이 기준자료와 가장 높은 상관도를 나타내는 것을 볼 수 있었다. ALI영상을 사용한 서울지역의 경우 2~5%의 상관도 증가, 가상의 흑백영상을 사용한 안양지 역의 경우 약 2%의 상관도 증가를 보였다.
것을 볼 수 있었다. ALI영상을 사용한 서울지역의 경우 2~5%의 상관도 증가, 가상의 흑백영상을 사용한 안양지 역의 경우 약 2%의 상관도 증가를 보였다.
하지만, 3가지 융합기법 모두 상관도에 비해서 작은 값을 가지게 되었는데 이는 융합 시 영상 밝기값들의 변화로 인해서 생기는 변화로 판단되며, 특히 상관관계와 Quality Index의 차이가 3가지 기법 모두 유사하기 때문에 휘도와 명암의 왜곡정도는 3가지 결과가 모두 정량적으로 유사함을 확인할 수 있었다.
이러한 상관관계 분석과 Quality Index 분석을 통하여 본 연구에 사용한 알고리즘은 기존의 기법에 비해서 분광정보의 보존이라는 측면에서 더욱 우수하다는 점을 증명할 수 있었다.
전체적으로 공간해상도에 있어서는 제안한 알고리즘과 기존의 융합기법의 결과가 유사함을 확인할 수 있었다. 하지만 산림지역과 물(Fig 6, 7)을 포함하고 있는 지역에 대해서는 제안한 알고리즘이 공간적, 분광적으로 향상된 시각적인 결과를 보였으며 분광정보가 훼손된 PCA, GS융합기법에 비해서 산림과 수계지역 모두 원영상과 동일한 화소값 및 패턴을 보였다.
하지만 산림지역과 물(Fig 6, 7)을 포함하고 있는 지역에 대해서는 제안한 알고리즘이 공간적, 분광적으로 향상된 시각적인 결과를 보였으며 분광정보가 훼손된 PCA, GS융합기법에 비해서 산림과 수계지역 모두 원영상과 동일한 화소값 및 패턴을 보였다. 특히 노이즈를 포함하고 있는 원영상 밴드의 경우, 제안한 알고리즘은 개선된 결과를 나타내었다.
하지만 산림지역과 물(Fig 6, 7)을 포함하고 있는 지역에 대해서는 제안한 알고리즘이 공간적, 분광적으로 향상된 시각적인 결과를 보였으며 분광정보가 훼손된 PCA, GS융합기법에 비해서 산림과 수계지역 모두 원영상과 동일한 화소값 및 패턴을 보였다. 특히 노이즈를 포함하고 있는 원영상 밴드의 경우, 제안한 알고리즘은 개선된 결과를 나타내었다.
융합을 통한 노이즈 제거라는 측면에서도 제안한 알고리즘은 보다 향상된 결과를 나타내었다. PCA, GS 융합기법은 그림 7과 같이 세로 방향의 줄무늬 노이즈가 융합 후에도 그대로 남아 있었다.
그러나 제안한 알고리즘의 경우에는 노이즈가 포함되어 있는 하이퍼스펙트럴 영상의 노이즈가 일부분 제거되었다. 이는 제안한 알고리즘이 PCA융합, GS융합기법등과 같이 분광변환에 의해서 영상을 생성하는 것이 아니라, 화소의 분광특징을 이용하여 해상도를 향상시키기 때문에 밴드의 노이즈 값들은 전체 분광특징에 영향을 받아 제거된 것으로 판단된다.
따라서, 분광정보적 차원에서 살펴볼 때 기존의 융합기법은 고해상도 영상이 공간해상도 및 분광특징에 가장 큰 영향을 미치지만 제안한 알고리즘의 경우 공간 해상도는 고해상도 영상에 의해서 좌우되고 하이퍼스펙트럴 영상의 분광정보를 세분화시키는 알고리즘이기 때문에 분광정보의 손실은 최소화함을 확인할 수 있었다.
일련의 알고리즘을 자동화하여 사용자의 개입이 최소화되도록 하였으며, 분류결과 등의 부가데이터나 endmember의 정보를 필요로 하지 않도록 하였다. 또한, 제안한 알고리즘의 정량적, 시각적 평가를 통해서 정량적인 평가의 경우, 제안한 알고리즘이 PCA융합기법이나 GS 융합기법에 비해서 높은 상관도와 Quality Index 수치를 보인다는 것을 확인하였다. 또한, 시각적으로도 제안한 영상융합 방법의 결과물에서는 줄무늬와 같이 지역적으로 존재하는 노이즈가 제거되는 효과를 확인할 수 있었으며, 산림이나 수계와 같이 단일한 개체로 이루어진 지역의 분광 정보와 공간해상도 보존에 있어 PCA, GS 융합기법보다 향상된 결과를 보였다.
또한, 제안한 알고리즘의 정량적, 시각적 평가를 통해서 정량적인 평가의 경우, 제안한 알고리즘이 PCA융합기법이나 GS 융합기법에 비해서 높은 상관도와 Quality Index 수치를 보인다는 것을 확인하였다. 또한, 시각적으로도 제안한 영상융합 방법의 결과물에서는 줄무늬와 같이 지역적으로 존재하는 노이즈가 제거되는 효과를 확인할 수 있었으며, 산림이나 수계와 같이 단일한 개체로 이루어진 지역의 분광 정보와 공간해상도 보존에 있어 PCA, GS 융합기법보다 향상된 결과를 보였다.
따라서 제안한 알고리즘은 하이퍼스펙트럴 영상의 분광정보를 최대한 보존하면서 공간해상도를 향상시킨다는 데에 의의가 있으며 기존의 연구된 하이퍼스펙트럴 영상융합기법들의 단점을 보완한 것에 장점을 가지고 있다고 말할 수 있다.
후속연구
향후 연구과제로는 endmember 추출 알고리즘을 더욱 최적화하고, 기하보정과 제안한 알고리즘 결과와의 관계를 정량적으로 평가해 볼 것이다. 또한, Hyperion 영상의 밴드 선택에 따른 영상융합결과의 비교평가도 시행할 것이며, 위의 내용을 바탕으로 하여 융합기법을 분류 등의 응용에 적용하고 영상융합전 분류결과와 비교하여 융합된 영상을 다양한 분야에 확장하여 적용시켜 볼 예정이다.
정량적으로 평가해 볼 것이다. 또한, Hyperion 영상의 밴드 선택에 따른 영상융합결과의 비교평가도 시행할 것이며, 위의 내용을 바탕으로 하여 융합기법을 분류 등의 응용에 적용하고 영상융합전 분류결과와 비교하여 융합된 영상을 다양한 분야에 확장하여 적용시켜 볼 예정이다.
참고문헌 (14)
Ali Darvishi, 2005. Hyper-spectral/High-Resolution Data fusion: Assessing the Quality of EO1-Hyperion/Spot-Pan & Quickbird-MS fused images in Spectral Domain, ISPRS Hannover Workshop
Antonio Plaza, Pablo Martinez, Rosa Perez, and Javier Plaza, 2004. A Quantitative and Comparative Analysis of Endmember Extraction Algorithms From Hyperspectral Data, IEEE Transaction on Geoscience and Remote Sensing, 42(3): 650-663
Chein-I Chang and Daniel C. Heinz, 2000. Constrained Subpixel Target Detection for Remotely Sensed Imagery, IEEE Transactions on Geoscience and Remote Sensing, 38(3): 1144-1159
Daniel C. Heinz and Chein-I, 2001. Fully Constrained Least Squares Linear Spectral Mixture Analysis Mehtod for Material Quantification in Hyperspectral Imagery, IEEE Transactions on Geoscience and Remote Sensing, 39(3): 529-545
Gary D. Robinson, Harry N. Gross, and John R. Schott, 2000. Evaluation of Two Applications of Spectral Mixing Models to Image Fusion, Remote Sensing of Environment, 71: 272-281
Harvey E. Rhody, 2002. Enhancing Spatial Resolution for Exploitation in Hyperspectral Imagery, IEEE Proceedings of 31st Applied Imagery Pattern Recognition Workshop (AIPR 02)
Michael T. Eismann and Russell C. Hardie, 2005. Hyperspectral Resolution Enhancement Using High-Resolution Multispectral Imagery With Arbitrary Response Functions, IEEE Transactions on Geoscience and Remote Sensing, 43(3): 455-465
Russell C. Hardie and Michael T. Eismann, 2004. MAP Estimation for Hyperspectral Image Resolution Enhancement Using an Auxiliary Sensor, IEEE Transactions on Geoscience and Remote Sensing, 13(9): 1174-1184
Roger L. Schultz and Martin T. Hagan, 1999. On-line Least-Squares Training For The Underdetermined Case, International Joint Conference on Neural Networks, July, Washington, Paper No. 515
Soo Chin Liew, Chew Wai Chang, and Leong Keong Kwoh, 2003. Image Fusion of Hyperion and IKONOS imagery, Image Processing and Pattern Recognition in Remote Sensing, Proceedings of SPIE, 4898: 31-35
Zhizun Wang, Djemel Ziou, Costas Armenakis, Deren Li, and Qingquan Li, 2005. A Comparative Analysis of Image Fusion Methods, IEEE Transactions on Geoscience and Remote Sensing, 43(6): 1391-1402
※ AI-Helper는 부적절한 답변을 할 수 있습니다.