위성 카메라의 두 밴드가 다른 관측 각(Look angle)으로 촬영 시, 두 밴드간의 정합이 요구된다. 밴드 정합(Band registration)은 플랫폼의 다이나믹스(Dynamics)와 시차효과로 인하여 상수매개변수(constant parameter)로 수학적인 모델을 수립하여 정합(registration)을 수행하기 어렵다. 시차효과는 지표면 표고에 의해 야기되는 현상으로 이는 두 밴드간 정합 특성이 지표면의 표고의 함수로 주어진다. 두 밴드간 정합이 성공적으로 이뤄지기 위하여 시차효과를 보상하는 표고시차보상기법이 요구된다. 이러한 표고시차보상은 특히 고해상도 영상정합에서 중요하다. 표고시차보상기법은 하나의 밴드를 다른 관측 각을 가지는 다수의 CCD라인으로 구성한 경우에도 적용이 가능하다. 한 밴드에서 촬영된CCD라인 영상들은 연결된CCD라인마다 다른 관측 각을 가짐으로CCD라인간 표고시차가 발생하여 CCD라인간 지상거리 차가 표고에 따라 증가되는 왜곡 현상이 나타나기 때문이다. 이를 보상하기 위해 기준밴드 또는 기준 CCD라인과 대상밴드 또는 대상 CCD라인간 영상과 지상간의 관계를 다항식을 사용하여 수학적으로 모델 하는RFM을 사용하였다. 실험결과, 표고시차가 존재하는 영상에 대해서도 제안된 기법으로 밴드 정합이 성공적으로 수행되는 것을 확인하였다.
위성 카메라의 두 밴드가 다른 관측 각(Look angle)으로 촬영 시, 두 밴드간의 정합이 요구된다. 밴드 정합(Band registration)은 플랫폼의 다이나믹스(Dynamics)와 시차효과로 인하여 상수매개변수(constant parameter)로 수학적인 모델을 수립하여 정합(registration)을 수행하기 어렵다. 시차효과는 지표면 표고에 의해 야기되는 현상으로 이는 두 밴드간 정합 특성이 지표면의 표고의 함수로 주어진다. 두 밴드간 정합이 성공적으로 이뤄지기 위하여 시차효과를 보상하는 표고시차보상기법이 요구된다. 이러한 표고시차보상은 특히 고해상도 영상정합에서 중요하다. 표고시차보상기법은 하나의 밴드를 다른 관측 각을 가지는 다수의 CCD라인으로 구성한 경우에도 적용이 가능하다. 한 밴드에서 촬영된CCD라인 영상들은 연결된CCD라인마다 다른 관측 각을 가짐으로CCD라인간 표고시차가 발생하여 CCD라인간 지상거리 차가 표고에 따라 증가되는 왜곡 현상이 나타나기 때문이다. 이를 보상하기 위해 기준밴드 또는 기준 CCD라인과 대상밴드 또는 대상 CCD라인간 영상과 지상간의 관계를 다항식을 사용하여 수학적으로 모델 하는RFM을 사용하였다. 실험결과, 표고시차가 존재하는 영상에 대해서도 제안된 기법으로 밴드 정합이 성공적으로 수행되는 것을 확인하였다.
When two bands have different look angle in a space-borne camera system, the registration between two bands is required. The registration cannot be modeled with constant parameters because of dynamic of platform and parallax effect. The parallax effect is caused by terrain relief, hence it causes lo...
When two bands have different look angle in a space-borne camera system, the registration between two bands is required. The registration cannot be modeled with constant parameters because of dynamic of platform and parallax effect. The parallax effect is caused by terrain relief, hence it causes local distortion between two bands. Therefore, the terrain relief correction in order to reduce the parallax effect is required for better registration result, especially for high resolution image data. Such terrain relief correction also can be applied to image data acquired from multiple detectors with different look angle within a band, which is a one of commonly used configuration for a wider swath in space-borne camera system, in order to reduce the distortion between detectors. The RFM is a popular abstract model in remote sensing field, which gives us the relationship between the image plane and geodetic coordinate system. Therefore, we propose a terrain relief correction method based on the RFM. The experiment showed very promising result.
When two bands have different look angle in a space-borne camera system, the registration between two bands is required. The registration cannot be modeled with constant parameters because of dynamic of platform and parallax effect. The parallax effect is caused by terrain relief, hence it causes local distortion between two bands. Therefore, the terrain relief correction in order to reduce the parallax effect is required for better registration result, especially for high resolution image data. Such terrain relief correction also can be applied to image data acquired from multiple detectors with different look angle within a band, which is a one of commonly used configuration for a wider swath in space-borne camera system, in order to reduce the distortion between detectors. The RFM is a popular abstract model in remote sensing field, which gives us the relationship between the image plane and geodetic coordinate system. Therefore, we propose a terrain relief correction method based on the RFM. The experiment showed very promising result.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
따라서, 밴드간 정합 정확도를 높이기 위하여, 특정 밴드에서 촬영된 영상을 기준으로 지표면 고도로 야기된 시차를 보상하는 표고시차보상기법(Terrain relief correction)을 제안한다. 표고시차보상기법은 대상영상을 기준영상이 가지는 관측 각(Look angle)으로 관측 시 획득할 수 있는 영상으로 재배열 해주는 것이다.
이를 위해 위치이동과 회전이 고려되는 부등 사상 변환(Affine transform)을 적용하여 표고시차가 보상된 영상간 정합을 수행하였다. 또한, 입력 영상과 수행된 결과영상을 사용한 정합정확도를 비교하여 제안된 알고리즘이 성공적으로 수행되는 지 확인 하였다.
본 연구는 위성 초점 면상 밴드간 위치 차이와 촬영지역 표고에 따라 기준밴드와 대상밴드간 발생되는 표고시차분석과 이를 보상하는 알고리즘을 제안하였다. 분석결과, 두 밴드간에 다른 관측각을 가진 경우 두 밴드 영상간에는 표고시차가 존재하며, 표고시차는 각 밴드간의 관측 각의 차이와 지상 지형의 높이의 함수로 주어진다.
본 논문에서는 각각의 밴드 별로 주어진 RFM과 DEM 을 이용하여 원본 기준영상(Reference Image)을 재배열하지 않고, 대상영상만을 재배열 하여 표고시차를 해소하는 방안을 제시하였다. 제안된 방법은 기준영상의 영상좌표에 해당하는 대상영상의 영상좌표를 주어진 RFM과 DEM 을 이용하여 계산하여 재배열하는 방법을 이용하였다.
본 논문에서 제안하는 방법은 동일 시점에서 기하학적 위치가 다른 두 개의 디텍터에서 획득된 영상의 정합이 필요한 경우 표고시차(Terrain Relief)에 의해 유발되는 오 정합을 줄이기 위한 것이다. 두 영상에 대해 모두 정사영상을 생성하여 정합하는 경우 표고시차에 의해 발생하는 오류는 없어지나 원본 영상의 기하학적인 정보가 유실되는 단점이 있다.
제안 방법
지표면 고도의 함수에 대한 예로, 기준 밴드로부터 지상 거리차이가 약 13km와 약 1.2km일때 고도에 따른 밴드간 발생되는 영상좌표에서의 거리차이를 계산하였다. 여기서 계산된 값은 밴드가 연직점(at Nadir)으로 영상을 촬영했을 때 영상과 지상간의 기하학적 관계를 기반으로 하여 계산하였다.
2km일때 고도에 따른 밴드간 발생되는 영상좌표에서의 거리차이를 계산하였다. 여기서 계산된 값은 밴드가 연직점(at Nadir)으로 영상을 촬영했을 때 영상과 지상간의 기하학적 관계를 기반으로 하여 계산하였다.
표고시차보상기법은 대상영상을 기준영상이 가지는 관측 각(Look angle)으로 관측 시 획득할 수 있는 영상으로 재배열 해주는 것이다. 일반적인 정사투영영상(Orthorectified Image)이 연직점(at Nadir)기준으로 영상을 재배열하는데 반하여, 제안하는 표고시차보상기법은 기준밴드(master) 영상이 가지는 관측 각(Look angle) 기준으로 영상을 재배열해주는 것이다.
정사투영영상 생성과 마찬가지로 표고시차보상기법을 적용하기 위해서는 센서모델링이 필요하며, 본 논문에서는 일반적으로 많이 제공되는 RPC를 사용하는 RFM을 사용하도록 한다.
표고시차보상기법(Terrain relief Correction)은 밴드간 위치차이와 지표면 고도로 발생되는 왜곡을 보상하는 기법이다. 기준밴드와 대상밴드 각각 밴드 별 RFM과 DEM 데이터를 사용하여 대상(Slave)영상을 기준영상과 동일한 Height relief에 의한 왜곡을 가지도록 보상한다. 결과적으로 두 영상간의 표고시차는 제거되게 된다.
밴드 별 RFM을 수립하기 위해서 초점 면(Focal plane)에서 밴드 별 위치가 반영된 모델이 수립되도록 센서 파라미터를 설계한다. 기준밴드가 가지는 기하(Geometry)로 대상(Slave)밴드에 적용하기 위해 먼저, 대상(Slave) 밴드 영상을 일정간격을 가지는 격자를 생성한다.
생성된 격자 들은, 기준 밴드와 대상(Slave) 밴드간의 공간 해상도(Resolution)가 다를 경우 두 밴드간의 해상도 비를 고려하여 동일한 해상도를 가지도록 대상밴드 영상을 균일한 크기를 가지는 격자로 나눈다. 이때, 대상밴드의 격자는 기준 밴드가 가지는 해상도를 가지도록 조정된 격자로, 기준밴드 모델을 사용하여 네 코너 격자 점이 나타나는 지상위치를 RFM을 사용하여 계산한다. 기준밴드의 기하로 대상밴드를 변경하기 위해 기준밴드의 지상위치정보를 사용하여 대상밴드에서 영상 위치를 가져오도록 모델을 사용하여 계산한다.
실험을 위해 13km의 지상거리차이가 나타나는 센서 파라미터를 사용하였다. 수행된 결과의 정확도 분석을 위해 Fig 9처럼 구글 어스를 사용하여 25개의 지상기준점(GCP, Ground Control Points)을 사용하였다.
표고 시차가 보상된 영상은 지형지물 왜곡이 기준밴드가 보는 왜곡으로 영상들을 재배열하여 나타나기 때문에 동일한 표적 위치에 대해 대상 밴드에서 위치 이동만으로 밴드간 정합이 수행될 수 있다. 이를 위해 위치이동과 회전이 고려되는 부등 사상 변환(Affine transform)을 적용하여 표고시차가 보상된 영상간 정합을 수행하였다. 또한, 입력 영상과 수행된 결과영상을 사용한 정합정확도를 비교하여 제안된 알고리즘이 성공적으로 수행되는 지 확인 하였다.
원본 영상간 정합 정확도를 확인하기 위해, 설계된 25점에서 기준 영상과 대상 영상이 동일한 위치에 중첩되는 지를 영상의 픽셀 위치로 위치에러로 나타내어 확인 하였다.
본 논문에서는 각각의 밴드 별로 주어진 RFM과 DEM 을 이용하여 원본 기준영상(Reference Image)을 재배열하지 않고, 대상영상만을 재배열 하여 표고시차를 해소하는 방안을 제시하였다. 제안된 방법은 기준영상의 영상좌표에 해당하는 대상영상의 영상좌표를 주어진 RFM과 DEM 을 이용하여 계산하여 재배열하는 방법을 이용하였다. 따라서, 표고시차 보상 후, 기준 밴드가 보는 관측 각으로 대상밴드 영상을 재배열하였기 때문에, 표고시차 보상 후 단순히 부등각 사상 변환만을 사용하여 정합을 수행하여도 기준밴드와 대상밴드간의 정합 성공 율이 높아지는 것을 확인할 수 있었다.
제안된 알고리즘은 위성 초점 면 상 밴드 위치와 정확도가 높은 표고 정보 추출이 중요하다. 초점 면 상 밴드 위치는 밴드간 기하학적 모델을 수립하기 위해서 초점 면상 밴드 위치 차이로 관측 각이 결정하게 된다.
이때, 대상밴드의 격자는 기준 밴드가 가지는 해상도를 가지도록 조정된 격자로, 기준밴드 모델을 사용하여 네 코너 격자 점이 나타나는 지상위치를 RFM을 사용하여 계산한다. 기준밴드의 기하로 대상밴드를 변경하기 위해 기준밴드의 지상위치정보를 사용하여 대상밴드에서 영상 위치를 가져오도록 모델을 사용하여 계산한다. 계산된 영상위치는 기준 영상의 지상 위치를 이용하여 대상밴드에서 영상 위치로 재배열 한다.
대상 데이터
실험에 사용된 지역은 미국 외 지역으로 전세계적인 데이터를 공급하는 3”데이터를 사용하였다.
실험에 사용한 영상은 1m급 고해상도 위성영상으로 연직점 기준 전정색(Panchromatic) 밴드에서 공간해상도가 1.0m이고, 다중분광(Multispectral) 밴드는 4.0m의 해상도를 가지는 영상이다. 기준 밴드로는 다중분광 밴드를 사용하였으며, 대상 밴드로는 전정색 밴드를 사용하였다.
0m의 해상도를 가지는 영상이다. 기준 밴드로는 다중분광 밴드를 사용하였으며, 대상 밴드로는 전정색 밴드를 사용하였다. 실험에 사용된 영상은 -26.
기준 밴드로는 다중분광 밴드를 사용하였으며, 대상 밴드로는 전정색 밴드를 사용하였다. 실험에 사용된 영상은 -26.0도 경사각을 가지고 촬영된 영상으로 Fig 8과 같이 두 밴드간 지상거리가 약 13Km 차이가 난다. 실제, 영상 면(Image plane)상 두 밴드간 거리 차이는 약 0.
실험을 위해 13km의 지상거리차이가 나타나는 센서 파라미터를 사용하였다. 수행된 결과의 정확도 분석을 위해 Fig 9처럼 구글 어스를 사용하여 25개의 지상기준점(GCP, Ground Control Points)을 사용하였다.
본 연구에서 사용한 DEM은 SRTM(Shuttle Radar Topography Mission) v4버전 DEM 데이터이다(CGIAR-SCI. 2008.). SRTM DEM은 1”, 3”해상도를 가지는 데이터로 제공된다.
실험에 사용된 SRTM DEM 데이터는 Table 1과 같은 지도 투영(Map Projection)정보와 기준타원체, 수직기준면 등의 정보로 정의되어 있다. 실험에 사용된 DEM 데이터 정확도는 설계된 25점 GCP에 대응되는 DEM 데이터간의 높이차이를 확인하여 정확도를 분석하였다.
데이터처리
실험에 사용된 SRTM DEM 데이터는 Table 1과 같은 지도 투영(Map Projection)정보와 기준타원체, 수직기준면 등의 정보로 정의되어 있다. 실험에 사용된 DEM 데이터 정확도는 설계된 25점 GCP에 대응되는 DEM 데이터간의 높이차이를 확인하여 정확도를 분석하였다. 이때, 높이 정확도 는 FGDC(Federal Geospatial Positioning Data Committee)에서 정의한 LE90(Linear Error 90%) 식을 사용하여 계산하였다(Zanoni et al.
이론/모형
실험에 사용된 DEM 데이터 정확도는 설계된 25점 GCP에 대응되는 DEM 데이터간의 높이차이를 확인하여 정확도를 분석하였다. 이때, 높이 정확도 는 FGDC(Federal Geospatial Positioning Data Committee)에서 정의한 LE90(Linear Error 90%) 식을 사용하여 계산하였다(Zanoni et al. 2004). 실험에 사용된 DEM 정확도는 LE90기준 오차가 0.
유리함수기반 표고시차보상 후 정합정확도 확인을 위해 affine model을 사용하여 Band Registration을 수행하였다. Table 4는 수행된 결과의 정합정확도를 분석하기 위해 설계된 GCP 25점 동일한 표적을 사용하여 기준 밴드와 대상 밴드간의 위치차이를 나타내었다.
성능/효과
두 영상에 대해 모두 정사영상을 생성하여 정합하는 경우 표고시차에 의해 발생하는 오류는 없어지나 원본 영상의 기하학적인 정보가 유실되는 단점이 있다. 제안하는 방법에서는 기준영상은 유지하면서 대상영상을 기준영상의 기하정보를 이용하여 재배열하므로 기준영상에 대해서는 원본영상의 형태를 유지 할 수 있는 장점이 있다.
표고로 발생된 시차를 기준 밴드에서 나타나는 것처럼 대상 밴드에도 적용한 결과 기준 밴드에서 나타나는 왜곡이 대상밴드에서도 동일하게 적용된다. 따라서, 제안된 표고시차보상기법을 수행한 영상에 대해서 밴드정합 수행 시 부등각 사상 변환만 사용하여도 모든 영상이 하나의 영상으로 중첩되는 효과를 나타낼 수 있다.
원본 영상은 특정 지형지물(Feature)을 추출하여 영상간 정합을 수행한 결과로써, 영상 전체적인 정합정확도는 약 1.17픽셀 RMSE 에러를 나타낸다. GCP ID 3의 경우 행, 열 방향으로 에러가 각각 약 6픽셀, 약 9픽셀로 높게 나타난다.
GCP ID 19의 경우, 열 방향으로 에러가 약 10픽셀로 높게 나타난다. 열 방향으로 에러가 높게 나타나는 ID 3, 8, 19의 경우 구글 어스 기준 지표면의 타원체고가 각각 1955m, 1803m, 2226m로 타원체고 범위가 1753~2411m인 지역임을 감안할 때, ID 3과 19은 지표면 고도로 발생되는 에러로 확인할 수 있다. 지표면 고도에 따른 열방향 에러를 그래프로 나타나면 Fig 11과 같다.
본 연구는 위성 초점 면상 밴드간 위치 차이와 촬영지역 표고에 따라 기준밴드와 대상밴드간 발생되는 표고시차분석과 이를 보상하는 알고리즘을 제안하였다. 분석결과, 두 밴드간에 다른 관측각을 가진 경우 두 밴드 영상간에는 표고시차가 존재하며, 표고시차는 각 밴드간의 관측 각의 차이와 지상 지형의 높이의 함수로 주어진다. 이러한 표고시차는 두 영상간의 정합이 필요한 경우 정합오차를 유발하게 된다.
제안된 방법은 기준영상의 영상좌표에 해당하는 대상영상의 영상좌표를 주어진 RFM과 DEM 을 이용하여 계산하여 재배열하는 방법을 이용하였다. 따라서, 표고시차 보상 후, 기준 밴드가 보는 관측 각으로 대상밴드 영상을 재배열하였기 때문에, 표고시차 보상 후 단순히 부등각 사상 변환만을 사용하여 정합을 수행하여도 기준밴드와 대상밴드간의 정합 성공 율이 높아지는 것을 확인할 수 있었다.
반면, 표고시차가 보상된 영상(Row Errors of RFM)은 영상의 정합 후 지표면 표고가 증가하여도 열 방향으로 에러가 증가하지 않고, 특정 지역에 대해서 랜덤한 에러가 나타나게 된다. 따라서, 표고시차보상기법이 적용된 영상에서는 지표면 고도차로 발생되는 밴드간 시차가 보상되는 것을 확인할 수 있었다. 이때 발생된 랜덤한 에러는 플랫폼의 다이나믹스(Dynamics)로 발생되는 것으로 판단된다.
실험 결과 제안된 유리함수 모델 기반 표고시차 보상 기법을 적용한 영상으로 부등각 사상 변환을 사용하는 밴드 정합시 정합 정확도는 약 0.40픽셀 RMSE로 원본영상 정합에서 얻었던 RMSE 대비 0.77픽셀 RMSE가 감소되어 성공적으로 수행되는 것을 확인할 수 있었다.
따라서, 제안된 알고리즘으로 표고시차가 발생되는 밴드간 영상에 적용하여 정합을 수행할 경우 밴드간 정합율이 향상될 것으로 예상된다.
후속연구
따라서, 제안된 알고리즘은 동일 센서가 탑재하는 밴드 간 지상거리 차가 큰 영상에 대해서 밴드 정합을 수행하는 경우, 관측각 차이로 각 밴드 별 동일 지역을 촬영 시 바라보는 각과 지형 표고로 발생되는 밴드 정합 오차를 효과적으로 줄일 수 있을 것으로 기대된다.
질의응답
핵심어
질문
논문에서 추출한 답변
RFM은 무슨 특성을 가지고 있는가?
RFM은 위성의 물리적인 데이터를 사용하는 물리적 센서 모델(Physical sensor model)과 달리 지표면 표고 특성과 관계없는(Terrain independent) 특성을 가지고 있다. 이런 특성은 지형변화 변이가 큰 경우 지형변화차이에 관계 없이 모델이 일정한 지형상 위치 정확도(Geolocation Accuracy)를 가지는 것을 의미한다(Jeff Zhizhong, Xu.
밴드간 위치차이의 특징은?
밴드간 위치차이(Different Band)는 밴드마다 다른 관측각(Look angle)을 가지기 때문에 동시간에 촬영된 영상에서 밴드마다 보는 지상 위치가 다르게 된다(Daniela Poli, 2001). 이때, 밴드간 지상거리차이는 초점 면(Focal plane)에서 밴드간 위치차이를 위성 카메라의 초점거리와 고도에 비례하여 지상 거리 차로 나타나게 된다(Greslou, D.
지표면 표고 특성과 관계없는(Terrain independent) 특성은 무엇을 의미하는가?
RFM은 위성의 물리적인 데이터를 사용하는 물리적 센서 모델(Physical sensor model)과 달리 지표면 표고 특성과 관계없는(Terrain independent) 특성을 가지고 있다. 이런 특성은 지형변화 변이가 큰 경우 지형변화차이에 관계 없이 모델이 일정한 지형상 위치 정확도(Geolocation Accuracy)를 가지는 것을 의미한다(Jeff Zhizhong, Xu. 2004.
참고문헌 (13)
CGIAR-SCI. (2008), SRTM 90m Digital Elevation Data, August 19, CGIAR-SCI, http://srtm.csi.cgiar.org/.
Daniela Poli. (2001), General Model for Multi-Line CCD Array Sensors. Application for Cloud-top Height Estimation, 3rd International Image Sensing Seminar on New Development in Digital Photogrammetry, Gifu, Japan, 24-27 September 2001.
Francoise De Lussy, Philippe Kubik, Daniel Greslou, Veronique Pascal and Patrick Gigord, (2005), Pleiades-HR image system products and quality Pleiades-HR image system products and geometric accuracy, In Proceedings of the International Society for Photogrammetry and Remote Sensing Workshop, Hannover, Germany, 17-20 May 2005.
Greslou, D. and Delussy, F. (2006), Geometric Calibration of Pleiades Location Model, ISPRS, Commission I, Poster Session2 - WGs I/1, I/2, I/6.
Hong-Gyoo, S., Chong-Hwan, P., and Hoon, C. (2005), Rational Functional Model-based Image Matching For Digital Elevation Models, The Photogrammetric Record 20(112), pp. 366-383, December 2005.
Hu, Young and Vincent Tao, C. (2002), Updating Solution of the Rational Function Model Using Additional Control Information, Photogrammetric Engineering and Remote Sensing. July 2002, pp. 707-714.
Jacobsen, K. (2006), Calibration of Imaging Satellite Sensors., ISPRS volume number: XXXVI-1/W41, Ankara, Turkey.
Jean-Luc, L., Catherine Gaudin-Delarieu., David, V., Christophe, R., Thierry T. and Jean-Marc, L. (2004), Design of The High Resolution Optical Instrument for The Pleiades HR Earth Observation Satellites, Proceeding of the 5th International Conference on Space Optics (ICSO 2004), 30 March-2 April 2004, Toulouse, France.
Jeff Zhizhong, Xu. (2004), The Rational Function Model(RFM) in Photogrammetric Mapping Method and Accuracy, the degree of master, York University, pp. 15-45.
Kocaman, S. and Gruen, (2007), A Rigorous Sensor modeling of ALOS/PRISM Imagery. 8th Conference on Optical 3D Measurement Techniques, Zurich, Switzerland, 9-12 July.
Vincent Tao, C. and Hu, Young. (2001), A Comprehensive Study of The Rational Function Model for Photogrammetric Processing, Photogrammetric Engineering and Remote Sensing, Vol. 67, No.12, pp. 1348-1357.
Vincent Tao, C. and Hu, Young. (2002), 3D Reconstruction Methods Based on the Rational Function Model, Photogrammetric Engineering and Remote Sensing, Vol.68, No.7, pp. 707-714.
Zanoni, V., Pagnutti, M., Ryan, R., Helder, D., Lehman, W., Roylance, S., and Snyder, G. (2004), The Joint Agency Commercial Imagery Evaluation(JACIE) team and product characterization approach, ISPRS, Post-Launch Calibration of Satellite Sensors Morain & Budge 2004 Taylor & Francis Group, pp. 135-141.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.