The Unmanned Aerial Vehicles (UAVs) have several advantages over conventional RS techniques. They can acquire high-resolution images quickly and repeatedly. And with a comparatively lower flight altitude i.e. 80~400 m, they can obtain good quality images even in cloudy weather. Therefore, they are i...
The Unmanned Aerial Vehicles (UAVs) have several advantages over conventional RS techniques. They can acquire high-resolution images quickly and repeatedly. And with a comparatively lower flight altitude i.e. 80~400 m, they can obtain good quality images even in cloudy weather. Therefore, they are ideal for acquiring spatial data in cases of small agricultural field with mixed crop, abundant in South Korea. This paper discuss the use of low cost UAV based remote sensing for classifying crops. The study area, Gochang is produced by several crops such as red pepper, radish, Chinese cabbage, rubus coreanus, welsh onion, bean in South Korea. This study acquired images using fixed wing UAV on September 23, 2014. An object-based technique is used for classification of crops. The results showed that scale 250, shape 0.1, color 0.9, compactness 0.5 and smoothness 0.5 were the optimum parameter values in image segmentation. As a result, the kappa coefficient was 0.82 and the overall accuracy of classification was 85.0 %. The result of the present study validate our attempts for crop classification using high resolution UAV image as well as established the possibility of using such remote sensing techniques widely to resolve the difficulty of remote sensing data acquisition in agricultural sector.
The Unmanned Aerial Vehicles (UAVs) have several advantages over conventional RS techniques. They can acquire high-resolution images quickly and repeatedly. And with a comparatively lower flight altitude i.e. 80~400 m, they can obtain good quality images even in cloudy weather. Therefore, they are ideal for acquiring spatial data in cases of small agricultural field with mixed crop, abundant in South Korea. This paper discuss the use of low cost UAV based remote sensing for classifying crops. The study area, Gochang is produced by several crops such as red pepper, radish, Chinese cabbage, rubus coreanus, welsh onion, bean in South Korea. This study acquired images using fixed wing UAV on September 23, 2014. An object-based technique is used for classification of crops. The results showed that scale 250, shape 0.1, color 0.9, compactness 0.5 and smoothness 0.5 were the optimum parameter values in image segmentation. As a result, the kappa coefficient was 0.82 and the overall accuracy of classification was 85.0 %. The result of the present study validate our attempts for crop classification using high resolution UAV image as well as established the possibility of using such remote sensing techniques widely to resolve the difficulty of remote sensing data acquisition in agricultural sector.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
KOMPSAT 및 항공 영상 등 1 × 1 m 이하 급 고해상도 영상은 논, 밭, 시설, 과수원, 기타 재배지 등 세분류는 가능하지만 재배 작물을 분류에는 공간해상도가 낮은 단점이 있다. 본 연구는 농작물의 분류가 가능한 cm 급 UAV 초고해상도 영상을 활용하여 농작물 분류를 실시하고, 농작물 분류 결과를 기초로 농업 분야 UAV 영상의 활용성을 검토하고자 한다.
제안 방법
1. 농작물 분류는 객체기반 분류 기법을 이용하였으며, 현장의 농경지 경계 조건 등을 고려하여 최적의 parameter를 선정하였다. 그 결과 scale 250, shape 0.
각 비행별로 취득한 RGB 및 NIR 영상은 RGB 영상을 기준으로 기하보정을 실시하였다. 기하보정의 정확도를 높이는 방법은 측량에서 이용되는 GPS-RTK (Global Positioning System)-(network Real Time Kinematic) 방법이 있다.
GPSRTK는상대측위 방식으로 GPS 측위시 발생되는 각종 오차를 소거함으로써 수 mm의 정확한 위치를 측정할 수 있다(Park and Park, 2015). 그러나 본 연구에서는 동일 지역의 각 영상의 중첩 정확도가 중요하기 때문에 GPS-RTK 측량은 실시하지 않고 image to image 방식으로 기하보정을 실시하였다. NIR 영상에 대한 지상기준점 (GCP; Ground Control Point)는 8점을 이용하였다.
환경부 토지피복 분류 체계에는 해상도 1 m급의 세분류에서는 41개 항목으로 세분화하여 분류하고 있다. 그러나 본 연구에서는 주택이나 도로 등 시설물 분류가 목적이 아니라 농작물 분류가 주목적이기 때문에 대상 지역의 현장 조사 결과를 바탕으로 분류 항목을 선정하였다. 영상 분류 결과는 Fig.
대상 지역에 재배되고 있는 작물의 영상 분류는 영상 분할 과정을 수행한 후 실시하였다. 관측 시기의 대상지역 분류 항목은 나지, 벼, 대파, 도로, 무, 배추, 산림, 인삼 (해가림 시설),초지, 비닐온실, 수역의 총 11개 항목으로 선정하였다.
본 연구는 전라북도 고창군 대산면 해룡리와 연동리를 중심으로 다양한 농작물이 재배되고 있는 시기를 선정하여 UAV 영상을 촬영하고 합성 영상을 이용하여 농작물 분류를 실시하였다. 얻어진 결론은 요약하면 다음과 같다.
정확도 평가는 영상 분류 결과와 현장 전수조사 자료를 비교하여 실시하였다. 분류 정확도 검증 항목은 도로, 산림, 대파, 수역을 제외한 초지, 인삼, 비닐온실, 나지, 벼, 무, 배추의 7가지로 설정하였다. 이는 분류 과정을 수행할 때 오분류를 최소화하기 위해 도로, 산림, 대파, 수역을 제외하였다.
연구에 사용된 고정익 UAV는 IMU와 GPS를 탑재하고 있어 탑재된 카메라의 영상 촬영시 파일명과 함께 pitch (ω), roll (ψ), yaw (χ) 정보 및 x, y, z의 위치정보를 저장한다. 얻어진 UAV 정보는 Pix4D사의 Postflight Terra 3D 프로그램을 이용하여 각 영상의 회전 변환을 실시한다. 회전된 영상은 서로 인접한 중복 영역에서 한 영상의 어떤 위치에 해당하는 실제의 객체가 다른 영상의 어느 위치에 해당되는지를 찾고, 상응하는 위치를 정합 (matching)하는 과정을 거쳐 정사영상을 생성하게 된다.
이러한 결과는 기상 상황 및 GPS 정확도 등에 따라 촬영 면적, 촬영 매수, 공간해상도 등에 영향을 미친다(Kim, 2015). 영상 모자이크는 UAV 촬영시 획득된 GPS 좌표와 pitch, roll, yaw값을 Pix4D사의 Postflight Terra 3D 프로그램에 입력하여 실시하였다. 대상지역의 UAV 영상 모자이크 결과는 Fig.
eMotion 프로그램은 비행 고도, 공간해상도, 영상 중복도 등 UAV 촬영에 관한 전반적인 설정이 가능하다. 영상 촬영은 밭작물의 분류를 고려하여 종중복도 60 %, 횡중복도 75 %로 설정하여 자동 비행 촬영 하도록 하였다. Waypoint는 9개로 설정하고 총 비행거리는 18.
, 2004). 정확도 평가는 영상 분류 결과와 현장 전수조사 자료를 비교하여 실시하였다. 분류 정확도 검증 항목은 도로, 산림, 대파, 수역을 제외한 초지, 인삼, 비닐온실, 나지, 벼, 무, 배추의 7가지로 설정하였다.
3 ㎞, 비행시간은 25분이다. 촬영고도는 260 m (RGB 센서)와 229 m (NIR 센서)로 설정하여 영상의 공간해상도 (Ground Sampling Distance; GSD)는 8 ㎝로 하였다.
대상지점의 작물분류는 청색, 녹색, 적색, 근적외선으로 구성된 영상을 하나의 영상으로 묶어 (layer stack) 총 4개의 layer를 이용하였다. 최적의 영상 분할 결과를 얻기 위해 영상분할 조건을 현장 조건에 맞도록 parameter 값을 조정하며 농경지 경계 구분이 명확한 parameter를 추출하였다. 그 결과 UAV 영상의 최적 parameter는 scale 250, shape 0.
대상 데이터
UAV 영상 촬영은 2014년 9월 23일에 전라북도 고창군 대산면 일대를 대상으로 RGB 센서와 NIR 센서를 이용하여 2회 실시하였다. RGB 센서로 150장의 영상을 촬영하였고, NIR 센서로 192장의 영상을 촬영하였다. 두 영상의 촬영 매수 차이는 RGB 센서가 1,610만 화소인 반면에 NIR 센서가 1,210만 화소로 동일한 공간해상도를 유지하도록 설정하였기 때문에 발생한 차이이다.
UAV 영상 촬영은 2014년 9월 23일에 전라북도 고창군 대산면 일대를 대상으로 RGB 센서와 NIR 센서를 이용하여 2회 실시하였다. RGB 센서로 150장의 영상을 촬영하였고, NIR 센서로 192장의 영상을 촬영하였다.
연구 대상지역은 고추, 무, 배추, 복분자, 대파, 콩 등 다양한 작물을 재배하고 있어 UAV 영상을 통한 농작물 파악이 용이한 지역이다. UAV 영상은 농작물이 생육하는 시기인 2014년 9월 23일에 촬영하였다. 촬영 면적은 대부분의 밭이 포함될 수 있도록 설정하였으며, 해룡리와 연동리 2개리 면적의 40%에 해당하는 2.
UAV 크기는 960×800×140 ㎜, 무게는 0.7 ㎏이며 프로펠러는 1엽으로 이루어졌다.
작물 분류의 정확도는 error matrix를 사용하여 평가하였다. 검증 항목은 초지, 인삼, 비닐온실, 나지, 벼, 무, 배추의 7가지를 설정하였다. 벼, 무, 배추의 작물 분류 정확도는 170지점 중에서 148지점이 정확하게 일치하여 87.
대상 지역에 재배되고 있는 작물의 영상 분류는 영상 분할 과정을 수행한 후 실시하였다. 관측 시기의 대상지역 분류 항목은 나지, 벼, 대파, 도로, 무, 배추, 산림, 인삼 (해가림 시설),초지, 비닐온실, 수역의 총 11개 항목으로 선정하였다. 환경부 토지피복 분류 체계에는 해상도 1 m급의 세분류에서는 41개 항목으로 세분화하여 분류하고 있다.
대상지점의 작물분류는 청색, 녹색, 적색, 근적외선으로 구성된 영상을 하나의 영상으로 묶어 (layer stack) 총 4개의 layer를 이용하였다. 최적의 영상 분할 결과를 얻기 위해 영상분할 조건을 현장 조건에 맞도록 parameter 값을 조정하며 농경지 경계 구분이 명확한 parameter를 추출하였다.
본 연구에서 사용한 UAV는 Fig. 2와 같이 고정익이다. UAV 크기는 960×800×140 ㎜, 무게는 0.
1 %를 차지하고 있어 UAV 영상을 통한 농작물 파악이 용이한 지역이다. 연구 대상지역은 고추, 무, 배추, 복분자, 대파, 콩 등 다양한 작물을 재배하고 있어 UAV 영상을 통한 농작물 파악이 용이한 지역이다. UAV 영상은 농작물이 생육하는 시기인 2014년 9월 23일에 촬영하였다.
연구 대상지역은 전라북도 고창군 대산면 해룡리와 연동리 일대로 (126° 32′10″E ~ 126° 33′50″E, 35° 18′50N ~ 35° 20′00″N) Fig. 1과 같다.
연구에 사용된 고정익 UAV는 IMU와 GPS를 탑재하고 있어 탑재된 카메라의 영상 촬영시 파일명과 함께 pitch (ω), roll (ψ), yaw (χ) 정보 및 x, y, z의 위치정보를 저장한다.
대파,수역은 관측치가 10개 이하로 매우 적어 평가 항목에서 제외하였다. 정확도 평가는 Table 1과 같이 459지점을 선정하여 검증을 실시하였다. 분류 목적인 벼, 무, 배추의 작물 분류 정확도는 170지점 (벼 79, 무 75, 배추 16) 중에서 148지점 (벼 74, 무 60, 배추 14)이 정확하게 일치하여 87.
2와 같이 위성항법장치 (Global Positioning System; GPS), 관성 센서 (Inertia Measurement Unit; IMU), 풍속계 (pitot probe), 지상감지 센서 (ground sensor)로 구성되어 있다. 촬영 센서는 적색 (파장 범위: 600~680 nm), 녹색 (480~560 nm), 청색 (430~480 nm)으로 구성된 RGB (Red, Green, Blue) 카메라 (PowerShot ELPH 110HS, 1,610만 화소, Canon)와 근적외선 (790~900 nm), 적색 (600~680 nm), 녹색 (480~560 nm)으로 구성된NIR (Near Infrared) 카메라 (PowerShot S110, 1,210만 화소, Canon)를 이용하였다. UAV 영상 촬영은 항공영상 제작 과정과 비슷한 절차로 이루어진다.
7 ㎏이며 프로펠러는 1엽으로 이루어졌다. 탑제 센서는 Fig. 2와 같이 위성항법장치 (Global Positioning System; GPS), 관성 센서 (Inertia Measurement Unit; IMU), 풍속계 (pitot probe), 지상감지 센서 (ground sensor)로 구성되어 있다. 촬영 센서는 적색 (파장 범위: 600~680 nm), 녹색 (480~560 nm), 청색 (430~480 nm)으로 구성된 RGB (Red, Green, Blue) 카메라 (PowerShot ELPH 110HS, 1,610만 화소, Canon)와 근적외선 (790~900 nm), 적색 (600~680 nm), 녹색 (480~560 nm)으로 구성된NIR (Near Infrared) 카메라 (PowerShot S110, 1,210만 화소, Canon)를 이용하였다.
이론/모형
2. 작물 분류의 정확도는 error matrix를 사용하여 평가하였다. 검증 항목은 초지, 인삼, 비닐온실, 나지, 벼, 무, 배추의 7가지를 설정하였다.
UAV 영상 촬영 절차는 ① 사전 계획 및 자료 수집, ② 센서 검정, ③ 촬영 경로 설정, ④ 영상 보정, ⑤ 영상 정합 (image matching) 순으로 이루어진다 (Park and Park, 2015). UAV 경로 설정은 스위스 Sensefly사의 eMotion 프로그램을 사용하였다. eMotion 프로그램은 비행 고도, 공간해상도, 영상 중복도 등 UAV 촬영에 관한 전반적인 설정이 가능하다.
객체기반 분류 기법을 이용하여 분류된 결과의 정확도 평가는 error matrix를 사용하였다. error matrix는 오차 행렬이라고도 불리며, 위성영상에서 토지피복 분류의 정확도를 평가할 때 주로 사용하는 방법이다 (Boschetti et al.
객체기반으로 분할된 영상은 감독분류방법인 최근린법을 이용하여 분류를 수행하였다. 최근린법은 분류항목의 training sample로 지정된 객체의 특징과 유사한 특징을 가지는 가장 가까운 객체를 찾는 방법이다 (Na and Lee, 2014).
최근린법은 분류항목의 training sample로 지정된 객체의 특징과 유사한 특징을 가지는 가장 가까운 객체를 찾는 방법이다 (Na and Lee, 2014). 대상지역의 객체 분할과 객체 기반 영상 분류를 위하여 eCognition Developer를 사용하였으며, 작물 분류 정확도 평가는 error matrix를 사용하였다.
성능/효과
3. 7개 항목에 대한 전체 정확도 (OA)는 85.0 %, 카파계수는 0.82로 나타났다. 이 중 벼는 PA 93.
4. 고해상도 UAV 영상 분석은 위성영상이나 항공영상의 작물 분류에서 얻을 수 없는 양질의 영상 확보가 가능하여 분류 정확도를 필요로 하는 농작물의 정확한 분석과 대응이 가능한 것으로 파악되었다.
7개 항목에 대한 전체 정확도 (overall accuracy; OA)는 85.0 %로 나타났다. 생략 오차 (omission error)는 UAV 영상을 분류하였지만 전체 459지점 중에서 34지점 (7.
9 %, UA 100 %로 정확하게 분류되는 것을 확인할 수 있었다. 고해상도 UAV 영상 분석을 통한 작물 분류는 85% 이상 작물 분류가 가능한 것으로 분석되었다. 이 결과는 분석하고자 하는 농작물에 대해 적정 생육 시기에 촬영한다면 위성영상이나 항공영상의 작물 분류에서 얻을 수 없는 적시성과 정밀도를 의미하는 것으로 주기성 문제를 해결해 준 결과로 해석된다.
최적의 영상 분할 결과를 얻기 위해 영상분할 조건을 현장 조건에 맞도록 parameter 값을 조정하며 농경지 경계 구분이 명확한 parameter를 추출하였다. 그 결과 UAV 영상의 최적 parameter는 scale 250, shape 0.1, color 0.9, compactness 0.5, smoothness 0.5로 결정하였다. 이후 육안판독을 통해 동일 필지와 경계가 모호한 경우는 약간의 편집 과정을 통해 영상 분류 과정에서 발생하는 오차를 최소화하였다.
5 %로 매우 높은 분류 정확도를 보였다. 또한 인삼 재배 시설은 시설의 특징을 반영하여 PA 93.9 %, UA 100 %로 정확하게 분류되는 것을 확인할 수 있었다. 고해상도 UAV 영상 분석을 통한 작물 분류는 85% 이상 작물 분류가 가능한 것으로 분석되었다.
검증 항목은 초지, 인삼, 비닐온실, 나지, 벼, 무, 배추의 7가지를 설정하였다. 벼, 무, 배추의 작물 분류 정확도는 170지점 중에서 148지점이 정확하게 일치하여 87.1 %의 정확도를 보였다.
벼는 생산자 정확도 (Producer's Accuracy; PA) 93.7 %, 사용자 정확도 (UA) 92.5 %로 매우 높은 분류 정확도를 보였다.
정확도 평가는 Table 1과 같이 459지점을 선정하여 검증을 실시하였다. 분류 목적인 벼, 무, 배추의 작물 분류 정확도는 170지점 (벼 79, 무 75, 배추 16) 중에서 148지점 (벼 74, 무 60, 배추 14)이 정확하게 일치하여 87.1 %의 분류 정확도를 보였다.
82로 나타났다. 이 중 벼는 PA 93.7 %, UA 92.5 %, 인삼은 PA 93.9 %, UA 100 %로 매우 높은 분류 정확도를 보였다.
후속연구
본 연구의 UAV 영상을 이용한 농작물 분류는 기존 조사 방법 보다 신뢰성 있는 재배 면적 추출이 가능할 것으로 판단된다. 또한 필요한 시기에 주기적으로 신속하게 영상을 분석할 수 있는 UAV 장점을 활용 한다면 기존 농업 분야의 원격탐사 자료 취득과 활용의 어려움을 해결할 수 있을 것으로 판단된다.
본 연구의 UAV 영상을 이용한 농작물 분류는 기존 조사 방법 보다 신뢰성 있는 재배 면적 추출이 가능할 것으로 판단된다. 또한 필요한 시기에 주기적으로 신속하게 영상을 분석할 수 있는 UAV 장점을 활용 한다면 기존 농업 분야의 원격탐사 자료 취득과 활용의 어려움을 해결할 수 있을 것으로 판단된다.
질의응답
핵심어
질문
논문에서 추출한 답변
UAV가 흐린 날씨에도 좋은 품질의 영상 취득이 가능한 이유는?
UAV는 어디서나 사용자가 원하는 시기에 반복적으로 영상을 취득할 수 있다. 또한 UAV는 고도 80~400 m에서 촬영을 하기 때문에 흐린 날씨에도 좋은 품질의 영상 취득이 가능하다. 전 세계 UAV 시장은 연평균 66억 달러로 성장하여 10년 후에는 890억 달러 규모에 이를 것으로 전망하고 있다 (Teal Group, 2012).
기존의 저해상도 위성영상은 우리나라 농업 모니터링에 사용하기에 어떤 한계를 갖고 있는가?
) 기존의 MODIS (MODerate resolution Imaging Spectroradiometer), AVHRR (Advanced Very High Resolution Radiometer) 등의 저해상도 위성영상은 짧은 주기의 반복적인 영상 획득이 가능하다. 그러나 우리나라와 같이 소규모 면적에 여러 작물을 재배하는 혼작형태의 작부체계 환경에서는 공간해상도가 낮아 정밀 농업 모니터링에 적합하지 않다. 반면에 KOMPSAT (KOrea Multi-Purpose SATellite), QuickBird, RapidEye 등의 고해상도 위성영상은 동일 지역을 주기적으로 모니터링하기에는 비용, 시기 등 제약 조건이 많아 정밀 농업 모니터링에 적합하지 않은 단점을 가지고 있다.
농업 모니터링 분야에서 고해상도 위성영상 기술의 단점은?
그러나 우리나라와 같이 소규모 면적에 여러 작물을 재배하는 혼작형태의 작부체계 환경에서는 공간해상도가 낮아 정밀 농업 모니터링에 적합하지 않다. 반면에 KOMPSAT (KOrea Multi-Purpose SATellite), QuickBird, RapidEye 등의 고해상도 위성영상은 동일 지역을 주기적으로 모니터링하기에는 비용, 시기 등 제약 조건이 많아 정밀 농업 모니터링에 적합하지 않은 단점을 가지고 있다. 또한 원격탐사를 활용한 농업 분야 모니터링에서 중요한 시기인 7월~9월에는 집중 호우와 태풍, 구름 등의 영향으로 좋은 품질의 영상 취득에 어려움이 있다. KOMPSAT 영상의 경우 6월에서 9월까지 일정 지역의 구름 영향이 없는 자료는 10년 동안 1~2장에 불과한 실정이다. 이러한 문제점을 보완할 수 있는 방법으로 농업 분야에서는 주기적인 모니터링이 가능한 무인비행기 (Unmanned Aerial Vehicle; UAV)가 좋은 대안으로 부각되고 있다.
참고문헌 (27)
Blaschke T., 2010. Object based image analysis for remote sensing. ISPRS Journal of Photogrammetry and Remote Sensing, 65(1): 2-16.
Booth, D. T., S. E. Cox, T. Meikle and H. R. Zuuring. 2008. Ground-cover measurements: assessing correlation among aerial and ground-based methods. Environmental Management, 42(6): 1091-1100.
Boschetti, L., S. P. Flasse and P. A. Brivio, 2004. Analysis of the conflict between omission and commission in low spatial resolution dichotomic thematic products: the Pareto boundary. Remote Sensing of Environment, 91(3-4): 280-292.
De Jong, S. M., T. Hornstra and H. G. Maas, 2001. An integrated spatial and spectral approach to the classification of Mediterranean land cover types: the SSC method. International Journal of Applied Earth Observation and Geoinformation, 3(2): 176-183.
Dingle R. L. and D. J. King, 2011. Comparison of pixel- and object-based classification in land cover change mapping. International Journal of Remote Sensing, 32(6): 1505-1529.
Freeman, P. K. and R. S. Freeland, 2014. Politics & technology: US polices restricting unmanned aerial systems in agriculture. Food Policy, 49: 302-311.
Goktogan A. H., S. Sukkarieh, M. Bryson, J. Randle and T. Lupton, 2010. A Rotary-wing unmanned air vehicle for aquatic weed surveillance and management. Journal of Intelligent and Robotic Systems, 57: 467-480.
Hunt, E. R., J. H. Everitt, J. C. Ritchie, M. S. Moran, D. T. Booth, G. L. Anderson, P. E. Clark and M. S. Seyfried, 2003. Applications and research using remote sensing for rangeland management. Photogrammetric Engineering & Remote Sensing, 69(6): 675-693.
Jo, M. H., S. J. Kim, D. Y. Kim and K. S. Choi, 2012. Comparative analysis of classification accuracy for calculating cropland areas by using satellite images. Journal of the Korean Society of Agricultural Engineers, 54(2): 47-53 (in Korean).
Kim, B. S., 2015. Crop classification using unmanned aerial vehicle imagery and object-based classification method. The master's thesis, Chungbuk National University (in Korean).
Kim, H. O. and J. M. Yeom, 2012. A study on objectbased image analysis methods for land cover classification in agricultural areas, Journal of the korean association of geographic information studies, 15(4): 26-41 (in Korean).
Laliberte, A. S., A. Rango, J. E. Herrick, E. L. Fredrickson and L. Burkett, 2007. An object-based image analysis approach for determining fractional cover of senescent and green vegetation with digital plot photography. Journal of Arid Environments, 69(1): 1-14.
Laliberte, A. S., J. E. Herrick, A. Rango and W. Craig, 2010. Acquisition, orthorectification, and classification of unmanned aerial vehicle (UAV) imagery for rangeland monitoring. Photogrammetric Engineering & Remote Sensing, 76: 661-672.
Lee, S. H., Y. G. Oh, N. Y. Park, S. H. Lee and J. Y. Choi, 2014. Extraction of paddy field in Jaeryeong, north Korea by objectoriented classification with RapidEye NDVI imagery. Journal of the Korean Society of Agricultural Engineers, 56(3): 55-64 (in Korean).
Lee, J. W., G. A. Park, H. K. Joh, K. H. Lee, S. I. Na, J. H. Park and S. J. Kim, 2011. Analysis of relationship between vegetation indices and crop yield using KOMPSAT (KOrea Multi-Purpose SATellite)-2 imagery and field investigation data. Journal of the Korean Society of Agricultural Engineers, 53(3): 75-82 (in Korean).
Mathieu, R., J. Aryal and A. K. Chong, 2007. Object-based classification of Ikonos imagery for mapping large-scale vegetation communities in urban areas. Sensors, 7: 2860-2880.
Muint, S. W., P. Gober, A. Brazel, S. Grossman-Clarke and Q. Weng, 2011. Per-pixel vs. object-based classification of urban land cover extraction using high spatial resolution imagery. Remote Sensing of Environment, 115(5): 1145-1161.
Na, H. S. and J. S. Lee, 2014. Analysis of land cover characteristics with object-based classification method-focusing on the DMZ in Inje-gun, Gangwon-do. Journal of the Korean Association of Geographic Information Studies, 17(2): 121-135 (in Korean).
Na, S. I., J. W. Park and J. K. Park, 2012. Development of Korean paddy rice yield prediction model (KRPM) using meteorological element and MODIS NDVI. Journal of the Korean Society of Agricultural Engineers, 54(3): 141-148 (in Korean).
Nam W. H., T. Tadesse, B. D. Wardlow, M. W. Jang and S. Y. Hong, 2015. Satellite-based hybrid drought assessment using vegetation drought response index in South Korea (VegDRISKorea), Journal of the Korean Society of Agricultural Engineers, 57(4): 1-9 (in Korean).
Park, J. K. and J. H. Park, 2015. Reservoir failure monitoring and identified by the UAV aerial images. Journal of safety and crisis management, 11(4): 157-169 (in Korean).
Teal Group, 2012. Worldwide UAS market will total $89 billion in 10 years. Http://tinyurl.com/l9hav8g. Accessed 8 Mar. 2015.
Toevs, G. R., J. W. Karl, J. J. Taylor, G. S. Spurrier, M. Karl, M. R. Bobo and J. E. Herrick, 2011. Consistent indicators and methods and a scalable sample design to meet assessment, inventory, and monitoring information needs across scales. Rangelands, 33: 14-20.
Yan, G., J. F. Mas, B. H. P. Maathuis, Z. Xiangmin and P. M. van Dijk, 2006, Comparison of pixel-based and object-oriented image classification approaches-a case study in a coal fire area, Wuda, Inner Mongolia, China. International Journal of Remote Sensing, 27(18): 4039-4055.
Yu, Q., P. Gong, N. Clinton, G. Biging, M. Kelly and D. Schirokauer, 2006. Object based detailed vegetation classification with airborne high spatial resolution remote sensing imagery. Photogrammetric Engineering and Remote Sensing, 72(7): 799-811.
Zhang, C. and J. Kovacs, 2012. The application of small unmanned aerial systems for precision agriculture: a review. Precision Agriculture, 13(6): 693-712.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.