딸기는 한국에서 경제적으로 중요한 작물에 해당하며, 오늘날 온실에서만 재배되고 있는 작물이다. 딸기 재배로 인한 수익은 딸기의 품질과 생산량에 의해 결정되며, 두 요소는 수확시기 및 최적 재배 환경과 밀접한 연관이 있다. 정확한 수확시기 예측과 작물 생장에 있어 최적의 재배 환경을 유지하기 위해서는 작물의 생육상태에 대한 지속적인 모니터링이 필요하며, 구체적으로 생장과정 중 발생하는 꽃이나 열매의 온실 내 위치와 수, 성숙 상태 등을 파악하는 작업이 필요하다. 그러나 사람이 수동으로 온실 전체의 꽃과 과실을 계수하고 판단하는 방식의 모니터링은 시간과 비용 측면에서 비효율적이다. 따라서, 자동화된 딸기 생육 모니터링 시스템이 없다면 모니터링의 중요성에 비해 자주 수행되기 어렵다. 본 연구가 수행되는 배경인 ALARAD project에서는 딸기 온실에서 운용이 가능한 레일카메라 시스템의 개발과 최신 딥러닝 알고리즘을 활용한 작물의 생장 관리를 목표로 하고 있다. 이러한 목표를 달성하기 위해서는 레일카메라 시스템에 적합한 모델의 선정이 필요하다. 기존 연구에서는 딥러닝 기반 딸기 생육 모니터링을 위해 다양한 알고리즘들이 평가되었지만, 현장에서의 운용을 목표로 하는 ...
딸기는 한국에서 경제적으로 중요한 작물에 해당하며, 오늘날 온실에서만 재배되고 있는 작물이다. 딸기 재배로 인한 수익은 딸기의 품질과 생산량에 의해 결정되며, 두 요소는 수확시기 및 최적 재배 환경과 밀접한 연관이 있다. 정확한 수확시기 예측과 작물 생장에 있어 최적의 재배 환경을 유지하기 위해서는 작물의 생육상태에 대한 지속적인 모니터링이 필요하며, 구체적으로 생장과정 중 발생하는 꽃이나 열매의 온실 내 위치와 수, 성숙 상태 등을 파악하는 작업이 필요하다. 그러나 사람이 수동으로 온실 전체의 꽃과 과실을 계수하고 판단하는 방식의 모니터링은 시간과 비용 측면에서 비효율적이다. 따라서, 자동화된 딸기 생육 모니터링 시스템이 없다면 모니터링의 중요성에 비해 자주 수행되기 어렵다. 본 연구가 수행되는 배경인 ALARAD project에서는 딸기 온실에서 운용이 가능한 레일카메라 시스템의 개발과 최신 딥러닝 알고리즘을 활용한 작물의 생장 관리를 목표로 하고 있다. 이러한 목표를 달성하기 위해서는 레일카메라 시스템에 적합한 모델의 선정이 필요하다. 기존 연구에서는 딥러닝 기반 딸기 생육 모니터링을 위해 다양한 알고리즘들이 평가되었지만, 현장에서의 운용을 목표로 하는 엣지 장비에서의 탐지 알고리즘에 대한 평가는 아직 이루어지지 않았다. 본 연구에서는 딸기의 생육 과정 중 꽃과 과실의 발달을 7단계로 나누어 자동 모니터링하기 위해 5개의 CNN 기반 객체 탐지 알고리즘 YOLOv5, YOLOv6, YOLOv7, YOLOv8, Detectron2와 Transformer 기반 알고리즘인 DINO의 딸기 생육지표 탐지 성능을 평가하였다. 모델의 학습과 테스트에 사용된 데이터는 레일카메라가 설치된 경상북도 군위군 효령면의 경북대학교 실험 온실에서 수집되었으며, mAP 성능 차이를 통한 일반화 오류를 계산하기 위해 2022년 11월 10일부터 12월 15일까지 수집된 Early-winter dataset과 2022년 12월 16일부터 2023년 3월 12일까지 수집된 이미지로 구성된 Late-winter dataset을 사용하였다. 한 작기 내 딸기의 일괄적인 생육 모니터링을 위해 탐지 대상을 성숙과정에 따라 7개의 시각적 지표인 꽃눈, 꽃, 화탁, 미성숙과, 흰색과실, 50% 성숙, 80% 성숙 단계로 구분하였으며, 모델의 탐지 정확도, 일반화 성능, 레일카메라 환경에 대한 적합성을 평가하기 위해 mAP, 일반화 오류, 추론 시간(inference time), FLOPs(Floating-Point Operations), 파라미터 크기(parameter size)를 평가지표로 사용하였다. 실험결과, Early- winter dataset에서 YOLOv5는 0.585, YOLOv6는 0.658, YOLOv7는 0.681, YOLOv8는 0.665, Detectron2는 0.586, DINO는 0.431의 mAP값을 보였으며, 이 중 YOLOv7이 가장 높은 탐지 정확도를 보였다. 반면 Late-winter dataset에서 YOLOv5는 0.405, YOLOv6는 0.521, YOLOv7는 0.438, YOLOv8는 0.539, Detectron2는 0.418, DINO는 0.200의 mAP값을 보였으며, 이 중 YOLOv8이 가장 높은 탐지 정확도를 보였다. 일반화 오류는 YOLOv5에서 0.18, YOLOv6에서 0.137, YOLOv7에서 0.243, YOLOv8에서 0.126, Detectron2에서 0.168, DINO에서 0.231로 YOLOv8의 일반화 오류가 가장 낮았다. 추론 시간은 YOLOv5에서 7.3ms, YOLOv6에서 9.51ms, YOLOv7에서 9.03ms, YOLOv8에서 9.2ms, Detectron2에서 21.3ms, DINO에서 324ms으로 DINO를 제외한 5개 모델이 실시간 모니터링이 가능함을 보였다. FLOPs는 GFLOPs로 환산했으며, YOLOv5는 47.9, YOLOv6는 85.64, YOLOv7는 103.3, YOLOv8는 78.7, Detectron2는 131.3, DINO는 363으로 YOLOv5가 가장 적은 연산량을 보였다. 파라미터 크기는 YOLOv5에서 79.64MB, YOLOv6에서 132.78MB, YOLOv7에서 139.29MB, YOLOv8에서 98.59MB, Detectron2에서 157.65MB, DINO에서 409.84MB로 YOLOv5가 가장 작은 파라미터 크기로 가벼운 모델임을 보였다. 각 평가지표와 ALARAD project에서 요구하는 모델의 성능을 고려했을 때, mAP가 0.7이 넘어야 한다는 기준으로 인해 모든 조건을 충족하는 모델은 없었지만, 값에 근접한 mAP와 낮은 일반화 오류, 실시간 탐지, 엣지 장비 환경에서의 구현을 위한 적은 연산량과 파라미터 크기 조건을 고려했을 때 가장 조건에 근접한 모델은 YOLOv8로 확인되었다. 비록 본 연구에서 딸기 생육 모니터링을 위한 딥러닝 모델의 성능 평가는 운용을 목표로 하는 엣지 장비에서 평가되지 않았으나, 엣지 장비 상에서의 운용에 필요한 탐지 속도, 연산량, 파라미터 크기를 포함한 평가지표를 통해 성능 평가를 진행함으로써 엣지 장비에서 구현할 딸기 생육 모니터링 모델 선정에 필요한 가이드라인을 제시한다. 향후 연구에서는 ALARAD project에서 요구하는 탐지 성능을 만족시키기 위해 다양한 작기에 걸친 추가 학습 데이터를 활용하여 모델에서 탐지 성능이 낮은 생육지표의 탐지성능을 개선시킬 수 있을 것으로 보이며, 본 연구에서 선정된 모델을 기반으로 가려진 영역을 추정하거나 생육 예측 모델과 결합하여 상세한 수확량과 수확시기 예측, 최적 재배를 위한 의사결정 및 재배전략 수립에 기여할 수 있을 것으로 기대된다.
딸기는 한국에서 경제적으로 중요한 작물에 해당하며, 오늘날 온실에서만 재배되고 있는 작물이다. 딸기 재배로 인한 수익은 딸기의 품질과 생산량에 의해 결정되며, 두 요소는 수확시기 및 최적 재배 환경과 밀접한 연관이 있다. 정확한 수확시기 예측과 작물 생장에 있어 최적의 재배 환경을 유지하기 위해서는 작물의 생육상태에 대한 지속적인 모니터링이 필요하며, 구체적으로 생장과정 중 발생하는 꽃이나 열매의 온실 내 위치와 수, 성숙 상태 등을 파악하는 작업이 필요하다. 그러나 사람이 수동으로 온실 전체의 꽃과 과실을 계수하고 판단하는 방식의 모니터링은 시간과 비용 측면에서 비효율적이다. 따라서, 자동화된 딸기 생육 모니터링 시스템이 없다면 모니터링의 중요성에 비해 자주 수행되기 어렵다. 본 연구가 수행되는 배경인 ALARAD project에서는 딸기 온실에서 운용이 가능한 레일카메라 시스템의 개발과 최신 딥러닝 알고리즘을 활용한 작물의 생장 관리를 목표로 하고 있다. 이러한 목표를 달성하기 위해서는 레일카메라 시스템에 적합한 모델의 선정이 필요하다. 기존 연구에서는 딥러닝 기반 딸기 생육 모니터링을 위해 다양한 알고리즘들이 평가되었지만, 현장에서의 운용을 목표로 하는 엣지 장비에서의 탐지 알고리즘에 대한 평가는 아직 이루어지지 않았다. 본 연구에서는 딸기의 생육 과정 중 꽃과 과실의 발달을 7단계로 나누어 자동 모니터링하기 위해 5개의 CNN 기반 객체 탐지 알고리즘 YOLOv5, YOLOv6, YOLOv7, YOLOv8, Detectron2와 Transformer 기반 알고리즘인 DINO의 딸기 생육지표 탐지 성능을 평가하였다. 모델의 학습과 테스트에 사용된 데이터는 레일카메라가 설치된 경상북도 군위군 효령면의 경북대학교 실험 온실에서 수집되었으며, mAP 성능 차이를 통한 일반화 오류를 계산하기 위해 2022년 11월 10일부터 12월 15일까지 수집된 Early-winter dataset과 2022년 12월 16일부터 2023년 3월 12일까지 수집된 이미지로 구성된 Late-winter dataset을 사용하였다. 한 작기 내 딸기의 일괄적인 생육 모니터링을 위해 탐지 대상을 성숙과정에 따라 7개의 시각적 지표인 꽃눈, 꽃, 화탁, 미성숙과, 흰색과실, 50% 성숙, 80% 성숙 단계로 구분하였으며, 모델의 탐지 정확도, 일반화 성능, 레일카메라 환경에 대한 적합성을 평가하기 위해 mAP, 일반화 오류, 추론 시간(inference time), FLOPs(Floating-Point Operations), 파라미터 크기(parameter size)를 평가지표로 사용하였다. 실험결과, Early- winter dataset에서 YOLOv5는 0.585, YOLOv6는 0.658, YOLOv7는 0.681, YOLOv8는 0.665, Detectron2는 0.586, DINO는 0.431의 mAP값을 보였으며, 이 중 YOLOv7이 가장 높은 탐지 정확도를 보였다. 반면 Late-winter dataset에서 YOLOv5는 0.405, YOLOv6는 0.521, YOLOv7는 0.438, YOLOv8는 0.539, Detectron2는 0.418, DINO는 0.200의 mAP값을 보였으며, 이 중 YOLOv8이 가장 높은 탐지 정확도를 보였다. 일반화 오류는 YOLOv5에서 0.18, YOLOv6에서 0.137, YOLOv7에서 0.243, YOLOv8에서 0.126, Detectron2에서 0.168, DINO에서 0.231로 YOLOv8의 일반화 오류가 가장 낮았다. 추론 시간은 YOLOv5에서 7.3ms, YOLOv6에서 9.51ms, YOLOv7에서 9.03ms, YOLOv8에서 9.2ms, Detectron2에서 21.3ms, DINO에서 324ms으로 DINO를 제외한 5개 모델이 실시간 모니터링이 가능함을 보였다. FLOPs는 GFLOPs로 환산했으며, YOLOv5는 47.9, YOLOv6는 85.64, YOLOv7는 103.3, YOLOv8는 78.7, Detectron2는 131.3, DINO는 363으로 YOLOv5가 가장 적은 연산량을 보였다. 파라미터 크기는 YOLOv5에서 79.64MB, YOLOv6에서 132.78MB, YOLOv7에서 139.29MB, YOLOv8에서 98.59MB, Detectron2에서 157.65MB, DINO에서 409.84MB로 YOLOv5가 가장 작은 파라미터 크기로 가벼운 모델임을 보였다. 각 평가지표와 ALARAD project에서 요구하는 모델의 성능을 고려했을 때, mAP가 0.7이 넘어야 한다는 기준으로 인해 모든 조건을 충족하는 모델은 없었지만, 값에 근접한 mAP와 낮은 일반화 오류, 실시간 탐지, 엣지 장비 환경에서의 구현을 위한 적은 연산량과 파라미터 크기 조건을 고려했을 때 가장 조건에 근접한 모델은 YOLOv8로 확인되었다. 비록 본 연구에서 딸기 생육 모니터링을 위한 딥러닝 모델의 성능 평가는 운용을 목표로 하는 엣지 장비에서 평가되지 않았으나, 엣지 장비 상에서의 운용에 필요한 탐지 속도, 연산량, 파라미터 크기를 포함한 평가지표를 통해 성능 평가를 진행함으로써 엣지 장비에서 구현할 딸기 생육 모니터링 모델 선정에 필요한 가이드라인을 제시한다. 향후 연구에서는 ALARAD project에서 요구하는 탐지 성능을 만족시키기 위해 다양한 작기에 걸친 추가 학습 데이터를 활용하여 모델에서 탐지 성능이 낮은 생육지표의 탐지성능을 개선시킬 수 있을 것으로 보이며, 본 연구에서 선정된 모델을 기반으로 가려진 영역을 추정하거나 생육 예측 모델과 결합하여 상세한 수확량과 수확시기 예측, 최적 재배를 위한 의사결정 및 재배전략 수립에 기여할 수 있을 것으로 기대된다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.