Recently, development of deep learning has shown better image classification result than human. According to recent research, a hidden layer of deep learning is deeper, and a preservation of extracted features shows good results. However, in the case of general images, the extracted features are cle...
Recently, development of deep learning has shown better image classification result than human. According to recent research, a hidden layer of deep learning is deeper, and a preservation of extracted features shows good results. However, in the case of general images, the extracted features are clear and easy to sort. This study aims to classify plant leaf images. This plant leaf image has high similarity in each image. Since plant leaf images have high similarity not only between images of different species but also within the same species, classification accuracy is not increased by simply extending the hidden layer or connecting the layers. Therefore, in this paper, we tried to improve the hidden layer of the algorithm called DenseNet which shows the recent excellent classification results, and compare the results of several different modified layers. The proposed method makes it possible to classify plant leaf images collected in a natural environment more easily and accurately than conventional methods. This results in good classification of plant leaf image data including unnecessary noise obtained in a natural environment.
Recently, development of deep learning has shown better image classification result than human. According to recent research, a hidden layer of deep learning is deeper, and a preservation of extracted features shows good results. However, in the case of general images, the extracted features are clear and easy to sort. This study aims to classify plant leaf images. This plant leaf image has high similarity in each image. Since plant leaf images have high similarity not only between images of different species but also within the same species, classification accuracy is not increased by simply extending the hidden layer or connecting the layers. Therefore, in this paper, we tried to improve the hidden layer of the algorithm called DenseNet which shows the recent excellent classification results, and compare the results of several different modified layers. The proposed method makes it possible to classify plant leaf images collected in a natural environment more easily and accurately than conventional methods. This results in good classification of plant leaf image data including unnecessary noise obtained in a natural environment.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
해당 비교는 기존 DenseNet에서 실험한 두가지 중 은닉노드가 상대적으로 깊은 모델을 두 개 골라서 본 연구에 적용해 보았다. 기존 연구의 모델을 함께 비교한 이유는, 기존 연구에서 역시 다양한 모델에 대해 결과를 비교하여 적합 모델을 추출하였기 때문으로 본 연구에서는 식물 잎의 고유 특성 때문에 그리 좋지 않은 결과를 제시할 것으로 추측하였다.
이는 영상 내에 두드러지는 특징이 있을 경우 여러 형태로 추출될 가능성이 있지만, 식물 잎 영상의 경우 유사한 특징이 중복될 확률이 많아 수렴시간이 길어지거나, 수렴 정도의 오차 변동 폭이 커진다. 따라서 본 논문에서는 좀 더 얕으면서 적절한 깊이의 망으로 구성하여 빠른 수렴속도와 우수한 분류 성능을 나타내는 방법을 제안한다.
은닉계층마다 추출되는 특징 복잡도가 다르기 때문에 각각 달리 비교하기 위해 위와 같이 구성하였다. 따라서 은닉층의 깊이를 줄이고, Dense Block내 반복되는 단계를 여러 형태로 바꾸어 봄으로서 적합한 모델을 찾고자 한다.
또한, 딥 러닝을 이용하여 식물 잎 인식 및 분류를 수행할 때, 얕은 은닉층과 깊은 은닉층을 비교하기 위해 기존 DenseNet 모델과, 일부 개선된 여러 모델들을 비교하여 가장 좋은 모델을 제시하고자 비교연구를 수행한다. 해당 연구 분석을 통해 본 연구에서는 수집된 식물 잎 데이터 세트의 고유 특성을 충분히 활용 가능한 깊은 은닉층 딥 러닝 모델을 제시한다.
본 연구는 기존의 연구 사례들과는 달리 제한사항이 극히 드문 획득 영상과 저해상도의 영상을 활용하여 향후 발전 가능성이 있는 결과를 도출하였다. 따라서 본 연구를 통해 하드웨어가 만족된다면 식물잎 인식 앱 등의 흥미 위주의 응용적 접근보다는 생물학자들에게 좀 더 직접적인 관리 도구와 분류 도구로서 제시할 수 있을 것이다.
이때딥 러닝으로 편향성이 없는 일반화 모델을 추출하기 위해, 기존 연구보다 많은 양의 데이터 집합을 구성한다. 본 연구에서는 24개 종류에 대해 각 500개의 영상을 확보 하였으며, 300장을 트레이닝(training)집합, 100장을 확인(validation) 집합, 100장을 테스트(test) 집합으로 활용하여 정확도의 신뢰도를 높이고자 하였다. 이때 취득된 영상은 한 명의 획득 영상이 아닌 여러 명이 획득한 영상으로 편향성(개인의 영상 취득 취향을 고려하는)을 없앨 수 있도록 하였다.
본 연구에서는 딥 러닝 방법 중 가장 좋은 분류정확도를 보여주는 DenseNet을 활용하여 자연 환경에서 획득된 식물 잎 영상을 분류하고자 한다. 이때딥 러닝으로 편향성이 없는 일반화 모델을 추출하기 위해, 기존 연구보다 많은 양의 데이터 집합을 구성한다.
본 절에서는 딥 러닝 방법을 통해 식물 잎 영상을 분류한 기존 연구에 대해서 알아보고자 한다. 식물잎 분류 연구 역시 영상 인식 및 분류 연구와 마찬가지로 기존의 특징 추출 기반 연구에서 딥러닝을 활용한 연구로 변화되고 있다.
특히 딥 러닝을 활용하더라도 본 연구와 같은 대용량 데이터베이스를 활용한 사례가 거의 없기 때문에 본연구에서는 정확도가 조금 떨어지더라도 배경을 제거하지 않은 대용량 데이터를 활용하여 저해상 영상에서 활용 가능한 딥 러닝 모델을 제시한다.
또한, 딥 러닝을 이용하여 식물 잎 인식 및 분류를 수행할 때, 얕은 은닉층과 깊은 은닉층을 비교하기 위해 기존 DenseNet 모델과, 일부 개선된 여러 모델들을 비교하여 가장 좋은 모델을 제시하고자 비교연구를 수행한다. 해당 연구 분석을 통해 본 연구에서는 수집된 식물 잎 데이터 세트의 고유 특성을 충분히 활용 가능한 깊은 은닉층 딥 러닝 모델을 제시한다.
제안 방법
즉, 식물 잎의 특성을 고려하여 작은 모델을 만들었다. 각 모델마다 첫째 Dense Block에 좀 더 많은 특징맵을 추출하는 모델과, 뒤에서 더 많은 특징맵을 추출하는 경우로 달리 구성하였다. 은닉계층마다 추출되는 특징 복잡도가 다르기 때문에 각각 달리 비교하기 위해 위와 같이 구성하였다.
기존 DenseNet의 경우 초기 컨볼루션 레이어 이후 풀링 단계를 수행하나, 본 연구에서는 영상의 크기를 64×64로 사용하여 기존 DenseNet 실험에서 활용한 112×112보다 작았기 때문에 해당 부분을 삭제시키고 일부 본 연구에 맞도록 수정하였다.
또한 영상 한 장 내의 식물 잎인 전경과 불필요한 배경이 매우 유사한 색감으로 구성되어있다. 따라서 기존의 식물 잎 분류 연구는 과거 방법인 특징 기반 분류법과 최근의 딥러닝 분류법 둘 다 분류 오차를 높이는 배경을 제외시키는 방법을 통해 연구를 수행하였다. 하지만 이러한 방법은 불필요한 전처리를 수행하게 되어 불필요한 알고리즘을 거듭 수행하기에 추가적 연산이 수행된다.
본 실험에서는 앞서 3장에서 밝힌 것과 같이 기존연구의 몇 가지 문제점에 대해 새로운 실험 데이터를 구축하였다. 이때 획득된 영상은 기존의 실험과는 달리 전처리를 제외시키고 배경을 포함시켜 실험을 수행하였다.
본 연구에서는 기존 연구에서 활용된 영상과는 달리 자연 환경에서 획득한 영상을 그대로 활용하여 딥 러닝을 통해 분류 연구를 수행한다. 이를 위해 먼저 24종에 대해 각 500장씩 식물 잎 데이터베이스를 구축하는 작업을 수행하였다.
실험 환경은 아래 Table 4와 같다. 본 연구에서는 많은 양의 데이터 집합을 활용하기 위해 멀티 GPU를 활용하였으며 텐서플로우를 통해 두 개의 그래픽카드가 연산 처리를 할 수 있도록 하였다.
실제 취득된 식물 잎 영상의 경우 1024×1024의 해상도를 가지나, 본 연구를 위해 사용되는 알고리즘의 경우 많은 은닉층 및 파라미터 결과를 도출함으로 하드웨어 사양의 한계를 고려하여 메모리 상 모든 영상이 입력되어 가동될 수 있도록 영상의 크기 및 해상도를 작게 전처리하여 활용하였다.
이 연구에서는 Bottleneck 층 구조를 활용하는데, 이 층은 역할은 계산의 복잡성을 줄이기 위한 것으로 BN(Batch Normalization), ReLU, 1×1 컨볼루션 단계를 거쳐, BN, ReLU 그리고 3×3 컨볼루션으로 구성되어 있다.
유사 연구 중, 영상 처리에 좋은 결과를 보이는 CNN 방법을 통해 식물 잎 영상을 분류하고, DN(Deconvolutinal Network) 통한 특징맵을 시각화를 수행한 연구가 있다. 이 연구에서는 식물 잎의 종류는 Fig. 2와 같이 44종으로 식물원을 통해 영상을 획득하고 배경 제거 및 일정한 회전의 전처리 과정을 거쳤다. 즉, 배경 및 잡음을 포함하지 않은 데이터 세트를 사용하였기에, 이에 강건한 분류 연구가 필요하다[1, 6-9].
본 실험에서는 앞서 3장에서 밝힌 것과 같이 기존연구의 몇 가지 문제점에 대해 새로운 실험 데이터를 구축하였다. 이때 획득된 영상은 기존의 실험과는 달리 전처리를 제외시키고 배경을 포함시켜 실험을 수행하였다. 하지만 실세계 환경에서 적은 제약사항으로 찍은 영상이라고 하더라도 CNN의 환경에서는 좋은 결과를 보였다.
본 연구에서는 기존 연구에서 활용된 영상과는 달리 자연 환경에서 획득한 영상을 그대로 활용하여 딥 러닝을 통해 분류 연구를 수행한다. 이를 위해 먼저 24종에 대해 각 500장씩 식물 잎 데이터베이스를 구축하는 작업을 수행하였다. 다음, 영상 분류 연구에서 가장 우수한 결과를 보여주는 깊은 망 딥 러닝을 사전 연구 하고, 잎 분류에 적합하도록 일부 개선한다.
즉, 너무 깊은 층은 특징맵을 추출할 시 중복성 등에 의한 과적합을 초래할 수 있어 Dense Block 내의 계층을 일부 줄인 개선된 DenseNet을 제시하고자 여러 Dense Block 변화 모델을 다음과 같이 비교실험 수행 하였다. 아래 Table 1과 2는 실험 구성에 대해 상세히 보여주고 있다.
이는, 입력되는 식물잎 영상의 특징인 배경과 잡음으로 인해 깊이가 깊어질수록 불필요한 중복성이 발생하여 분류 정확도가 떨어질 것으로 판단하였다. 즉, 식물 잎의 특성을 고려하여 작은 모델을 만들었다. 각 모델마다 첫째 Dense Block에 좀 더 많은 특징맵을 추출하는 모델과, 뒤에서 더 많은 특징맵을 추출하는 경우로 달리 구성하였다.
본 연구에서 제시된 모델은 개선된 DenseNet이다. 해당 모델의 파라미터를 일부 수정 및 개선하여 중복성 강한 특징맵을 추출하지 않는 적합 모델을 제시한다. 따라서 이때 제시되는 적합 모델은 다른 종에는 적합하지 않을 수 있으나 식물 잎에 적합한 결과를 제시함으로서 식물 잎을 위한 모델로 활용될 수 있다.
Table 1은 DenseNet에서 실험된 두 개의 모델을 보여주고 있으며, Table 2는 본 연구에서 추가적으로 비교 수행할 모델들의 구성을 보여준다. 해당 비교는 기존 DenseNet에서 실험한 두가지 중 은닉노드가 상대적으로 깊은 모델을 두 개 골라서 본 연구에 적용해 보았다. 기존 연구의 모델을 함께 비교한 이유는, 기존 연구에서 역시 다양한 모델에 대해 결과를 비교하여 적합 모델을 추출하였기 때문으로 본 연구에서는 식물 잎의 고유 특성 때문에 그리 좋지 않은 결과를 제시할 것으로 추측하였다.
대상 데이터
본 실험에서는 앞서 언급한 Table 1과 2의 여러 DenseNet 모델들을 비교하였다. 실험 환경은 아래 Table 4와 같다.
본 연구를 수행하기 위하여 식물 잎 영상을 직접 취득하여 활용하였다. 식물 잎 영상 데이터가 공식적으로 공개된 경우는 많지 않으며, 있다 하더라도 배경이 제거된 데이터 집합이 주류를 이루고 있다.
하지만 기존 연구들에 따르면 은닉층에서 구성되는 흐름은 블랙박스와 거의 비슷하여 내부적으로 어떤 수행이 일어날지 단언할 수 없으므로 이에 대해 세밀한 파라미터를 조정하여 적합 모델을 찾아낼 필요가 있다. 본 연구에서 제시된 모델은 개선된 DenseNet이다. 해당 모델의 파라미터를 일부 수정 및 개선하여 중복성 강한 특징맵을 추출하지 않는 적합 모델을 제시한다.
6과 같이 다양한 식물을 보유하고 있는 대구수목원과 계명대학교에서 수집하였다. 총 24종에 대해 수집하였으며 육안으로 보았을 때도 유사성이 높은 식물 잎 종류가 포함되어있다. 해당 식물 잎은 앞서 기술한 것처럼 각 500장을 편향성 없이 수집하였으며 총 3명의 데이터 수집 인원을 통해 획득 되었다.
5은 수집된 영상들의 대표적 형태를 보여준다. 촬영 장소는 Fig. 6과 같이 다양한 식물을 보유하고 있는 대구수목원과 계명대학교에서 수집하였다. 총 24종에 대해 수집하였으며 육안으로 보았을 때도 유사성이 높은 식물 잎 종류가 포함되어있다.
총 24종에 대해 수집하였으며 육안으로 보았을 때도 유사성이 높은 식물 잎 종류가 포함되어있다. 해당 식물 잎은 앞서 기술한 것처럼 각 500장을 편향성 없이 수집하였으며 총 3명의 데이터 수집 인원을 통해 획득 되었다. 이는 데이터 집합을 구축함에 있어 집합의 신뢰성을 높이기 위함이다.
이론/모형
본 연구에서는 딥 러닝 중 깊은 은닉층을 가지고 있는 CNN 모델인 DenseNet을 활용하여 식물 잎 분류를 수행하였다. 딥 러닝의 연구가 점차 증가함에 따라 주목받는 일부 모델들을 그대로 답습하는 기존의 연구 사례들이 늘어나고 있다.
성능/효과
5번 표를 보면, 확인 집합에서 최대 결과를 낸 세대에서는 4번 모델 DenseNet 89이 가장 좋은 결과를 보이는 것을 알 수 있다. 모델 3번인 DenseNet 71과 약 0.
또한 기존 DenseNet에서 기본적으로 실험되었던 121, 201 두 개의 모델은 비교모델들에 비해 현저히 낮은 수치를 보여주는 것을 알 수 있다. 그 두 모델 중에서도 201의 은닉층을 가지는 모델보다 121의 얕은 은닉층을 가지는 모델이 약 1%정도의 좋은 결과를 보여주는데, 이는 본 연구에서 분류하고자 하는 목적 영상이 식물 잎 영상이기 때문으로 판단된다. 즉, 식물 잎 영상은 영상 내의 추출되어야 하는 특징들이 적고, 많은 특징을 지속적으로 추출할 경우 특징맵의 중복성(redundancy)가 높아지기 때문에, 오히려 결과가 좋지 않다는 것을 반증한다.
식물 잎 분류는 특징 기반의 다양한 접근 방법으로 연구됐으나, 하드웨어의 눈부신 발전으로 인해 영상 분류에 우수한 성능을 보여주고 있는 딥러닝(deep learning)을 활용한 연구로 변화되고 있다. 딥러닝을 활용한 영상 분류는 최근 ILSVRC(ImagenetLarge Scale Visual Recognition Competition)라는 영상 분류 관련 대회에서 우수한 결과를 보여주고 있으며, 인간의 능력보다 우수한 분류 결과를 보여주었다. 하지만 해당 대회에서 활용하는 영상의 경우 본 연구에서 분류하고자 하는 식물 잎 영상과 달리 각 종마다 분류 특성이 좋으며, 유사도가 그리 높지 않다.
즉, 식물 잎 영상은 영상 내의 추출되어야 하는 특징들이 적고, 많은 특징을 지속적으로 추출할 경우 특징맵의 중복성(redundancy)가 높아지기 때문에, 오히려 결과가 좋지 않다는 것을 반증한다. 따라서 기존 연구에서 은닉층이 깊어질 때 좋은 결과를 보여주는 것을 알 수 있지만, 영상의 특징에 따라 적절한딥 러닝 모델이 필요하며 특징맵의 경우에는 중복성을 줄여서 추출하여야 더욱 좋은 결과를 볼 수 있다는 것을 알 수 있다. Fig.
따라서 제시된 모델 역시 기존 모델을 일부 개선하였으며, 식물 잎 영상과 같이 한 영상 내부의 특성이 유사하고, 종류별의 개별 영상 역시 유사할 때 과한 계층을 쌓는 방법을 통한 특징맵 추출은 오히려 불필요한 연산 및 중복성을 늘이는 작업이 되기 때문에 정확도에 있어 반감되는 작용을 한다.
또한 기존 DenseNet에서 기본적으로 실험되었던 121, 201 두 개의 모델은 비교모델들에 비해 현저히 낮은 수치를 보여주는 것을 알 수 있다. 그 두 모델 중에서도 201의 은닉층을 가지는 모델보다 121의 얕은 은닉층을 가지는 모델이 약 1%정도의 좋은 결과를 보여주는데, 이는 본 연구에서 분류하고자 하는 목적 영상이 식물 잎 영상이기 때문으로 판단된다.
또한 본 실험을 통해 영상 특징에 따라 적절하게 은닉층을 줄이는 것이 더욱 좋은 결과를 보인다는 것을 알 수 있다. 즉, 제안된 방법 중 미미한 차이로 DenseNet 89가 가장 좋은 결과를 도출한다.
5번 표를 보면, 확인 집합에서 최대 결과를 낸 세대에서는 4번 모델 DenseNet 89이 가장 좋은 결과를 보이는 것을 알 수 있다. 모델 3번인 DenseNet 71과 약 0.9%의 미미한 수준으로 좋은 결과를 보이나, 두 모델의 가장 최고 수치의 세대의 확인 결과를 볼 때, 4번 모델이 좀 더 빨리 수렴되어 결과를 보여준다는 것을 알 수 있다. 하지만 300번째를 최대로 수행한 해당 세대에서는 0.
또한 본 실험을 통해 영상 특징에 따라 적절하게 은닉층을 줄이는 것이 더욱 좋은 결과를 보인다는 것을 알 수 있다. 즉, 제안된 방법 중 미미한 차이로 DenseNet 89가 가장 좋은 결과를 도출한다. 이는 영상의 특성에 따라 무조건 깊은 계층을 활용하는 것이 좋은 것은 아니라 식물 잎 등의 목적 영상 자체의 특성을 반영하여 결정하는 것이 바람직한 것으로 판단된다.
최종 테스트 정확도를 볼 때 3번과 4번 결과는 약 1%의 정확도 차이를 보이지만, 상기 그림을 보면 4번 모델보다 3번 모델의 정확도 변동 폭이 더 크다는 것을 알 수 있다. 이는 3번 모델보다 4번 모델이 식물잎에 좀 더 적합한 모델로서 적은 폭의 변동으로 수렴했다는 것을 알 수 있다.
후속연구
기존 DenseNet의 경우 초기 컨볼루션 레이어 이후 풀링 단계를 수행하나, 본 연구에서는 영상의 크기를 64×64로 사용하여 기존 DenseNet 실험에서 활용한 112×112보다 작았기 때문에 해당 부분을 삭제시키고 일부 본 연구에 맞도록 수정하였다. 기존 연구에서는 보다 큰 영상으로 분류 하였으나, 본 연구에서는 현저히 작은 데이터로 구성되어 있기 때문에 하드웨어가 만족된다면 좀 더 좋은 결과를 제시할 수 있을 것이라는 예측이 가능하다. 특히 본 연구에서는 각 종마다 500장씩의 많은 데이터를 활용하여,연산시간이 매우 오래 걸렸다.
이를 위해 먼저 24종에 대해 각 500장씩 식물 잎 데이터베이스를 구축하는 작업을 수행하였다. 다음, 영상 분류 연구에서 가장 우수한 결과를 보여주는 깊은 망 딥 러닝을 사전 연구 하고, 잎 분류에 적합하도록 일부 개선한다. 식물 잎은 기존 분류된 영상들과는 달리, 색상이나, 잎 모양 등 분류 종 사이에 두드러지는 특징이 적기 때문에 기존 딥 러닝의 은닉 망을 다르게 구성하여 모델을 개선한다.
본 연구는 기존의 연구 사례들과는 달리 제한사항이 극히 드문 획득 영상과 저해상도의 영상을 활용하여 향후 발전 가능성이 있는 결과를 도출하였다. 따라서 본 연구를 통해 하드웨어가 만족된다면 식물잎 인식 앱 등의 흥미 위주의 응용적 접근보다는 생물학자들에게 좀 더 직접적인 관리 도구와 분류 도구로서 제시할 수 있을 것이다. 또한, 식물의 잎을 인식하고 분류한 후, 분류된 종에 대해 각각의 질병의 종류를 파악하는 등 겹겹이 쌓인 딥 러닝 모델들로 연구목적의 응용까지 가능하다.
해당 모델의 파라미터를 일부 수정 및 개선하여 중복성 강한 특징맵을 추출하지 않는 적합 모델을 제시한다. 따라서 이때 제시되는 적합 모델은 다른 종에는 적합하지 않을 수 있으나 식물 잎에 적합한 결과를 제시함으로서 식물 잎을 위한 모델로 활용될 수 있다.
하지만 실세계 환경에서 적은 제약사항으로 찍은 영상이라고 하더라도 CNN의 환경에서는 좋은 결과를 보였다. 또한, DenseNet은 작은 크기의 입력 영상에서도 90%대 초반의 결과를 도출하는 것을 볼 때 영상의 크기가 커진다면 더욱 좋은 결과도 기대할 수 있다.
따라서 본 연구를 통해 하드웨어가 만족된다면 식물잎 인식 앱 등의 흥미 위주의 응용적 접근보다는 생물학자들에게 좀 더 직접적인 관리 도구와 분류 도구로서 제시할 수 있을 것이다. 또한, 식물의 잎을 인식하고 분류한 후, 분류된 종에 대해 각각의 질병의 종류를 파악하는 등 겹겹이 쌓인 딥 러닝 모델들로 연구목적의 응용까지 가능하다. 향후 식물 잎 인식 모델을 통해 농업, 산림업 등의 전문적 목적을 가진 관리 도구를 개발할 수 있을 것으로 기대된다.
기존에는 은닉층이 깊어지는 것은 기울기 소실의 문제와 학습 방법의 어려움 등으로 정확도가 그다지 높아지지 않는다고 하였으나, 앞에서 추출된 특징들을 이후 은닉층에 더해주는 방법으로 [4]와 [5]의 방법에서 해당 문제 뿐 아니라 계산복잡도의 문제도 해결하였다. 이에 본 연구에서 분류하고자 하는 식물 잎 또한 깊은 은닉층을 통해 특징을 많이 추출하여 분류 정확도를 높일 수 있을 것이다. 하지만 딥 러닝을 활용하더라도 은닉층의 깊이에 따른 다양한 실험이 불충분하여 식물 잎 인식에 대해 어떠한 형태의 딥 러닝 모델이 적합한지 알 수 없다.
일반적인 영상 분류 및 물체 인식 등에서는 기존모델들이 좋은 역할을 할 수 있으나, 특정적인 목적을 가진 영상 분류에서는 본 연구에서 제시하는 것과 같이 영상 간 유사성을 고려하여 중복성을 배제시킨 분류모델을 개발할 필요가 있다. 특히 본 연구와 연관된 목적을 볼 때, 대량의 식물 잎 빅데이터 집합개발이나, 식물의 병을 자동으로 찾아주는 시스템 등을 개발할 때는 ‘식물’이라는 종류 안에서 영상을 분류하고 물체명을 인식하기 때문에 이와 같은 비교실험은 매우 중요할 것으로 판단된다.
하지만 딥 러닝을 활용하더라도 은닉층의 깊이에 따른 다양한 실험이 불충분하여 식물 잎 인식에 대해 어떠한 형태의 딥 러닝 모델이 적합한지 알 수 없다. 즉, 일반 영상의 데이터 집합과 식물 잎 영상의 데이터 집합은 그 종류와 영상이 가진 성질이 다르므로 그에 맞는 딥 러닝 모델이 필요 할 것으로 보인다. 그뿐만 아니라 기존 연구에서는 배경을 제외하였지만 본 연구에서 활용하고자 하는 CNN의 방법은 컨볼루션 과정에서 인근 픽셀을 고려하여 불필요한 정보를 대거 삭제하기 때문에 추가적인 전처리가 필요 없을 것이다[1-5].
특히 본 연구와 연관된 목적을 볼 때, 대량의 식물 잎 빅데이터 집합개발이나, 식물의 병을 자동으로 찾아주는 시스템 등을 개발할 때는 ‘식물’이라는 종류 안에서 영상을 분류하고 물체명을 인식하기 때문에 이와 같은 비교실험은 매우 중요할 것으로 판단된다.
또한, 식물의 잎을 인식하고 분류한 후, 분류된 종에 대해 각각의 질병의 종류를 파악하는 등 겹겹이 쌓인 딥 러닝 모델들로 연구목적의 응용까지 가능하다. 향후 식물 잎 인식 모델을 통해 농업, 산림업 등의 전문적 목적을 가진 관리 도구를 개발할 수 있을 것으로 기대된다.
질의응답
핵심어
질문
논문에서 추출한 답변
Dense Net의 특장점은 무엇인가?
이는 깊어진 모델의 후반 층까지 앞선 정보를 효율적으로 전달할 수 있도록 설계 되었다. Dense Net은 상대적으로 ResNet에 비해 얕은 은닉층에도 더욱 좋은 성능을 보이며, 이에 대해 적은 수의 매개변수를 가지고 있다. 해당 연구에서는 DenseNet이 가지고 있는 크고 깊은 모델이 잘 학습되어서 좋은 표현력을 가지고 있으므로, ResNet보다 과적합과 최적화 문제에 대해 자유롭다.
식물 잎 데이터세트는 어떤 고유 특징을 지녔는가?
식물 잎은 앞서 언급한 것과 같이 공개적으로 자주 사용되는 데이터세트와는 다른 고유 특징을 가지고 있다. 먼저 다른 종 간에 유사한 특징을 가지고 있다. 색상이 유사하며, 후경과 전경이 두드러지게 분리되지 않는다. 왜냐하면 식물 잎의 후경은 대부분 같은 잎일 확률이 높다.
Residual Learning의 기본 구조는 무엇인가?
이 방법은 출력값이 생성될 때 기존의 모델에서 이루어지는 컨볼루션 등의 연산과정을 거쳐나온 결괏값에 이전 단계의 출력값을 바로 더한 값이 새로운 목푯값이 되며, 이를 Residual Learning의 기본 구조라고 표현한다. 해당 구조를 반복적으로 쌓는 것이ResNet이라고 할 수 있다.
참고문헌 (10)
Y. Park, Plant Leaf Classification Based on DenseNet of Deep Learning Algorithm, Master's Thesis of Keimyung University, 2018.
S. Gang, S. Yoon, and J. Lee, “Plant leaf Classification Using Orientation Feature Descriptions,” Journal of Korea Multimedia Society, Vol. 17, No. 3, pp. 300-311, 2014.
K. He, X. Zhang, S. Ren, and J. Sun, "Deep Residual Learning for Image Recognition," Proceeding of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 770-778, 2016.
G. Huang, Z. Liu, Kilian Q. Weinberger, L. van der Maaten, "Densely Connected Convolutional Networks," arXiv Preprint arXiv:168.06993, 2016.
S.G. Wu, F.S. Bao, E.Y. Xu, Y. Wang, Y. Chang, and Q. Xiang, "A leaf Recognition Algorithm for Plant Classification Using Probabilistic Neural Network," Signal Processing and Information Technology, Proceeding of 2007 IEEE International Symposium on, pp. 11-16, 2007.
S. Sharma and C. Gupta, “Recognition of Plant Species Based on Leaf Images Using Multilayer Feed Forward Neural Network,” International Journal of Innovative Research in Advanced Engineering, Vol. 2, No. 6, pp. 104-110, 2015.
S.H. Lee, C.S. Chan, P. Wilkin, and P. Remagnino, "Deep-plant: Plant Identification with Convolutional Neural Networks," Proceeding of 2015 IEEE International Conference on, pp. 452-456, 2015.
W. Jeon and S. Rhee, “Plant Leaf Recognition Using a Convolution Neural Network,” International J ournal of Fuzzy Logic and Intelligent Systems, Vol. 17, No. 1, pp. 26-34, 2017.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.