영상처리는 정확한 오이의 형상 및 위치를 인식하기 위하여 형상인식 알고리즘에 대한 연구를 수행하였다. 다양한 오이형상을 인식하기 위한 방법으로는 신경회로망의 연상 메모리 알고리즘을 이용하여 오이의 특정형상을 인식하였다. 형상인식은 실제영상에서 오이의 형상과 위치를 판정할 수 있도록 알고리즘을 개발한 결과, 다음과 같은 결론을 얻었다. 본 알고리즘에서는 일정한 학습패턴의 수를 2개, 3개, 4개를 각각 기억시켜 샘플패턴 20개를 실험하여 연상시킨 결과, 학습패턴으로 복원된 출력패턴의 비율은 각각 65.0%, 45.0%, 12.5%로 나타났다. 이는 학습패턴의 수가 많을수록 수렴할 때, 다른 출력패턴으로 많이 검출되었다. 오이의 특정형상 검출은 $30{\times}30$간격으로 자동검출 되도록 처리하였다. 실제영상에서 자동 검출로 처리한 결과, 오이인식의 처리시간은 약 0.5~1초/1개(패턴) 빠르게 검출되었다. 또한, 다섯 개의 실제 영상에서 실험한 결과, 학습패턴에 대한 다른 출력패턴은 96~99%의 제거율을 나타내었다. 오이로 인식된 출력패턴 중에서, 오검출된 출력패턴의 비율은 0.1~4.2%를 나타내었다. 본 연구에서는 신경회로망을 이용하여 오이의 형상 및 위치를 인식할 수 있도록 알고리즘을 개발하였다. 오이의 위치측정은 실제영상에서 학습패턴과 유사한 출력패턴의 좌표를 가지고, 오이의 위치좌표를 추정할 수 있었다.
영상처리는 정확한 오이의 형상 및 위치를 인식하기 위하여 형상인식 알고리즘에 대한 연구를 수행하였다. 다양한 오이형상을 인식하기 위한 방법으로는 신경회로망의 연상 메모리 알고리즘을 이용하여 오이의 특정형상을 인식하였다. 형상인식은 실제영상에서 오이의 형상과 위치를 판정할 수 있도록 알고리즘을 개발한 결과, 다음과 같은 결론을 얻었다. 본 알고리즘에서는 일정한 학습패턴의 수를 2개, 3개, 4개를 각각 기억시켜 샘플패턴 20개를 실험하여 연상시킨 결과, 학습패턴으로 복원된 출력패턴의 비율은 각각 65.0%, 45.0%, 12.5%로 나타났다. 이는 학습패턴의 수가 많을수록 수렴할 때, 다른 출력패턴으로 많이 검출되었다. 오이의 특정형상 검출은 $30{\times}30$간격으로 자동검출 되도록 처리하였다. 실제영상에서 자동 검출로 처리한 결과, 오이인식의 처리시간은 약 0.5~1초/1개(패턴) 빠르게 검출되었다. 또한, 다섯 개의 실제 영상에서 실험한 결과, 학습패턴에 대한 다른 출력패턴은 96~99%의 제거율을 나타내었다. 오이로 인식된 출력패턴 중에서, 오검출된 출력패턴의 비율은 0.1~4.2%를 나타내었다. 본 연구에서는 신경회로망을 이용하여 오이의 형상 및 위치를 인식할 수 있도록 알고리즘을 개발하였다. 오이의 위치측정은 실제영상에서 학습패턴과 유사한 출력패턴의 좌표를 가지고, 오이의 위치좌표를 추정할 수 있었다.
Pattern recognition of a cucumber were conducted to detect directly the binary images by using thresholding method, which have the threshold level at the optimum intensity value. By restricting conditions of learning pattern, output patterns could be extracted from the same and similar input pattern...
Pattern recognition of a cucumber were conducted to detect directly the binary images by using thresholding method, which have the threshold level at the optimum intensity value. By restricting conditions of learning pattern, output patterns could be extracted from the same and similar input patterns by the algorithm. The algorithm of pattern recognition was developed to determine the position of the cucumber from a real image within working condition. The algorithm, designed and developed for this project, learned two, three or four learning pattern, and each learning pattern applied it to twenty sample patterns. The restored success rate of output pattern to sample pattern form two, three or four learning pattern was 65.0%, 45.0%, 12.5% respectively. The more number of learning pattern had, the more number of different out pattern detected when it was conversed. Detection of feature pattern of cucumber was processed by using auto scanning with real image of 30 by 30 pixel. The computing times required to execute the processing time of cucumber recognition took 0.5 to 1 second. Also, five real images tested, false pattern to the learning pattern is found that it has an elimination rate which is range from 96 to 98%. Some output patterns was recognized as a cucumber by the algorithm with the conditions. the rate of false recognition was range from 0.1 to 4.2%.
Pattern recognition of a cucumber were conducted to detect directly the binary images by using thresholding method, which have the threshold level at the optimum intensity value. By restricting conditions of learning pattern, output patterns could be extracted from the same and similar input patterns by the algorithm. The algorithm of pattern recognition was developed to determine the position of the cucumber from a real image within working condition. The algorithm, designed and developed for this project, learned two, three or four learning pattern, and each learning pattern applied it to twenty sample patterns. The restored success rate of output pattern to sample pattern form two, three or four learning pattern was 65.0%, 45.0%, 12.5% respectively. The more number of learning pattern had, the more number of different out pattern detected when it was conversed. Detection of feature pattern of cucumber was processed by using auto scanning with real image of 30 by 30 pixel. The computing times required to execute the processing time of cucumber recognition took 0.5 to 1 second. Also, five real images tested, false pattern to the learning pattern is found that it has an elimination rate which is range from 96 to 98%. Some output patterns was recognized as a cucumber by the algorithm with the conditions. the rate of false recognition was range from 0.1 to 4.2%.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
2%를 나타내었다. 본 연구에서는 신경회로망을 이용하여 오이의 형상 및 위치를 인식할 수 있도록 알고리즘을 개발하였다. 오이의 위치측정은 실제영상에서 학습패턴과 유사한 출력패턴의 좌표를 가지고, 오이의 위치좌표를 추정할 수 있었다.
영상처리는 정확한 오이의 형상 및 위치를 인식하기 위하여 형상인식 알고리즘에 대한 연구를 수행하였다. 다양한 오이형상을 인식하기 위한 방법으로는 신경회로망의 연상 메모리 알고리즘을 이용하여 오이의 특징 형상을 인식하였다.
제안 방법
7은 본 알고리즘의 순방향 신경망 구조를 나타낸 것이다. 각 뉴런의 데이터 값(X)이 입력되면, 각 학습 데이터에 대한 가중치(%)의 합을 구한 후 학습패턴에 대한 출력패턴의 복원율을 높이기 위해 단위 메트릭스를 이용하였다. 또한, 복원율을 향상시키기 위해 활성화 함수를 이용하여 연상된 패턴을 출력하도록 하였다.
18(d)에서 학습패턴과 유사한 출력패턴으로 검출된 과병 부위의 좌표는 (205, 103)에서 비슷하게 인식되었다. 또한 학습패턴에 대한 출력패턴의 검출 결과는 3개의 특징형상을 오검출하였다.
각 뉴런의 데이터 값(X)이 입력되면, 각 학습 데이터에 대한 가중치(%)의 합을 구한 후 학습패턴에 대한 출력패턴의 복원율을 높이기 위해 단위 메트릭스를 이용하였다. 또한, 복원율을 향상시키기 위해 활성화 함수를 이용하여 연상된 패턴을 출력하도록 하였다.
학습벡터에 대한 출력벡터의 가중치(W)를구하고 연상메모리에 의해서 학습패턴에 대한 출력패턴을 연상한다. 또한, 출력패턴의 복원 효율을 높이기 위해 단위메트릭스를 이용한 후 양극성 데이터로 변환하여 학습패턴과 유사한 출력패턴을 연상한다. 학습패턴과 유사한 출력패턴만을 검출하기 위해 H .
본 연구에서는 대상체(오이)를 인식하기 위한 방법으로 신경회로망 모델 중 구현이 간단하고 분류능력이 좋은 연상메모리 중에서 동질연상 메모리를 이용하였다.
실제 영상에서 오이의 특징점 검출은 출력패턴 결과를 적용하여 전체영상 크기에서 자동적으로 검출하였다. 자동검출 처리는 오이의 학습패턴과 유사한 출력패턴을 인식하여 오이의 형상 및 위치를 판정하였다.
실제 영상에서 오이의 형상인식은 Fig. 5와 같이 RGB 영상을 이치화하여 흑백 영상으로 변환하고 학습패턴을 적용하여 오이의 과병 부분(30 X 30픽셀)을 인식하고자 하였다. 픽셀크기는 Fig.
실제 영상에서 오이의 형상정보를 인식하기 위하여오이과병을 판정할 수 있는 알고리즘을 개발하였다. 실제 영상에서 오이의 형상인식은 Fig.
이는 학습패턴의 수가 많을수록 수렴할 때, 다른 출력패턴으로 많이 검출되었다. 오이의 특징형상 검출은 30x30간격으로 자동검출 되도록 처리하였다..
S 조건을 이용하여 학습패턴과 다른 패턴을 제거하고, H - S 조건에서 오검출된 출력패턴은 H 조건으로 다시 제거하고 H . 와 H 조건에 모두 만족한 출력패턴은 특징 형상으로 인식하고, 하나라도 만족하지 않은 출력패턴은 제거된 개발한 알고리즘을 가지고 오이의 형상을 구체적으로 인식하기 위해 지식기반을 통한 형상검출의 컴퓨터 프로그램을 개발하였다. 이 프로그램은 Microsoft사의 Visual C++ 프로그래밍을 이용하여 구현하였다.
16(c)의 이미지는 연상메모리에 의해서 검출된 학습패턴에 대한 출력패턴을 나타낸 것이다. 이러한 알고리즘에 의해 검출되는 출력패턴들은 30 X 30 간격으로 오이인식을 자동검줄 하였다.
자동검출 처리는 오이의 학습패턴과 유사한 출력패턴을 인식하여 오이의 형상 및 위치를 판정하였다.
대상 데이터
사용된 영상처리 시스템은 영상신호입력부, 영상처리부, 컴퓨터 및 영상출력부로 구성된다. 컬러 CCD 카메라로부터 입력된 영상신호는 NTSC(RS-170) 형태의 아날로그 신호로 변환되어 컴퓨터에 저장된다.
실험에 사용된 오이영상은 2007년 5~6월 사이에 재배된 영상을 이용하였다. 대부분의 영상은 Fig.
입력 센서부에 해당하는 영상 입력장치로는 일본 Ikegami사에서 판매하는 ICD-703 모델로 4.8mm 렌즈를 부착한 컬러 CCD 카메라 2대를 사용하였다 본 연구에서 사용된 카메라의 제원은 Table 1과 같다. Fig.
데이터처리
와 H 조건에 모두 만족한 출력패턴은 특징 형상으로 인식하고, 하나라도 만족하지 않은 출력패턴은 제거된 개발한 알고리즘을 가지고 오이의 형상을 구체적으로 인식하기 위해 지식기반을 통한 형상검출의 컴퓨터 프로그램을 개발하였다. 이 프로그램은 Microsoft사의 Visual C++ 프로그래밍을 이용하여 구현하였다.
이론/모형
수행하였다. 다양한 오이형상을 인식하기 위한 방법으로는 신경회로망의 연상 메모리 알고리즘을 이용하여 오이의 특징 형상을 인식하였다. 형상인식은 실제영상에서 오이의 형상과 위치를 판정할 수 있도록 알고리즘을 개발한 결과, 다음과 같은 결론을 얻었다.
본 연구에서는 온실에서 재배되고 있는 오이를 검출하기 위하여 신경회로망 모델 중 구현이 간단하고 분류능력이 좋은 연상메모리 모델 중에서 동질연상 메모리를 이용하였다(Susan와 Young, 1998). 연상 메모리는 패턴의 일부분이 주어지고 전체 패턴의 모습을 알고자 할 때 사용할 수 있다.
4는 선형연상기의 구조를 간단히 도식화한 그림이다. 패턴간의 연관성을 기억시키기 위한 학습단계는 순방향 신경망(Feed-forward network) 연상메모리방식을 이용하였다. 여기서, 입력벡터 P와 연결강도 W의 관계에 얻은 출력벡터를 a라 하였고, 그 결과식은 아래와 같이 얻을 수 있다.
성능/효과
16(d)에서, 사각형은 Visual c++의 Rectangle함수를 이용하여 검줄 조건에 만족하지 않은 출력패턴을 사각형으로 처리하였다. 따라서 인식된 패턴은 학습패턴과 유사한 출력패턴으로서, 오이의 특징형상을 판정할 수 있으며, 인식된 특징 형상의 좌표를 통해서, 오이의 과병 위치를 추정할 수 있었다. 또한 Fig.
따라서, 인식 알고리즘을 실제 영상에 적용하면 오이 형상 검출은 학습패턴과 유사한 출력패턴이 되어 학습패턴에 대한 출력패턴을 정확히 인식하였다.
실제영상에서 자동 검출로 처리한 결과, 오이인식의 처리시간은 약 05시초/1개(패턴) 빠르게 검출되었다. 또한, 다섯 개의 실제 영상에서 실험한 결과, 학습패턴에 대한 다른 출력패턴은 96~99%의 제거율을 나타내었다. 오이로 인식된 출력패턴 중에서, 오검출된 출력패턴의 비율은 0.
형상인식은 실제영상에서 오이의 형상과 위치를 판정할 수 있도록 알고리즘을 개발한 결과, 다음과 같은 결론을 얻었다. 본 알고리즘에서는 일정한 학습패턴의 수를 2개, 3개, 4개를 각각 기억 시켜 샘플패턴 20개를 실험하여 연상시킨 결과, 학습패턴으로 복원된 출력패턴의 비율은 각각 65.0%, 45.0%, 12.5%로 나타났다. 이는 학습패턴의 수가 많을수록 수렴할 때, 다른 출력패턴으로 많이 검출되었다.
. 실제영상에서 자동 검출로 처리한 결과, 오이인식의 처리시간은 약 05시초/1개(패턴) 빠르게 검출되었다. 또한, 다섯 개의 실제 영상에서 실험한 결과, 학습패턴에 대한 다른 출력패턴은 96~99%의 제거율을 나타내었다.
16(d>의 출력패턴 중 과병형상에 인식된 출력패턴의 좌표는 (192, 255)서 검출되어, 오이에 대한 위치정보를 측정할 수 있었다. 하지만 2개의 특징형상이 오검출되어 학습패턴으로 인식됨으로서, 실제영상에서 오이의 위치측정은 가능하나 정확한 위치정보는 오차를 포함하고 있음을 알 수 있었다.
참고문헌 (9)
Gopalasamy Athithan; Chandan Dasgupta. 1997. On the Problem of Spurious Patterns in Neural Associative Memory Models. IEEE Trans. Neural Network 8(6): 1483-1491.
Naoshi Kondo, Nishitsuji Y., and K.C. Ting. 1996. Visual Feedback guided tomato harvesting. Trans. of the ASAE 39(6):2331-2338.
Ollis, M. and A. Stenz. 1997. Vision-based Perception for an Automated Harvester. In Proceeding of the International Conference on Robotic System 1838-1844.
Paul B. Watta and Kaining Wang. 1997. Recurrent Neural Nets as Dynamical Boolean Systems with Application to Associative Memory. IEEE Trans. Neural Network 8(6):1268-1280.
Shimizu, H. and R.D. Heins. 1995. Computer vision based system for plant growth analysis Trans. of the ASAE 38(3):959-964.
Steve Lawrence. 1997. Face Recognition: A Convolutional Neural Network Approach. IEEE Trans. Neural Network 8(1):98-113.
Susan. S; Young. 1998. Foveal automatic target recognition using a multiresolution neural network. IEEE Trans. on Image Processing 7(8):1122-1135.
Telatar, Z., M.H. Sazli, and I. Muhammad. 2007. Neural network based face detection from pre-scanned and row-column decomposed average face image. Springer-Verlag 4678:297-309.
Todd Law and Hidenori loth. 1996. Image filtering, edge detection and edge tracing using fuzzy reasoning. IEEE Trans. on Pattern Analysis and Machine Intelligence 18(5):481-491.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.