인식(Recognition)은 컴퓨터 비전의 핵심 목표이다. 컴퓨터 비전 인식 방법론이나 인식 시스템을 객관적으로 비교하기 위한 표준 알고리즘과 인식의 성능 측정 알고리즘이 많이 공개되어 있다. 인식은 대상에 따라 사례 인식(Instance Recognition)과 범주 인식(Category Recognition)으로 나눈다. 사례 인식은 특정한 물체를 인식하는 것이다. 과거의 인식 알고리즘은 단순한 물체의 모양으로 인식하려던 실제 환경에서 조명 변화나 기하 변환 등이 종종 문제가 대두되고 있다. 이런 문제를 해결하기 위해서는 실용성을 향상시키기 위한 ...
인식(Recognition)은 컴퓨터 비전의 핵심 목표이다. 컴퓨터 비전 인식 방법론이나 인식 시스템을 객관적으로 비교하기 위한 표준 알고리즘과 인식의 성능 측정 알고리즘이 많이 공개되어 있다. 인식은 대상에 따라 사례 인식(Instance Recognition)과 범주 인식(Category Recognition)으로 나눈다. 사례 인식은 특정한 물체를 인식하는 것이다. 과거의 인식 알고리즘은 단순한 물체의 모양으로 인식하려던 실제 환경에서 조명 변화나 기하 변환 등이 종종 문제가 대두되고 있다. 이런 문제를 해결하기 위해서는 실용성을 향상시키기 위한 영상 처리 알고리즘 개발이 필요하게 된다. 사례 인식은 부류 모델링이 쉬운 반면, 범주 인식은 해당 범주에 속하는 물체가 다양하므로 부류를 모델링 하기가 어렵다. 범주 인식의 문제는 부류 내 변화(intra-class variation)문제가 있는 데, 이 문제를 해결하기 위해서는 컴퓨터 비전 알고리즘뿐만 아니라 패턴인식, 기계학습 등의 기술이 필요하게 된다. 기존 사례 인식이나 범주 인식 개발자는 알고리즘에서 특징 추출 단계와 매칭 단계의 과정을 통하여 인식을 진행한다. 특징 추출단계는 에지 검출(LOG, Canny, edge segment), 지역 특징 검출(SSD, WSSD, SIFT, SURF), 특징 기술(SIFT, PCA-SIFT) 등과 같은 특징 추출 알고리즘을 이용한다. 매칭 단계는 이웃 탐색(kd tree, KNN, hashing), 변환 추정(M-estimator, RANSAC) 등 알고리즘과 특징을 이용하여 물체를 인식한 방식이다. SIFT/SURF 등과 같은 특징 추출 알고리즘은 이동, 회전에 불변이므로, 이미지 인식 방식 중에서 널리 사용되고 있다. 그리고, 최근에는 특칭 추출 알고리즘의 장점과 매칭의 신뢰도가 높은 장점을 활용한 이미지 딥(deep) 학습 기술 방법인 이미지 딥 러닝(image deep learning)의 합성곱 신경망(Convolutional Neural Network, CNN)기술이 주목을 받고 있다. 본 논문에서는 기존 이미지 인식 시스템의 인식 프로세스에 대한 단점인 프로세스에서 특징 추출과 매치가 서로 독립으로 처리하는 단순한 방식을 탈피하고, 합성곱 신경망 기술을 활용하여 특징 추출과 매치가 통합된 이미지 처리 시스템을 설계 및 구현하였다. 이를 위해 기존 이미지 인식 시스템을 합성곱 신경망으로 운용 및 성능 분석이 가능하도록 하였으며, 이미지에 대한 특징 추출과 매칭 프로세스를 자동적으로 처리하여 시스템이 이루어질 수 있도록 설계 및 구현하였다. 또한 제안된 시스템을 통해 테스트 이미지에 대해 학습한 모델을 이용하여 작은 개발 주기에 이미지 처리 프로그램 및 어플리케이션 기반의 기능을 구현할 수 있다. 이 시스템은 합성곱 계층을 이용하여 이미지의 특성을 추출한 후, 신경망으로 학습한다. 제안된 시스템의 시뮬레이션 결과는 84%이상의 정확한 분류 결과를 보여주었다. 딥 러닝을 이용하여 학습 모델로 언제 어디서든 모델 파일을 읽을 수 있는 플랫폼들(임베디드 포함)의 구축 환경에서 동작된다. 그리고 특징 추출 알고리즘과 매칭 알고리즘들의 개발시간 절약 및 효율성을 제공하여 본 연구에서 제안한 합성곱 신경망 기반 이미지 처리 시스템은 널리 활용 될 수 있을 것으로 판단된다.
인식(Recognition)은 컴퓨터 비전의 핵심 목표이다. 컴퓨터 비전 인식 방법론이나 인식 시스템을 객관적으로 비교하기 위한 표준 알고리즘과 인식의 성능 측정 알고리즘이 많이 공개되어 있다. 인식은 대상에 따라 사례 인식(Instance Recognition)과 범주 인식(Category Recognition)으로 나눈다. 사례 인식은 특정한 물체를 인식하는 것이다. 과거의 인식 알고리즘은 단순한 물체의 모양으로 인식하려던 실제 환경에서 조명 변화나 기하 변환 등이 종종 문제가 대두되고 있다. 이런 문제를 해결하기 위해서는 실용성을 향상시키기 위한 영상 처리 알고리즘 개발이 필요하게 된다. 사례 인식은 부류 모델링이 쉬운 반면, 범주 인식은 해당 범주에 속하는 물체가 다양하므로 부류를 모델링 하기가 어렵다. 범주 인식의 문제는 부류 내 변화(intra-class variation)문제가 있는 데, 이 문제를 해결하기 위해서는 컴퓨터 비전 알고리즘뿐만 아니라 패턴인식, 기계학습 등의 기술이 필요하게 된다. 기존 사례 인식이나 범주 인식 개발자는 알고리즘에서 특징 추출 단계와 매칭 단계의 과정을 통하여 인식을 진행한다. 특징 추출단계는 에지 검출(LOG, Canny, edge segment), 지역 특징 검출(SSD, WSSD, SIFT, SURF), 특징 기술(SIFT, PCA-SIFT) 등과 같은 특징 추출 알고리즘을 이용한다. 매칭 단계는 이웃 탐색(kd tree, KNN, hashing), 변환 추정(M-estimator, RANSAC) 등 알고리즘과 특징을 이용하여 물체를 인식한 방식이다. SIFT/SURF 등과 같은 특징 추출 알고리즘은 이동, 회전에 불변이므로, 이미지 인식 방식 중에서 널리 사용되고 있다. 그리고, 최근에는 특칭 추출 알고리즘의 장점과 매칭의 신뢰도가 높은 장점을 활용한 이미지 딥(deep) 학습 기술 방법인 이미지 딥 러닝(image deep learning)의 합성곱 신경망(Convolutional Neural Network, CNN)기술이 주목을 받고 있다. 본 논문에서는 기존 이미지 인식 시스템의 인식 프로세스에 대한 단점인 프로세스에서 특징 추출과 매치가 서로 독립으로 처리하는 단순한 방식을 탈피하고, 합성곱 신경망 기술을 활용하여 특징 추출과 매치가 통합된 이미지 처리 시스템을 설계 및 구현하였다. 이를 위해 기존 이미지 인식 시스템을 합성곱 신경망으로 운용 및 성능 분석이 가능하도록 하였으며, 이미지에 대한 특징 추출과 매칭 프로세스를 자동적으로 처리하여 시스템이 이루어질 수 있도록 설계 및 구현하였다. 또한 제안된 시스템을 통해 테스트 이미지에 대해 학습한 모델을 이용하여 작은 개발 주기에 이미지 처리 프로그램 및 어플리케이션 기반의 기능을 구현할 수 있다. 이 시스템은 합성곱 계층을 이용하여 이미지의 특성을 추출한 후, 신경망으로 학습한다. 제안된 시스템의 시뮬레이션 결과는 84%이상의 정확한 분류 결과를 보여주었다. 딥 러닝을 이용하여 학습 모델로 언제 어디서든 모델 파일을 읽을 수 있는 플랫폼들(임베디드 포함)의 구축 환경에서 동작된다. 그리고 특징 추출 알고리즘과 매칭 알고리즘들의 개발시간 절약 및 효율성을 제공하여 본 연구에서 제안한 합성곱 신경망 기반 이미지 처리 시스템은 널리 활용 될 수 있을 것으로 판단된다.
Recognition is the main goal of computer vision. There are many standard algorithms and performance measuring algorithms to compare computer vision recognition methods or recognition systems objectively. Recognition is divided into ‘instance recognition’ and ‘category recognition’ by a target to rec...
Recognition is the main goal of computer vision. There are many standard algorithms and performance measuring algorithms to compare computer vision recognition methods or recognition systems objectively. Recognition is divided into ‘instance recognition’ and ‘category recognition’ by a target to recognize. Instance recognition is to recognize a specific object. Recognition algorithms in the past often focused on changes in illumination or geometric transformations in a real environment where an object is recognized. To advance beyond this, however, it was necessary to develop an image processing algorithm for the increased practicality of recognition. While instance recognition is easy to model classification of objects, category recognition has a difficulty modeling the classification of objects because of the diversity of objects. The problem of category recognition is called ‘intra-class variation’. To remedy this problem, it requires such technology as pattern recognition and machine learning as well as computer vision algorithm. The developers of instance category or category recognition used to design and develop algorithms for feature extraction and matching stages. Feature extraction stages need feature extraction algorithms such as edge detection (LOG, Canny, edge segment), local feature detection (SSD, WSSD, SIFT, SURF), and feature description (SIFT, PCA-SIFT). Matching stage is to recognize an object, using such algorithm as neighbor search (kd tree, KNN, hashing) and transformation estimation (RANSAC). Because feature extraction algorithms such as SIFT/SURF have immutable strengths (immutable movement and rotation), they are widely used for image recognition. And recently, a keen attention is paid to Convolutional Neural Network (CNN) technology of an image deep learning, which uses the immutable strengths and high matching reliability of feature extraction algorithm. This paper designed and developed the image processing system of integrating feature extraction and matching by using CNN, rather than relying on the simple method of processing feature extraction and matching separately in the image processing of conventional image recognition system. To realize it, the proposed system enables CNN to operate and analyze the performance of conventional image processing system. It was also designed and realized to automatically integrate feature extraction and matching process. This system extracts the features of an image using CNN and then learns by the neural network. When a simulation was run on the proposed system, it showed 84% accuracy of recognition. The proposed system is a model of recognizing learned images by deep learning. Therefore, it can run in batch and work easily under any platform (including embedded platform) that can read all kinds of files anytime. And it does not require the time to develop feature extraction algorithm and matching algorithm, so it can save time and is very efficient. As a result, it can be widely used an embedded-based image recognition program.
Recognition is the main goal of computer vision. There are many standard algorithms and performance measuring algorithms to compare computer vision recognition methods or recognition systems objectively. Recognition is divided into ‘instance recognition’ and ‘category recognition’ by a target to recognize. Instance recognition is to recognize a specific object. Recognition algorithms in the past often focused on changes in illumination or geometric transformations in a real environment where an object is recognized. To advance beyond this, however, it was necessary to develop an image processing algorithm for the increased practicality of recognition. While instance recognition is easy to model classification of objects, category recognition has a difficulty modeling the classification of objects because of the diversity of objects. The problem of category recognition is called ‘intra-class variation’. To remedy this problem, it requires such technology as pattern recognition and machine learning as well as computer vision algorithm. The developers of instance category or category recognition used to design and develop algorithms for feature extraction and matching stages. Feature extraction stages need feature extraction algorithms such as edge detection (LOG, Canny, edge segment), local feature detection (SSD, WSSD, SIFT, SURF), and feature description (SIFT, PCA-SIFT). Matching stage is to recognize an object, using such algorithm as neighbor search (kd tree, KNN, hashing) and transformation estimation (RANSAC). Because feature extraction algorithms such as SIFT/SURF have immutable strengths (immutable movement and rotation), they are widely used for image recognition. And recently, a keen attention is paid to Convolutional Neural Network (CNN) technology of an image deep learning, which uses the immutable strengths and high matching reliability of feature extraction algorithm. This paper designed and developed the image processing system of integrating feature extraction and matching by using CNN, rather than relying on the simple method of processing feature extraction and matching separately in the image processing of conventional image recognition system. To realize it, the proposed system enables CNN to operate and analyze the performance of conventional image processing system. It was also designed and realized to automatically integrate feature extraction and matching process. This system extracts the features of an image using CNN and then learns by the neural network. When a simulation was run on the proposed system, it showed 84% accuracy of recognition. The proposed system is a model of recognizing learned images by deep learning. Therefore, it can run in batch and work easily under any platform (including embedded platform) that can read all kinds of files anytime. And it does not require the time to develop feature extraction algorithm and matching algorithm, so it can save time and is very efficient. As a result, it can be widely used an embedded-based image recognition program.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.