CNN딥러닝기반 차량번호판 인식을 위한 효과적인 학습 환경 분석에 관한 연구 Study on the analysis of effective learning environment for vehicle license plate recognition based on CNN deep learning원문보기
생활수준의 향상으로 전세계적으로 자동차수 또한 매우 급증하게 되었으며, 영상처리방식으로 의존하던 자동차 인식방식의 한계점과 부분적인 인식오류의 개선된 시스템이 꾸준히 요구되어 왔다. 그래서 본 연구에서는 인공지능 학습방법의 하나인 CNN딥러닝 알고리즘을 이용하여, 인식의 문제가 되었던 자동차 번호판의 부분적인 오염이나 훼손에 의해 불명확해진 문자(숫자와 한글)에 대한 인식시스템을 구현하였다. 또한 구현된 본 시스템을 통해 다양한 형태의 학습환경을 조성하여 미리 준비한 훈련용 숫자와 한글문자를 이용하여 학습훈련을 시켰으며, 이를 통한 실제 테스트를 적용하여 실험결과를 분석하였으며, 학습환경에 따라 서로 다른 인식률의 차이를 확인하였다. 그래서 이에 따른 적정한 훈련데이터와 훈련횟수를 제시함으로써 효율적인 인식률을 가져올 수 있었다. 또한 본 연구를 위해서 몇 가지의 제약조건을 두고 연구 및 실험을 진행하였으며, 먼저 본 연구의 활용 영역은 아파트 및 기타 자동차가 등록되어 관리 되어지는 구역으로 한정하였으며, 연구대상은 정상적인 문자가 아닌 일부 훼손되고 오염에 의해 불명확한 문자로 한정하였으며, 본 실험에서 사용되어지는 훈련데이터와 실제데이터의 모양(훼손 정도)과 개수 그리고 훈련 횟수는 본 실험을 위해 임의로 정해 사용하였다. 다음과 같은 제한적 학습환경을 조성하여 실험하고 결과를 분석하였다. (1) 훈련 데이터 : 120개를 준비하여, 80개에서 120개까지 10개씩 증가시키면서 훈련을 시도하였다. (2) 훈련 횟수 : 각각의 훈련데이터에 5, 10, 15, 20회씩 각각 적용하여 훈련을 시도하였다. (3) 실제 데이터 : 임의로 훼손된 숫자문자(0~9) 및 한글문자(7개의 임의의 선정)에 대해서 각각 30개를 준비하여 실험하였다. (4) 주어진 학습 환경에서 효율적인 인식률을 찾기 위한 실험 및 분석을 시도한다. (효율적인 인식률 : 가능한 적은 훈련데이터와 훈련횟수를 적용한 최고의 인식률) 본 실험에서는 훈련데이터의 개수, 훈련횟수, 실제 적용된 샘플데이터의 개수와 훼손 정도를 임의로 정하여 제한적 실험환경에서 실시하였다. 따라서 적용된 실제데이터의 경우 훼손 정도에 따라 약간의 차이가 있었다. 또한 각 문자마다 인식률의 차이가 있었으며, 특히, 숫자와 문자간의 초기 5회의 실험과정에서 인식률의 차이가 많았음을 확인하였다. 비교적 복잡한 한글 문자보다는 단순한 숫자문자의 인식률이 좋았음을 과정상에서 확인하였다. 하지만 20회의 훈련에서는 거의 같은 100%의 인식률이 있음을 확인하였다. 그리고 훈련데이터의 개수에 따른 분석에서는 숫자문자의 경우는 90개에서, 한글문자의 경우는 80개에서 최고(100%)의 인식률을 얻어서 더 이상의 데이터개수와 훈련횟수를 두고 훈련하는 것은 무의미 함을 찾아내었다. 그리고 딥러닝의 최적의 효율을 가져오기 위한 학습훈련에 있어서 ...
생활수준의 향상으로 전세계적으로 자동차수 또한 매우 급증하게 되었으며, 영상처리방식으로 의존하던 자동차 인식방식의 한계점과 부분적인 인식오류의 개선된 시스템이 꾸준히 요구되어 왔다. 그래서 본 연구에서는 인공지능 학습방법의 하나인 CNN딥러닝 알고리즘을 이용하여, 인식의 문제가 되었던 자동차 번호판의 부분적인 오염이나 훼손에 의해 불명확해진 문자(숫자와 한글)에 대한 인식시스템을 구현하였다. 또한 구현된 본 시스템을 통해 다양한 형태의 학습환경을 조성하여 미리 준비한 훈련용 숫자와 한글문자를 이용하여 학습훈련을 시켰으며, 이를 통한 실제 테스트를 적용하여 실험결과를 분석하였으며, 학습환경에 따라 서로 다른 인식률의 차이를 확인하였다. 그래서 이에 따른 적정한 훈련데이터와 훈련횟수를 제시함으로써 효율적인 인식률을 가져올 수 있었다. 또한 본 연구를 위해서 몇 가지의 제약조건을 두고 연구 및 실험을 진행하였으며, 먼저 본 연구의 활용 영역은 아파트 및 기타 자동차가 등록되어 관리 되어지는 구역으로 한정하였으며, 연구대상은 정상적인 문자가 아닌 일부 훼손되고 오염에 의해 불명확한 문자로 한정하였으며, 본 실험에서 사용되어지는 훈련데이터와 실제데이터의 모양(훼손 정도)과 개수 그리고 훈련 횟수는 본 실험을 위해 임의로 정해 사용하였다. 다음과 같은 제한적 학습환경을 조성하여 실험하고 결과를 분석하였다. (1) 훈련 데이터 : 120개를 준비하여, 80개에서 120개까지 10개씩 증가시키면서 훈련을 시도하였다. (2) 훈련 횟수 : 각각의 훈련데이터에 5, 10, 15, 20회씩 각각 적용하여 훈련을 시도하였다. (3) 실제 데이터 : 임의로 훼손된 숫자문자(0~9) 및 한글문자(7개의 임의의 선정)에 대해서 각각 30개를 준비하여 실험하였다. (4) 주어진 학습 환경에서 효율적인 인식률을 찾기 위한 실험 및 분석을 시도한다. (효율적인 인식률 : 가능한 적은 훈련데이터와 훈련횟수를 적용한 최고의 인식률) 본 실험에서는 훈련데이터의 개수, 훈련횟수, 실제 적용된 샘플데이터의 개수와 훼손 정도를 임의로 정하여 제한적 실험환경에서 실시하였다. 따라서 적용된 실제데이터의 경우 훼손 정도에 따라 약간의 차이가 있었다. 또한 각 문자마다 인식률의 차이가 있었으며, 특히, 숫자와 문자간의 초기 5회의 실험과정에서 인식률의 차이가 많았음을 확인하였다. 비교적 복잡한 한글 문자보다는 단순한 숫자문자의 인식률이 좋았음을 과정상에서 확인하였다. 하지만 20회의 훈련에서는 거의 같은 100%의 인식률이 있음을 확인하였다. 그리고 훈련데이터의 개수에 따른 분석에서는 숫자문자의 경우는 90개에서, 한글문자의 경우는 80개에서 최고(100%)의 인식률을 얻어서 더 이상의 데이터개수와 훈련횟수를 두고 훈련하는 것은 무의미 함을 찾아내었다. 그리고 딥러닝의 최적의 효율을 가져오기 위한 학습훈련에 있어서 과적합의 문제가 아주 중요한 문제라고 다시 한번 인식하게 되었으며, 향후에도 이 부분을 지속적으로 연구할 계획이다.
생활수준의 향상으로 전세계적으로 자동차수 또한 매우 급증하게 되었으며, 영상처리방식으로 의존하던 자동차 인식방식의 한계점과 부분적인 인식오류의 개선된 시스템이 꾸준히 요구되어 왔다. 그래서 본 연구에서는 인공지능 학습방법의 하나인 CNN딥러닝 알고리즘을 이용하여, 인식의 문제가 되었던 자동차 번호판의 부분적인 오염이나 훼손에 의해 불명확해진 문자(숫자와 한글)에 대한 인식시스템을 구현하였다. 또한 구현된 본 시스템을 통해 다양한 형태의 학습환경을 조성하여 미리 준비한 훈련용 숫자와 한글문자를 이용하여 학습훈련을 시켰으며, 이를 통한 실제 테스트를 적용하여 실험결과를 분석하였으며, 학습환경에 따라 서로 다른 인식률의 차이를 확인하였다. 그래서 이에 따른 적정한 훈련데이터와 훈련횟수를 제시함으로써 효율적인 인식률을 가져올 수 있었다. 또한 본 연구를 위해서 몇 가지의 제약조건을 두고 연구 및 실험을 진행하였으며, 먼저 본 연구의 활용 영역은 아파트 및 기타 자동차가 등록되어 관리 되어지는 구역으로 한정하였으며, 연구대상은 정상적인 문자가 아닌 일부 훼손되고 오염에 의해 불명확한 문자로 한정하였으며, 본 실험에서 사용되어지는 훈련데이터와 실제데이터의 모양(훼손 정도)과 개수 그리고 훈련 횟수는 본 실험을 위해 임의로 정해 사용하였다. 다음과 같은 제한적 학습환경을 조성하여 실험하고 결과를 분석하였다. (1) 훈련 데이터 : 120개를 준비하여, 80개에서 120개까지 10개씩 증가시키면서 훈련을 시도하였다. (2) 훈련 횟수 : 각각의 훈련데이터에 5, 10, 15, 20회씩 각각 적용하여 훈련을 시도하였다. (3) 실제 데이터 : 임의로 훼손된 숫자문자(0~9) 및 한글문자(7개의 임의의 선정)에 대해서 각각 30개를 준비하여 실험하였다. (4) 주어진 학습 환경에서 효율적인 인식률을 찾기 위한 실험 및 분석을 시도한다. (효율적인 인식률 : 가능한 적은 훈련데이터와 훈련횟수를 적용한 최고의 인식률) 본 실험에서는 훈련데이터의 개수, 훈련횟수, 실제 적용된 샘플데이터의 개수와 훼손 정도를 임의로 정하여 제한적 실험환경에서 실시하였다. 따라서 적용된 실제데이터의 경우 훼손 정도에 따라 약간의 차이가 있었다. 또한 각 문자마다 인식률의 차이가 있었으며, 특히, 숫자와 문자간의 초기 5회의 실험과정에서 인식률의 차이가 많았음을 확인하였다. 비교적 복잡한 한글 문자보다는 단순한 숫자문자의 인식률이 좋았음을 과정상에서 확인하였다. 하지만 20회의 훈련에서는 거의 같은 100%의 인식률이 있음을 확인하였다. 그리고 훈련데이터의 개수에 따른 분석에서는 숫자문자의 경우는 90개에서, 한글문자의 경우는 80개에서 최고(100%)의 인식률을 얻어서 더 이상의 데이터개수와 훈련횟수를 두고 훈련하는 것은 무의미 함을 찾아내었다. 그리고 딥러닝의 최적의 효율을 가져오기 위한 학습훈련에 있어서 과적합의 문제가 아주 중요한 문제라고 다시 한번 인식하게 되었으며, 향후에도 이 부분을 지속적으로 연구할 계획이다.
With the improvement of living standards, the number of automobiles around the world has also increased very rapidly, and an improved system for partial recognition errors and limitations of the automobile recognition method that was dependent on the image processing method has been steadily require...
With the improvement of living standards, the number of automobiles around the world has also increased very rapidly, and an improved system for partial recognition errors and limitations of the automobile recognition method that was dependent on the image processing method has been steadily required. So, in this study, using the CNN deep learning algorithm, which is one of the artificial intelligence learning methods, we implemented a recognition system for characters (numbers and Korean characters) that were unclear due to partial contamination or damage of the license plate, which was a problem of recognition. In addition, through this implemented system, various types of learning environments were created, and learning and training was conducted using pre-prepared training numbers and Korean characters, and actual tests were applied to analyze the experimental results. Different recognition rates were identified. Therefore, it was possible to bring an efficient recognition rate by presenting appropriate training data and training frequency. The following limited learning environment was created, experimented, and the results were analyzed. (1) Training data: 120 were prepared, and training was attempted by increasing 10 from 80 to 120. (2) Number of training: 5, 10, 15, 20 times were applied to each training data and training was attempted. (3) Real data: 30 randomly damaged numeric characters (0~9) and Korean characters (7 randomly selected) were prepared and tested. (4) Experiment and analysis are attempted to find an effective recognition rate in a given learning environment. (Efficient recognition rate: the best recognition rate by applying as few training data and training frequency as possible) In this experiment, the number of training data, the number of trainings, the number of actually applied sample data and the degree of damage were arbitrarily determined and conducted in a limited experimental environment. Therefore, in the case of applied actual data, there was a slight difference depending on the degree of damage. In addition, there was a difference in recognition rate for each character, and in particular, it was confirmed that there was a large difference in recognition rate in the initial five experiments between numbers and letters. In the process, it was confirmed that the recognition rate of simple numeric characters was better than the relatively complex Korean characters. However, it was confirmed that there was an almost the same 100% recognition rate in the 20 training sessions. And in the analysis according to the number of training data, it is meaningless to train based on the number of more data and training frequency by obtaining the highest (100%) recognition rate from 90 for numeric characters and 80 for Korean characters. I found it. In addition, it was recognized once again that the problem of overfitting is a very important problem in learning training to bring the optimal efficiency of deep learning, and we plan to continue to study this part in the future.
With the improvement of living standards, the number of automobiles around the world has also increased very rapidly, and an improved system for partial recognition errors and limitations of the automobile recognition method that was dependent on the image processing method has been steadily required. So, in this study, using the CNN deep learning algorithm, which is one of the artificial intelligence learning methods, we implemented a recognition system for characters (numbers and Korean characters) that were unclear due to partial contamination or damage of the license plate, which was a problem of recognition. In addition, through this implemented system, various types of learning environments were created, and learning and training was conducted using pre-prepared training numbers and Korean characters, and actual tests were applied to analyze the experimental results. Different recognition rates were identified. Therefore, it was possible to bring an efficient recognition rate by presenting appropriate training data and training frequency. The following limited learning environment was created, experimented, and the results were analyzed. (1) Training data: 120 were prepared, and training was attempted by increasing 10 from 80 to 120. (2) Number of training: 5, 10, 15, 20 times were applied to each training data and training was attempted. (3) Real data: 30 randomly damaged numeric characters (0~9) and Korean characters (7 randomly selected) were prepared and tested. (4) Experiment and analysis are attempted to find an effective recognition rate in a given learning environment. (Efficient recognition rate: the best recognition rate by applying as few training data and training frequency as possible) In this experiment, the number of training data, the number of trainings, the number of actually applied sample data and the degree of damage were arbitrarily determined and conducted in a limited experimental environment. Therefore, in the case of applied actual data, there was a slight difference depending on the degree of damage. In addition, there was a difference in recognition rate for each character, and in particular, it was confirmed that there was a large difference in recognition rate in the initial five experiments between numbers and letters. In the process, it was confirmed that the recognition rate of simple numeric characters was better than the relatively complex Korean characters. However, it was confirmed that there was an almost the same 100% recognition rate in the 20 training sessions. And in the analysis according to the number of training data, it is meaningless to train based on the number of more data and training frequency by obtaining the highest (100%) recognition rate from 90 for numeric characters and 80 for Korean characters. I found it. In addition, it was recognized once again that the problem of overfitting is a very important problem in learning training to bring the optimal efficiency of deep learning, and we plan to continue to study this part in the future.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.