자동차 번호판 검출 자동화(ALPD: Automatic License Plate Detection) 시스템은 효율적인 교통 관제를 위한 핵심 기술이며, 통행료 지불 시스템, 주차장 및 교통 관리와 같은 많은 응용에 사용되어 업무의 효율을 높이고 있다. 최근까지의 ALPD에 관한 연구에서는 주로 영상처리를 위해 설계된 기존의 특징들을 추출하여 번호판 검출에 사용해왔다. 이러한 종래의 방법은 속도에 이점은 있으나, 다양한 환경 변화에 따른 성능 저하를 보였다. 본 논문에서는 전반적인 성능을 향상시키기 위하여 Faster R-CNN과 CNN으로 구성되는 두 단 구조를 활용하는 방법을 제안한다. 이를 통해 동작 속도를 향상시키고, 다양한 환경변화에 강인하도록 구성하였다. 첫 번째 단계에서는 Faster R-CNN을 적용하여 번호판 영역 후보영역들을 선별하며, 두 번째 단에서 CNN을 활용하여 후보영역들 중에서 False Positives를 제거함으로써 검출률을 향상시켰다. 이를 통해 ZFNet을 기반으로 하여 99.94%의 검출률을 달성하였다. 또한 평균 운용시간은 80ms/image로써 빠르고 강인한 실시간 번호판 검출 시스템을 구현할 수 있었다.
자동차 번호판 검출 자동화(ALPD: Automatic License Plate Detection) 시스템은 효율적인 교통 관제를 위한 핵심 기술이며, 통행료 지불 시스템, 주차장 및 교통 관리와 같은 많은 응용에 사용되어 업무의 효율을 높이고 있다. 최근까지의 ALPD에 관한 연구에서는 주로 영상처리를 위해 설계된 기존의 특징들을 추출하여 번호판 검출에 사용해왔다. 이러한 종래의 방법은 속도에 이점은 있으나, 다양한 환경 변화에 따른 성능 저하를 보였다. 본 논문에서는 전반적인 성능을 향상시키기 위하여 Faster R-CNN과 CNN으로 구성되는 두 단 구조를 활용하는 방법을 제안한다. 이를 통해 동작 속도를 향상시키고, 다양한 환경변화에 강인하도록 구성하였다. 첫 번째 단계에서는 Faster R-CNN을 적용하여 번호판 영역 후보영역들을 선별하며, 두 번째 단에서 CNN을 활용하여 후보영역들 중에서 False Positives를 제거함으로써 검출률을 향상시켰다. 이를 통해 ZFNet을 기반으로 하여 99.94%의 검출률을 달성하였다. 또한 평균 운용시간은 80ms/image로써 빠르고 강인한 실시간 번호판 검출 시스템을 구현할 수 있었다.
Automatic License Plate Detection (ALPD) is a key technology for a efficient traffic control. It is used to improve work efficiency in many applications such as toll payment systems and parking and traffic management. Until recently, the hand-crafted features made for image processing are used to de...
Automatic License Plate Detection (ALPD) is a key technology for a efficient traffic control. It is used to improve work efficiency in many applications such as toll payment systems and parking and traffic management. Until recently, the hand-crafted features made for image processing are used to detect license plates in most studies. It has the advantage in speed. but can degrade the detection rate with respect to various environmental changes. In this paper, we propose a way to utilize a Faster Region based Convolutional Neural Networks (Faster R-CNN) and a Conventional Convolutional Neural Networks (CNN), which improves the computational speed and is robust against changed environments. The module based on Faster R-CNN is used to detect license plate candidate regions from images and is followed by the module based on CNN to remove False Positives from the candidates. As a result, we achieved a detection rate of 99.94% from images captured under various environments. In addition, the average operating speed is 80ms/image. We implemented a fast and robust Real-Time License Plate Detection System.
Automatic License Plate Detection (ALPD) is a key technology for a efficient traffic control. It is used to improve work efficiency in many applications such as toll payment systems and parking and traffic management. Until recently, the hand-crafted features made for image processing are used to detect license plates in most studies. It has the advantage in speed. but can degrade the detection rate with respect to various environmental changes. In this paper, we propose a way to utilize a Faster Region based Convolutional Neural Networks (Faster R-CNN) and a Conventional Convolutional Neural Networks (CNN), which improves the computational speed and is robust against changed environments. The module based on Faster R-CNN is used to detect license plate candidate regions from images and is followed by the module based on CNN to remove False Positives from the candidates. As a result, we achieved a detection rate of 99.94% from images captured under various environments. In addition, the average operating speed is 80ms/image. We implemented a fast and robust Real-Time License Plate Detection System.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 Faster R-CNN[14]과 CNN[15, 20]을 적용함으로써, 다양한 환경 변화에 강인하고, 높은 정확성을 지닌 실시간 번호판 검출 시스템을 제안한다. 제안하는 시스템의 번호판 검출과정은 ‘검출’과 ‘필터링’의 두 단으로 이루어져 있으며, ‘검출’ 단계에서 Faster R-CNN[14]를 적용하여 입력과 번호판의 크기에 상관없이 네트워크에서 직접 번호판의 영역을 추정하며, 이와 함께 연산량의 이득을 얻고, ‘필터’ 단계에서는 기존의 분류기보다 상대적으로 뛰어난 일반화 능력을 지닌 CNN[5]를 적용함으로서 충분하지 못한 훈련샘플로 인하여 발생할 수 있는 False Positive를 효과적으로 제거할 수 있도록 구성하였다.
본 논문에서는 Faster R-CNN[14]과 CNN을 활용하여, 환경 변화에 강인한 실시간 자동차 번호판 검출 시스템을 제안한다. 제안하는 시스템은 별도의 전처리 과정을 없이 영상 그대로를 입력으로 활용하였다.
제안 방법
Faster R-CNN[14] 내부 구조에는 ZFNet[15], VGG-16[5] 의 두 가지 종류의 CNN을 사용하여 성능을 비교하였으며, 훈련데이터의 수가 충분하지 않다고 판단되어, ImageNet의 1,240,000장에 대하여 충분히 학습되어진 CaffeModel을 초기 값으로 하여 Fine-Tunning을 하였다. 훈련은 최대 30 Epoch까지 진행하였으며, 평가에는 10 Epoch, 30 Epoch까지 학습한 모델들을 사용하여 진행하였다.
그렇기 때문에 더욱 정확한 결과의 확인을 위하여, 4.3과 4.4에서 얻어진 학습 모델을 사용하여, 훈련에 사용되어진 4250장을 제외한 80,000여장에 대한 ‘검출’ 및 ‘필터링’ 평가를 한 번에 진행하였다.
다섯 번째 실험에서는 네 번째 실험에서 검출에 실패한 번호판 일부를 무작위로 선택하여 훈련 샘플에 추하여 새롭게 학습을 하였다. 이를 활용한 FD4에 대한 평가 결과는 Table 8과 같았다.
사용된 CNN구조는 64*32 크기를 입력으로 설정하였으며, 인수분해를 통해 연산량과 성능의 이점을 얻기 위하여, 7x7, 5x5와 같은 넓은 필터 대신 3x3의 작은 필터를 여러 번에 걸쳐 사용하도록 설계하였다[19]. 또한 Fully-Connected Layer에 Dropout [26]을 적용하여 매번 무작위로 연결을 끊음으로써 과적합을 최소화 하도록 구성하였다.
8로 설정하여 평가를 진행하였다. 또한 이후 최종 평가를 위하여 다섯 번째 실험에서 검출에 실패한 결과의 일부를 훈련샘플에 추가하여 4250장으로 확장하여 새롭게 훈련을 진행하였다.
본 논문에서 Faster R-CNN[14]를 위해 사용된 훈련샘플은 약 4천여장이였으며, 여기에 Negative 영상을 포함한 훈련샘플을 새롭게 추가하여 훈련시키는 것 대신에 Fig. 1과 같은 상대적으로 작은 구조의 CNN을 사용한‘필터링’ 단계를 추가하였다.
본 논문에서는 이러한 FP를 효과적으로 제거하기 위하여, ‘검출’ 단계와는 달리 충분히 많은 데이터를 사용하여 학습된 얕은 구조의 CNN을 사용하는 ‘필터링’ 단계를 추가하였고, ‘검출’ 단계의 결과에 대하여 번호판이 맞는지만을 판별하도록 구성하였다.
하지만 충분히 많은 Positive와 Negative 영상들을 학습시킴으로써, 효과적으로 False Positive 결과들을 제거할 수 있었다. 사용된 CNN구조는 64*32 크기를 입력으로 설정하였으며, 인수분해를 통해 연산량과 성능의 이점을 얻기 위하여, 7x7, 5x5와 같은 넓은 필터 대신 3x3의 작은 필터를 여러 번에 걸쳐 사용하도록 설계하였다[19]. 또한 Fully-Connected Layer에 Dropout [26]을 적용하여 매번 무작위로 연결을 끊음으로써 과적합을 최소화 하도록 구성하였다.
세 번째 실험에서는 먼저 FD2의 데이터를 활용하여 두 번째 실험에서 얻은 훈련 모델에 대한 테스트를 진행하였다. 이에 따른 결과는 Table 6의 첫 번째 행에서와 같이 99.
훈련 및 실험은 데이터셋의 종류에 따라서 다르게 진행되었다. 실험을 거듭할수록 전 실험에서 얻어진 잘못된 결과들의 일부를 다음 실험의 훈련샘플로 추가하였으며, 매 실험마다 새로 훈련하였다. 또한 각 평가는 TP(True Positive)만 존재할 경우를 True로 정의하였으며, TN(True Negative), FP(False Positive), FN(False Negative)가 TP와 함께 존재하는 경우들은 모두 실패한 것으로 정의하였다.
이러한 문제를 해결하기 위하여 우리는 ‘필터링’만을 위해 상대적으로 작은 구조인 Fig. 1의 CNN을 추가하였고, 대량의 False Positive 를 활용함으로써 좋은 결과를 얻을 수 있었다.
이러한 요인들이 번호판 검출에 영향을 주는 것으로 판단하였다. 이러한 문제의 개선을 위하여 검출에 실패한 야간 영상의 일부를 네 번째 실험의 훈련 데이터로 추가하였고, 새롭게 학습을 진행하였다. 이렇게 얻은 모델을 활용한 평가 결과는 Table 7과 같았으며, 이를 통해 강렬한 조명이 있는 번호판들에 대한 검출률을 크게 개선할 수 있었다.
이전 실험을 통해 ‘필터링’의 CNN을 통하여 Negative 를 충분히 제거 가능하다고 판단하였고, 동작속도의 향상을 위하여 VGG-16[20] 대신 ZFNet[15]만을 Faster R-CNN[14] 에 적용하여 평가를 진행하였다.
일반적인 한국의 번호판은 직선과 색상정보를 포함하고 있는 사각형이다. 전통적인 번호판 검출 시스템들은 이러한 영상에 존재하는 번호판의 색상, 모양, 대칭, 비율과 같은 정보들을 찾고자 하였고, 이를 위하여 색상(RGB), 에지, 코너, 라인과 같은 특징 벡터들을 CCA(Connected component analysis)와 모폴로지, 에지 연산, 허프 변환 등을 이용하여 검출하였다. 그리고 이렇게 얻어진 결과들을 활용하여 번호판 검출 시스템들을 구성해왔다[1, 3-8].
본 논문에서는 Faster R-CNN[14]과 CNN을 활용하여, 환경 변화에 강인한 실시간 자동차 번호판 검출 시스템을 제안한다. 제안하는 시스템은 별도의 전처리 과정을 없이 영상 그대로를 입력으로 활용하였다. Fig.
제안하는 시스템의 번호판 검출과정은 ‘검출’과 ‘필터링’의 두 단으로 이루어져 있으며, ‘검출’ 단계에서 Faster R-CNN[14]를 적용하여 입력과 번호판의 크기에 상관없이 네트워크에서 직접 번호판의 영역을 추정하며, 이와 함께 연산량의 이득을 얻고, ‘필터’ 단계에서는 기존의 분류기보다 상대적으로 뛰어난 일반화 능력을 지닌 CNN[5]를 적용함으로서 충분하지 못한 훈련샘플로 인하여 발생할 수 있는 False Positive를 효과적으로 제거할 수 있도록 구성하였다.
그에 대한 결과는 Table 4와 같다. 첫 실험은 번호판에 대한 Faster R-CNN[14]의 성능을 확인하기 위하여 진행하였으며, 내부 구조는 VGG-16[20]에 대해서만 진행하였다. 이를 통해 98.
9 이상으로 엄격하게 설정함으로써 False Positive를 제거할 수도 있었다. 하지만 본 논문에서는 Faster R-CNN[14]의 기본 설정에 따라 임계치를 0.8로 설정하여 평가를 진행하였다. 또한 이후 최종 평가를 위하여 다섯 번째 실험에서 검출에 실패한 결과의 일부를 훈련샘플에 추가하여 4250장으로 확장하여 새롭게 훈련을 진행하였다.
하지만 본 논문에서는 임계값을 기본 설정 값에 맞췄으며, 더 이상 훈련 샘플을 증가시키지 않았기 때문에 이러한 False Positive의 제거를 위하여 번호판의 ‘필터링’만을 위한 Fig. 1과 같은 구조의 CNN을 뒤에 추가하였다.
Faster R-CNN[14] 내부 구조에는 ZFNet[15], VGG-16[5] 의 두 가지 종류의 CNN을 사용하여 성능을 비교하였으며, 훈련데이터의 수가 충분하지 않다고 판단되어, ImageNet의 1,240,000장에 대하여 충분히 학습되어진 CaffeModel을 초기 값으로 하여 Fine-Tunning을 하였다. 훈련은 최대 30 Epoch까지 진행하였으며, 평가에는 10 Epoch, 30 Epoch까지 학습한 모델들을 사용하여 진행하였다.
대상 데이터
두 번째 실험은 FD0의 4,200장을 학습 데이터로 활용하여 ZFNet[15]과 VGG-16[20] 모델을 훈련시켰으며, FD1의 2,000장의 영상을 이용하여 테스트를 진행하였다. Table 5에서와 같이 1,000장에서 4,200장으로 훈련 데이터를 확장함으로써 98.
본 논문에서 사용된 데이터들은 Fig. 6과 같은 환경에서 두 개의 카메라를 통해 촬영된 1280*720 해상도의 이미지 80,000여장 (Table 3의 FD1-FD4) 그리고 서로 다른 시점에서 촬영된 3가지 해상도의 4,000여장의 이미지(Table 3의 FD0)들로 구성되어 있다.
본 논문의 훈련은 8만여장의 전체 데이터와 비교하여 상대적으로 적은 4천여장의 이미지만을 Faster R-CNN[5]의 학습에 활용하였다. 적은 훈련 데이터만으로도 충분한 결과를 얻기 위하여 ImageNet을 통해 충분히 학습된 Caffe Model을 활용하였으나 이러한 Caffe Model의 활용은 Faster R-CNN [14]에 사용되는 CNN을 직접 설계하는데 장애가 되었다.
실험은 Table 2에서와 같은 환경에서 이루어졌으며, 학습 및 실험은 Linux 기반 Caffe 환경에서 Cuda 7.5와 cuDNN4 그리고 openCV 3.0을 적용하여 진행되었다.
그럼에도 해당 유형의 번호판을 검출할 수는 있었으나, 일부 실패함으로써 약간의 성능하락을 가져왔다. 이러한 문제의 해결을 위하여 검출에 실패한 사업용 대형 번호판 중에서 5장을 선택하여 훈련 데이터로 추가하여 학습을 다시 하였다.
Negative를 제외한 이미지들은 일차적으로 64*32크기로 조정하였으며, 이렇게 얻어진 번호판과 Negative들을 Resize, Crop, Mirror를 통해 Positive : 696,600장, Negative : 1,215,500장으로 증가시켰다. 이렇게 얻어진 결과에서 20만장을 무작위로 선택하여 validation과 test에 할당하였다. 그에 대한 학습결과와 평가는 Table 9와 같다.
이미지들은 실제 도로를 주행 중인 자동차들을 촬영하였으며, 차량의 번호판 영역을 포함하고 있으며, 데이터셋에 대한 세부적인 정보는 Table 3과 같다.
첫 실험에서는 FD0의 이미지들 중에서 임의로 1,000장을 선택하여 학습하였고, 나머지 3,212를 대상으로 평가를 진행하였다. 그에 대한 결과는 Table 4와 같다.
이론/모형
1에서와 같이 Convolution Layer와 Pooling Layer로 이루어진‘특징추출’과 Fully-Connected Layer로 이루어진 ‘분류’로 이루어져 있다. 기존의 물체 검출 과정은 기존의 HOG, Haar-like와 같은 전문가에 의해 설계된 특징 (Handcrafted Feature)들을 활용하여 특징 추출을 진행하였다. 이와 달리 CNN은 훈련 샘플에 대하여 최적화된 특징 벡터들을 스스로 학습하고, 이를 활용하여 특징맵(Feature Map)을 생성하여 차원을 감소시키고, 결과에 대하여 ‘분류’를 진행하여 모델의 복잡도 증가에 따른 과적합(overfitting)을 최소화하여 성능을 향상시키고 있다.
본 논문에서는 전체 이미지를 입력으로 하여, 입력과 번호판의 크기에 관계없이 정확하게 번호판의 영역을 검출하고 적절한 동작속도를 가지도록 Faster R-CNN[14]을 사용하였다. 또한 내부에는 ZFNet[15]와 VGG-16[20]을 적용하였다.
성능/효과
9와 같이 야간에 촬영된 번호판들이 많았다. FD1은 야간 촬영 영상이 전혀 포함되어 있지 않은 데이터로서 야간 영상이 포함된 FD2에 대한 검출률은 FD1보다 감소하는 것을 알 수 있었다.
두 번째 실험은 FD0의 4,200장을 학습 데이터로 활용하여 ZFNet[15]과 VGG-16[20] 모델을 훈련시켰으며, FD1의 2,000장의 영상을 이용하여 테스트를 진행하였다. Table 5에서와 같이 1,000장에서 4,200장으로 훈련 데이터를 확장함으로써 98.38%에서 99.85%로 성능이 향상되는 것을 확인할 수 있었다. 또한 VGG-16[20]와 비교하여 상대적으로 얕은 구조의 ZFNet[15]을 사용하여도 99.
ZFNet[15]를 활용한 ‘검출’ 영역의 정확도는 99.80% 였으며, 이후 ‘필터링’을 통해 False Positive들을 제거함으로서 99.94%의 높은 검출 결과를 얻을 수 있었다.
특히 FD4는 전체 영상 중에서 잡음이 가장 많은 데이터로서, 눈, 비, 조명 변화와 같은 요소들을 가장 많이 포함하고 있다. 그럼에도 불구하고, 이전 실험의 99.90%, 99.83%들과 비교하여 별다른 성능하락 없이 높은 검출률을 얻을 수 있었다. 또한 다섯 번째 실험에서는 Ture Positive들은 모두 검출함으로서, 이러한 모델이 환경적인 요소들에 대하여 강인함을 확인할 수 있었다.
65% 향상시켰으며, False Positive를 모두 제거할 수 있었다. 또한 GPU를 활용함으로써 동작속도를 50ms 이상 향상시킬 수 있었다.
실험을 거듭할수록 전 실험에서 얻어진 잘못된 결과들의 일부를 다음 실험의 훈련샘플로 추가하였으며, 매 실험마다 새로 훈련하였다. 또한 각 평가는 TP(True Positive)만 존재할 경우를 True로 정의하였으며, TN(True Negative), FP(False Positive), FN(False Negative)가 TP와 함께 존재하는 경우들은 모두 실패한 것으로 정의하였다.
83%들과 비교하여 별다른 성능하락 없이 높은 검출률을 얻을 수 있었다. 또한 다섯 번째 실험에서는 Ture Positive들은 모두 검출함으로서, 이러한 모델이 환경적인 요소들에 대하여 강인함을 확인할 수 있었다.
94%의 높은 검출률과 함께 80ms/image를 넘지 않는 실시간 번호판 검출 시스템을 제안하였다. 또한 단계적인 실험을 통해 지속적인 훈련 데이터의 확장을 통하여 쉽게 에러를 줄여나갈 수 있음을 확인하였고, 상대적으로 더 얇은 구조의 CNN을 대량의 훈련 데이터를 통해 충분히 학습함으로써 효과적으로 False Positve를 제거할 수 있음을 확인할 수 있었다. 특히 최근에는 Fig.
14와 같은 왜곡들이 존재할 경우 검출률이 감소하는 문제가 있었다. 본 논문에서 이러한 유형의 번호판들을 일부 학습시킴으로서, 별다른 성능 저하 없이 번호판 영역의 검출에 성공할 수 있었다.
Table 12는 제안된 시스템의 성능을 본 논문에서 활용한 데이터셋과 같은 데이터셋의 일부(5,200장)을 이용하여 제안되었던 Adaboost를 활용한 번호판 검출 시스템의 결과[27]와 비교하여 보여주고 있다. 본 논문에서는 Deep Learning 기법[14, 15, 20]을 활용함으로써 True Positive 검출률을 5.65% 향상시켰으며, False Positive를 모두 제거할 수 있었다. 또한 GPU를 활용함으로써 동작속도를 50ms 이상 향상시킬 수 있었다.
본 논문에서는 Faster R-CNN[14]와 CNN을 활용하여 상대적으로 환경변화에 강인하며, 99.94%의 높은 검출률과 함께 80ms/image를 넘지 않는 실시간 번호판 검출 시스템을 제안하였다. 또한 단계적인 실험을 통해 지속적인 훈련 데이터의 확장을 통하여 쉽게 에러를 줄여나갈 수 있음을 확인하였고, 상대적으로 더 얇은 구조의 CNN을 대량의 훈련 데이터를 통해 충분히 학습함으로써 효과적으로 False Positve를 제거할 수 있음을 확인할 수 있었다.
세 번째 실험에서 Fig. 8과 같은 사업용 대형 번호판을 제외한 검출에 실패한 번호판을 살펴보면 Fig. 9와 같이 야간에 촬영된 번호판들이 많았다. FD1은 야간 촬영 영상이 전혀 포함되어 있지 않은 데이터로서 야간 영상이 포함된 FD2에 대한 검출률은 FD1보다 감소하는 것을 알 수 있었다.
35%감소한 것을 확인할 수 있었다. 이때 검출에 실패한 경우들을 살펴보면 Fig. 8과 같은 사업용 대형 번호판이었으며, 이는 지금까지의 훈련 데이터에는 전혀 포함되지 않은 번호판 유형이었다.
이러한 Fase Positive들은 실험을 거듭할수록 점차 감소하였다. 이러한 결과들을 통해 지속적인 학습데이터들의 확장을 통해 검출률을 개선할 수 있음을 확인하였다.
CNN은 전통적인 분류기들과는 달리 기존의 특징벡터들을 활용하지 않으며, 네트워크 스스로 생성한 특징을 사용한다. 이를 번호판 검출에 활용하고, 이와 함께 경계면 추정을 위한 별도의 알고리즘을 추가함으로서 많은 성능 향상을 달성할 수 있었다. 그러나 이러한 방법은 번호판 영역의 추정을 위하여 많은 연산을 필요로 하며, 추가적인 대량의 CPU 연산으로 인하여, GPU를 활용한 효율적인 병렬 연산을 어렵게 하였다.
첫 실험은 번호판에 대한 Faster R-CNN[14]의 성능을 확인하기 위하여 진행하였으며, 내부 구조는 VGG-16[20]에 대해서만 진행하였다. 이를 통해 98.38%의 높은 검출률을 확인할 수 있었다.
이외에도 영상 정보로부터 Haar-like, HOG와 같은 특징벡터들을 직접 생성하고 이를 다층 신경망(MLP), adaboost, SVM(Support Vector Machine)과 같은 분류기와 결합하는 연구들도 진행되어왔다[2, 10, 11, 13]. 이를 통해 기존보다 성능을 개선시킬 수 있었으나, 모델의 복잡성 증가도가 증가하여 동작 속도가 감소하며, 과적합이 발생하는 문제들이 있었다.
하지만 Faster R-CNN[14]에서와 달리 Positive 와 함께 충분히 많은 Negative들을 훈련 데이터로 활용함으로써, 주어진 데이터들에 대하여 매우 정확하게 번호판을 판별할 수 있었으며, ‘검출’ 단계에서 발생하는 False Positive 들도 대부분 제거할 수 있었다.
후속연구
13과 같이 True Positive를 제거하는 문제를 최소화할 수 있을 것이다. 또한 충분한 데이터들을 확보함으로서 Caffemodel 대신 번호판에 최적화된 CNN구조를 제안할수 있을 것이다.
14의 아래 번호판과 같이 번호판 주위에 강한 조명 및 형광물질을 도포하거나, 문자영역에 형광 스티커등을 부착하는 행위들이 많아지고 있다. 이러한 문제들에 대하여 본 논문에서 제안하는 시스템은 사람의 눈으로 식별 가능한 수준의 영상 데이터에 대해서는 거의 정확하게 번호판 영역을 검출할 수 있었으며, 검출에 실패한 경우들에 대해서도 훈련 데이터의 확장을 통해 충분히 검출 가능할 것이다.
이를 통하여 이후 훈련 데이터들을 지속적으로 확장시켜, 충분히 ‘검출’ 단계를 훈련시킨다면 ‘필터링’에 사용된 CNN 없이도 충분한 False Positive의 제거와 함께 Fig. 13과 같이 True Positive를 제거하는 문제를 최소화할 수 있을 것이다.
향후 연구에서는 본 논문에서 제안하는 검출 시스템을 확장하여, 환경변화에 강인하고 높은 인식률을 위한 실시간 번호판 인식 시스템을 설계하고자 한다.
질의응답
핵심어
질문
논문에서 추출한 답변
자동차 번호판 검출 자동화 시스템은 어떤 분야에서 사용되고 있는가?
자동차 번호판 검출 자동화(ALPD: Automatic License Plate Detection) 시스템은 효율적인 교통 관제를 위한 핵심 기술이며, 통행료 지불 시스템, 주차장 및 교통 관리와 같은 많은 응용에 사용되어 업무의 효율을 높이고 있다. 최근까지의 ALPD에 관한 연구에서는 주로 영상처리를 위해 설계된 기존의 특징들을 추출하여 번호판 검출에 사용해왔다.
CNN은 어떤 분야에서 좋은 결과를 보이고 있는가?
이러한 Deep Learning은 Deep Belief Networks(DBN)[17], Recurrent Neural Networks(RNN) Convolutional Neural Networks(CNN)와 같이 크게 3종류 구분할 수 있다. 특히 사람의 뇌가 시각정보를 받아들이는 과정을 모방한 CNN은 영상처리 분야에서 좋은 결과를 보이고 있다[18-20]. CNN은 신경망을 기반으로 하고 있으며, Fig.
기존의 ALPD의 문제점은 무엇인가?
최근까지의 ALPD에 관한 연구에서는 주로 영상처리를 위해 설계된 기존의 특징들을 추출하여 번호판 검출에 사용해왔다. 이러한 종래의 방법은 속도에 이점은 있으나, 다양한 환경 변화에 따른 성능 저하를 보였다. 본 논문에서는 전반적인 성능을 향상시키기 위하여 Faster R-CNN과 CNN으로 구성되는 두 단 구조를 활용하는 방법을 제안한다.
참고문헌 (27)
P. Viola and M. Jones "Robust Real-time Face Detection," International Journal of Computer Vision, Vol.57, No.2, 2004.
Md. M. K. Sarker, "License Plate Detection Using Cascade Adaboost and Heuristic Energy Map," Master's degree thesis, Chonbuk National University, 2013.
N. Dalal and B. Triggs, "Histograms of Oriented Gradients for Human Detection," IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.886-893, 2005.
최인수, 진문용, 박동선, "모폴로지 연산과 신명망 시스템을 이용한 차량 번호판 검출 및 숫자 인식," 스마트미디어학회, 2013 순천 정원엑스포 ICT 합동학술대회 논문집, 제2권, 제1호, pp.58-61, 2013.
M. Sarfraz, M. J. Ahmed, and S. A. Ghazi, "Saudi Arabian license plate recognition system," in Proc. Int. Conf. Geom. Model. Graph., pp.36-41, 2003.
A. M. Al-Ghaili, S. Mashohor, A. Ismail, and A. R. Ramli, "A new vertical edge detection algorithm and its application," in Proc. Int. Conf. Comput. Eng. Syst., pp.204-209, 2008.
V. Kamat and S. Ganesan, "An efficient implementation of the Hough transform for detecting vehicle license plates using DSPs," in Proc. Real-Time Tech. Applicat. Symp., pp.58-59, 1995.
P. Wu, H.-H. Chen, R.-J. Wu, and D.-F. Shen, "License plate extraction in low resolution video," in Proc. Int. Conf. Pattern Recognit., Vol.1, pp.824-827, 2006.
K. Deb and J. Kang-Hyun, "HSI color based vehicle license plate detection," in Control, Automation and Systems, 2008. ICCAS 2008. International Conference on, pp.687-691, 2008.
L. Dlagnekov, "License Plate Detection Using AdaBoost," San Diego, CA: Computer Science and Engineering Dept., 2004.
S. Z. Wang and H. J. Lee, "A cascade framework for a real-time statistical plate recognition system," IEEE Trans. Inform. Forensics Security, Vol.2, No.2, pp.267-282, 2007.
C. D. Nguyen, M. Ardabilian, and L. Chen, "Robust Car License Plate Localization Using a Novel Texture Descriptor," IEEE International Conference on Advanced Video and Signal Based Surveillance, pp.523-528, 2009.
W. T. Ho, H. W. Lim, and Y. H. Tay, "Two-Stage License Plate Detection Using Gentle Adaboost and SIFT-SVM," First Asian Conference on Intelligent Information and Database Systems, pp.109-114, 2009.
S. Ren, K. He, R. Girshick, and J. Sun, "Faster r-cnn: Towards real-time object detection with region proposal networks," arXiv preprint arXiv:1506.01497, 2015.
M. D. Zeiler and R. Fergus, "Visualizing and understanding convolutional neural networks," in European Conference on Computer Vision (ECCV), 2014.
Hui Li and Chunhua Shen, "Reading Car License Plates Using Deep Convolutional Neural Networks and LSTMs," arXiv arXiv:1601.05610v1 [cs.CV].
G. E. Hinton, S. Osindero, and Y. W. Teh, "A fast learning algorithm for deep belief nets," Neural Comput., Vol.18, No. 7, pp.1527-1554, 2006.
A. Krizhevsky, I. Sutskever, and G. Hinton, "Imagenet classification with deep convolutional neural networks," in Advances in Neural Information Processing Systems 25, pp.1106-1114, 2012.
C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich. "Going deeper with convolutions," in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR),, pp.1-9, 2015.
K. Simonyan and A. Zisserman, "Very deep convolutional networks for large-scale image recognition," in ICLR, 2015.
R. Girshick, J. Donahue, T. Darrell, and J. Malik, "Region based convolutional networks for accurate object detection and segmentation," TPAMI, 2015.
K. He, X. Zhang, S. Ren, and J. Sun, "Spatial pyramid pooling in deep convolutional networks for visual recognition," in ECCV, 2014.
R. Girshick, "Fast R-CNN," in IEEE International Conference on Computer Vision (ICCV), pp.1440-1448, 2015.
J. R. Uijlings, K. E. van de Sande, T. Gevers, and A. W. Smeulders, "Selective search for object recognition," International Journal of Computer Vision (IJCV), pp.154-171, 2013.
He, K., Zhang, X., Ren, S., and J. Sun, "Deep residual learning for image recognition," in CVPR, 2016.
N. Srivastava, G. Hinton, A. Krizhevsky, I. Sutskever, and R. Salakhutdinov, "Dropout: A simple way to prevent neural networks from overfitting," JMLR, pp.1929-1958, 2014.
Moon Yong Jin, Jong Bin Park, Dongsuk Lee, Dong Sun Park, "Real-Time Vehicle License Plate Recognition System Using Adaptive Heuristic Segmentation Algorithm," in KIPS Tr. Software and Data Eng., Vol.3, No.9, pp.361-368, 2014.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.