$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

차량 번호판 인식을 위한 앙상블 학습기 기반의 최적 특징 선택 방법
An Ensemble Classifier Based Method to Select Optimal Image Features for License Plate Recognition 원문보기

전기학회논문지 = The Transactions of the Korean Institute of Electrical Engineers, v.65 no.1, 2016년, pp.142 - 149  

조재호 (School of Mechanical Engineering, Pusan National University) ,  강동중 (School of Mechanical Engineering, Pusan National University)

Abstract AI-Helper 아이콘AI-Helper

This paper proposes a method to detect LP(License Plate) of vehicles in indoor and outdoor parking lots. In restricted environment, there are many conventional methods for detecting LP. But, it is difficult to detect LP in natural and complex scenes with background clutters because several patterns ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 본 논문에서는 다양하고 복잡한 배경을 포함한 일반적인 영상에서 텍스트가 아닌 영역을 제거하고 텍스트를 추출하는 방법을 제안한다. 일단 텍스트 후보 영역이 추출되면, LP 추출을 위한 텍스트 그룹핑 방법을 이용하여 번호판 영역만을 추출하는 방법을 제안한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
LPR 시스템의 일반적인 방법은 무엇인가? 기존의 LPR 시스템은 영상 내 차량 번호판의 위치 인식과 번호판 내 숫자 인식의 두 가지 분야로 구성된다. LPR 시스템의 일반적인 방법으로는 번호판의 컬러, 모양, 대칭, 가로·세로 비율과 같은 이미지 특징을 사용하여 먼저 번호판을 찾고[1, 2] 번호판에서 숫자, 문자 사이의 선, 영역의 블럽(blob)등이 정렬된 정도로 번호판 여부를 측정한다[1, 3]. 컬러, 엣지, 블랍과 픽셀 밝기 같은 이미지 특징을 이용하는 번호판 추출 방법은 해당 특징이 주변의 조명이나 환경적인 변화에 매우 민감하여 영상 내에서 번호판 영역만을 추출하는 것에 많은 제약이 있다.
LPR 시스템의 구성은 무엇인가? 기존의 LPR 시스템은 영상 내 차량 번호판의 위치 인식과 번호판 내 숫자 인식의 두 가지 분야로 구성된다. LPR 시스템의 일반적인 방법으로는 번호판의 컬러, 모양, 대칭, 가로·세로 비율과 같은 이미지 특징을 사용하여 먼저 번호판을 찾고[1, 2] 번호판에서 숫자, 문자 사이의 선, 영역의 블럽(blob)등이 정렬된 정도로 번호판 여부를 측정한다[1, 3].
야외 환경에서 대부분의 텍스트 추출 기법 중 패치 방법과 영역 기반 방법의 큰 특징은 무엇인가? Mishra[10]은 HOG 특징과 SVM 분류기를 기반으로 한 방법(end-to-end method)을 제안하였다. 패치 방법은 텍스트 인식과정 전의 전처리(preprocessing)를 요구하며, 배경에서 정확하게 텍스트 영역을 추출하지는 못한다. 반면에, 영역기반의 방법은 텍스트 가능성이 큰 영역과 텍스트가 아닌 영역을 따로 분할한다. 후처리를 통해 후보 중에서 텍스트를 구분한다. Yao[11]는 스트로크 폭 변환(Stroke Width Transform)방법으로 영역을 추출하였고, Chen[12]은 MSER(Maximally Stable Extremal Regions)을 사용하여 문자의 스트로크 폭을 결정하는 텍스트 추출 방법을 제안하였다.
질의응답 정보가 도움이 되었나요?

참고문헌 (28)

  1. Chang, S. L, Chen, L. S., Chung, Y. C. and Chen, S. W., "Automatic license plate recognition," IEEE Trans. Intelligent Transportation Systems 5, 1, 42-53, 2004. 

  2. J. A. G. Nijhuis, M. H. ter Brugge, K.A. Helmholt, J. P. W. Pluim, L. Spaanenburg, R. S. Venema, M. A. Westenberg, "Car License Plate Recognition with Neural Networks and Fuzzy Logic.," IEEE Int. Conf. Neural Networks, 5, 2232-2236, 1995. 

  3. Hontani, H. and Koga, "Character extraction method without prior knowledge on size and position information," IEEE Int. Conf. Vehicle Electronics, 67-72. Intel Company, http://www.intel.com/technology/computing/opencv, 2007. 

  4. K. Jung, K. I. Kim, and A. K. Jain, "Text information extraction in images and video: a survey," Pattern Recognition, 2004. 

  5. J. Liang, D. Doermann, and H. Li, "Camera-based analysis of text and documents: a survey," IJDAR, 2005. 

  6. A. Coates, B. Carpenter, C. Case, S. Satheesh, B. Suresh, T. Wang, D. Wu, and A. Ng, "Text detection and character recognition in scene images with unsupervised feature learning," in Proc. ICDAR, 2011. 

  7. T. Wang, D. J. Wu, A. Coates, and A. Y. Ng, "End-to-end text recognition with convolutional neural networks," in Proc. ICPR, 2012. 

  8. Y. Netzer, T. Wang, A. Coates, A. Bissacco, B. Wu, and A. Y. Ng, "Reading digits in natural images with unsupervised feature learning," NIPS Workshop on Deep Learning and Unsupervised Feature Learning, 2011. 

  9. K. Wang, B. Babenko, and S. Belongie, "End-to-end scene text recognition," in Proc. ICCV, 2011. 

  10. A. Mishra, K. Alahari, and C. Jawahar, "Top-down and bottom-up cues for scene text recognition," in Proc. CVPR, 2012. 

  11. C. Yao, X. Bai, W. Liu, Y. Ma, and Z. Tu, "Detecting texts of arbitrary orientations in natural images," in Proc. CVPR, 2012. 

  12. H. Chen, S. Tsai, G. Schroth, D. Chen, R. Grzeszczuk, and B. Girod, "Robust text detection in natural images with edge-enhanced maximally stable extremal regions," in Proc. ICIP, 2011. 

  13. T. Novikova, O. Barinova, P. Kohli, and V. Lempitsky, "Large-lexicon attribute-consistent text recognition in natural images," in Proc. ECCV, 2012. 

  14. L. Neumann and J. Matas, "Real-time scene text localization and recognition," in Proc. CVPR, 2012. 

  15. Y.-F. Pan, X. Hou, and C.-L. Liu, "Text localization in natural scene images based on conditional random field," in Proc. ICDAR, 2009. 

  16. J. Matas, O. Chum, M. Urban, and T. Pajdla, "Robust wide-baseline stereo from maximally stable extremal regions," Image and Vision Computing, 2004. 

  17. B. Jun, D. Kim, "Robust face detection using local gradient patterns and evidence accumulation," Pattern Recognition, pp. 3304-3316, 2012. 

  18. T. Ojala, M. Pietikainen, D. Harwood, "A comparative study of texture measures with classification based on feature distributions," Pattern Recognition pp. 51-59, 1996. 

  19. S. ZHOU, J YIN, "Robust Face Detection Using Multi-Block Local Gradient Patterns and Extreme Learning Machine," Extreme Learning Machines 2013: Algorithms and Applications, vol. 16, pp.81-94, 2014. 

  20. P. Viola, M. Jones, "Fast and robust classification using asymmetric adaboost and a detector cascade," in: Proceedings of Advances in Neural Information Processing System, pp. 1311-1318, 2001. 

  21. S. Brubaker, J. Wu, J. Sun, M. Mullin, J. Rehg, "On the design of cascades of boosted ensembles for face detection," International Journal of Computer Vision 77, pp. 65-86, 2008. 

  22. J. Matas, O. Chum, M. Urban, and T. Pajdla, "Robust wide baseline stereo from maximally stable extremal regions.," Proc. of British Machine Vision Conference, pages 384-396, 2002. 

  23. C. Shi, C. Wang, B. Xiao, Y. Zhang, and S. Gao, "Scene text detection using graph model built upon maximally stable extremal regions," Pattern Recognition Letters, vol.34, no.2, pp.107-116, 2013. 

  24. X. Yin, X.-C. Yin, H.-W. Hao, K. Iqbal, "Effective text localization in natural scene images with MSER, geometry-based grouping and AdaBoost," Proc. of ICPR, pp.725-728, 2012. 

  25. Y. Li, H. Lu, "Scene text detection via stroke width," Proc. of ICPR, pp.681-684, 2012. 

  26. C. Merino-Gracia, K. Lenc, M. Mirmehdi, "A head-mounted device for recognizing text in natural scenes," Proc. of CBDAR, pp.29-41, 2011. 

  27. L. Neumann, J. Matas, "Text localization in realworld images using efficiently pruned exhaustive search," Proc. of ICDAR, pp.687-691, 2011. 

  28. H. Il Koo, D. H. Kim, "Scene text detection via connected component clustering and nontext filtering," IEEE Transactions on Image Processing, vol.22, no.6, pp.2296-2305, 2013. 

저자의 다른 논문 :

LOADING...
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로