$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

초고속 R-CNN을 이용한 얼굴영상에서 눈 및 입술영역 검출방법
A Method of Eye and Lip Region Detection using Faster R-CNN in Face Image 원문보기

한국융합학회논문지 = Journal of the Korea Convergence Society, v.9 no.8, 2018년, pp.1 - 8  

이정환 (안동대학교 전자공학과)

초록
AI-Helper 아이콘AI-Helper

얼굴인식, 홍채인식과 같은 생체보안 분야에서 눈, 코, 입술 등 얼굴특징을 추출하는 과정은 필수적이다. 본 논문은 초고속(faster) R-CNN을 이용하여 얼굴영상에서 눈 및 입술영역을 검출하는 방법을 연구하였다. 초고속 R-CNN은 딥러닝을 이용한 물체검출 방법으로 기존의 특징기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 얼굴영상에 콘볼루션, 선형정류과정, max pooling과정을 차례로 적용하여 특징맵을 추출하고 이로부터 제안영역(region proposal)을 검출하는 RPN(region proposal network)을 학습한다. 그리고 제안영역과 특징맵을 이용하여 눈 및 입술 검출기(detector)를 학습한다. 제안방법의 성능을 검토하기 위해 남녀한국인 얼굴영상 800장으로 실험하였다. 학습을 위해 480장을 이용했으며 테스트용으로 320장을 사용하였다. 컴퓨터모의 실험결과 눈 및 입술영역 검출의 평균정확도는 50 에포치일 때 각각 97.7%, 91.0%를 얻을 수 있었다.

Abstract AI-Helper 아이콘AI-Helper

In the field of biometric security such as face and iris recognition, it is essential to extract facial features such as eyes and lips. In this paper, we have studied a method of detecting eye and lip region in face image using faster R-CNN. The faster R-CNN is an object detection method using deep ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 초고속 R-CNN은 고속 R-CNN에서 제안영역을 생성하는 과정을 신경망내부에 포함시켜 입력영상으로부터 물체 영역을 검출하는 전체 과정을 하나의 CNN에 통합한 것이다. 본 논문에서는 입력영상으로 부터 특징맵을 구하는 CNN을 연구하였으며, 제안영역을 생성하는 RPN과 눈 및 입술 영역을 검출하는 검출기를 실험하였다.
  • 본 논문에서는 초고속 R-CNN을 이용하여 얼굴영상에서 눈 및 입술 영역을 동시에 검출하는 방법을 연구하였다. 초고속 R-CNN은 고속 R-CNN에서 제안영역을 생성하는 과정을 신경망내부에 포함시켜 입력영상으로부터 물체 영역을 검출하는 전체 과정을 하나의 CNN에 통합한 것이다.
  • 본 논문에서는 초고속 R-CNN을 이용하여 얼굴영상에서 눈 및 입술 위치를 검출하는 알고리즘을 연구하였다. 제안방법은 먼저 학습데이터의 입력과정, 초고속 R-CNN을 위한 CNN과정, 학습을 위한 변수설정 및 검출기 학습과정으로 구성된다.
  • 본 논문에서는 초고속(faster) R-CNN(region convolutional neural network)을 이용하여 얼굴영상에서 눈 및 입술영역을 검출하는 방법을 연구한다. 기존 검출방법은 크게 특징기반 방법과 콘볼루션신경망 기반 방법으로 나눌 수 있다[3,5].
  • 본 논문에서는 최근 다중물체 인식 알고리즘으로 활발한 연구가 진행되고 있는 초고속 R-CNN[11-13,17]을 이용하여 얼굴영상에서 눈 및 입술영역을 동시에 검출하는 방법을 제안하고 성능을 평가한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
고속 R-CNN이 R-CNN과 다른 점은 무엇인가? 이러한 R-CNN을 개선한 것이 고속(fast) R-CNN이다. 즉 고속 R-CNN은 제안영역을 사전에 별도과정에서 독립적으로 추출하는 것은 R-CNN과 동일하지만, 검출된 각 제안영역마다 별도로 CNN을 실행하던 것을 하나의 CNN을 이용하여 특징맵을 추출하는 구조로 변경하여 시간을 대폭 단축하였다[12]. 입력영상에 CNN을 한번만 실행하여 특징맵을 생성하고 제안영역 정보를 특징맵의 마지막 층에 적용하여 관심영역(RoI: Region of Interest) 중 하나를 선택하는 RoI pooling과정을 수행한다.
CNN은 어떤 방법을 말하는가? 그리고 각 제안영역에 대하여 CNN을 독립적으로 적용하므로 제안영역이 서로 중복되는 경우도 많기 때문에 물체를 검출하는데 많은 시간이 소요되는 단점이 있다. CNN은 미리 학습된(pre-trained) AlexNet, VGG 등을 사용해서 특징을 추출하고, 분류기로 성능이 우수한 것으로 알려진 SVM을 특징맵의 가장 마지막 층에 적용하여 물체를 분류(classification)하는 방법이다[9,10,14]. 그러나 R-CNN은 모든 제안영역 마다 CNN을 별도로 실행해야하고 물체분류기로 작동하는 SVM이 CNN과 통합되지 않아 분류기 결과를 CNN을 학습하는데 사용할 수 없는 단점이 있다.
R-CNN에서 말하는 제안영역은 어떤 단점을 가지고 있는가? 여기서 제안영역이란 콘볼루션으로 구한 특징맵(feature map)에서 검출할 물체를 포함하고 있는 후보영역이다. 그리고 각 제안영역에 대하여 CNN을 독립적으로 적용하므로 제안영역이 서로 중복되는 경우도 많기 때문에 물체를 검출하는데 많은 시간이 소요되는 단점이 있다. CNN은 미리 학습된(pre-trained) AlexNet, VGG 등을 사용해서 특징을 추출하고, 분류기로 성능이 우수한 것으로 알려진 SVM을 특징맵의 가장 마지막 층에 적용하여 물체를 분류(classification)하는 방법이다[9,10,14].
질의응답 정보가 도움이 되었나요?

참고문헌 (19)

  1. S. Zafeiriou, C. Zhang & Z. Zhang. (2015). A survey on face detection in the wild: past, present and future. Computer Vision and Image Understanding, 138, 1-24. DOI : 10.1016/j.cviu.2015.03.015 

  2. Vinay Kumar, Arpit Agarwal & Kanika Mittal. (2011). Tutorial: introduction to emotion recognition for digital images, [Technical report] , 1-47. 

  3. Oya Celiktutan, Sezer Ulukaya & Bulent Sankur, (2013). A comparative study of face landmarking techniques. EURASIP Journal on Image and Video Processing, 13. DOI : 10.1186/1687-5281-2013-13 

  4. S. Y. Kwon et al. (2012). Comparative performaance evaluations of eye detection algorithm. Journal of Korea Multimedia Society, 15(6), 722-730. 

  5. Dan Witzner Hansen & Qiang Ji. (2010). In the eye of the beholder: a survey of models for eyes and gaze. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(3), 478-500. DOI : 10.1109/TPAMI.2009.30 

  6. Waqas, Haider, Hadia Bashir, Abida Sharif, Irfan Sharif & Abdul Wahab1Smola. (2014). A survey on face detection and recognition approaches. Research Journal of Recent Sciences, 3(4), 56-62. 

  7. A. Al-Rahayfeh & M. Faezipour. (2013). Eye tracking and head movement detection: a state-of-art survey. IEEE Journal of Translational Engineering in Health and Medicine, 1. DOI: 10.1109/JTEHM.2013.2289879 

  8. P. Viola & M. Jones. (2004). Robust real-time object detection. International Journal of Computer Vision 57(2), 137-154. DOI : 10.1023/B:VISI.0000013087.49260.fb 

  9. Y. L. Cun, Y. Bengio, & G. Hinton. (2015. May). Deep learning. Nature, 521(7553), 436-444. DOI : 10.1038/nature14539 

  10. J. Schmidhuber. (2015). Deep learning in neural networks: an overview. Neural Networks, 61, 85-117. DOI : 10.1016/j.neunet.2014.09.003 

  11. R. Girshick, J. Donahue, T. Darrell & J. Malik. (2014). Rich feature hierarchies for accurate object detection and semantic segmentation. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 5. 

  12. Girshick, Ross. (2015). Fast r-cnn. Proceedings of the IEEE International Conference on Computer Vision.(ICCV 2015). 

  13. S. Ren, K. He, R. Girshick, & J. Sun. (2017). Faster R-CNN: towards real-time object detection with region proposal networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(6), 1137-1149. DOI: 10.1109/TPAMI.2016.2577031 

  14. A.J. Smola. & B. Scholkopf. (2004). A tutorial on support vector regression. Statistics and Computing 14(3), 199-222. 

  15. J. R. Uijlings, K. E. van de Sande, T. Gevers & A. W. Smeulders. (2013). Selective search for object recognition. International Journal of Computer Vision, 154-171. 

  16. C. L. Zitnick & P. Dollar. (2014). Edge boxes: Locating object proposals from edges. in European Conference on Computer Vision (ECCV), 391-405. 

  17. https://kr.mathworks.com/help/vision/examples 

  18. Y. Zhang, K. Lee & H. Lee. (2016). Augmenting supervised neural networks with unsupervised objectives for large-scale image classification. International Conference on Machine Learning(ICML), 612-621. 

  19. K. Kim, et al. (2017), Detail focused image classifier model for traditional images. Journal of the Korea Convergence Society, 8(12), 85-92. DOI: 10.15207/JKCS.2017.8.12.085 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로