$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

표정 분류 연구
Analysis of facial expression recognition 원문보기

응용통계연구 = The Korean journal of applied statistics, v.31 no.5, 2018년, pp.539 - 554  

손나영 (이화여자대학교 통계학과) ,  조현선 (이화여자대학교 통계학과) ,  이소현 (이화여자대학교 통계학과) ,  송종우 (이화여자대학교 통계학과)

초록
AI-Helper 아이콘AI-Helper

최근 등장하는 다양한 사물인터넷 기기 혹은 상황인식 기반의 인공지능에서는 사용자와 기기의 상호작용이 중요시 된다. 특히 인간을 대상으로 상황에 맞는 대응을 하기 위해서는 인간의 표정을 실시간으로 인식하여 빠르고 정확한 판단을 내리는 것이 필요하다. 따라서, 보다 빠르고 정확하게 표정을 인식하는 시스템을 구축하기 위해 얼굴 이미지 분석에 대한 많은 연구들이 선행되어 왔다. 본 연구에서는 웹사이트 Kaggle에서 제공한 48*48 8-bit grayscale 이미지 데이터셋을 사용하여 얼굴인식과 표정분류로 구분된 두 단계를 거치는 얼굴표정 자동 인식 시스템을 구축하였고, 이를 기존의 연구와 비교하여 자료 및 방법론의 특징을 고찰하였다. 분석 결과, Face landmark 정보에 주성분분석을 적용하여 단 30개의 주성분만으로도 빠르고 효율적인 예측모형을 얻을 수 있음이 밝혀졌다. LDA, Random forest, SVM, Bagging 중 SVM방법을 적용했을 때 가장 높은 정확도를 보이며, LDA방법을 적용하는 경우는 SVM 다음으로 높은 정확도를 보이며, 매우 빠르게 적합하고 예측하는 것이 가능하다.

Abstract AI-Helper 아이콘AI-Helper

Effective interaction between user and device is considered an important ability of IoT devices. For some applications, it is necessary to recognize human facial expressions in real time and make accurate judgments in order to respond to situations correctly. Therefore, many researches on facial ima...

주제어

표/그림 (17)

질의응답

핵심어 질문 논문에서 추출한 답변
상황인식 기반의 인공지능에서 중요시 되는것은? 이미지자료의 분석이란 색상정보(RGB)와 광도정보(luminosity)를 이용하여 이미지의 특징을 파악하고, 이를 통해 피사체의 형태를 식별하거나 분류하는 것을 의미한다. 최근 등장하는 다양한 사물인터넷 기기 혹은 상황인식 기반의 인공지능에서는 사용자와 기기의 상호작용(interface)이 중요시되는데, 특히 인간의 표정을 실시간으로 인식하여 상황에 맞는 대응을 하기 위해서는 고도의 관찰력과 빠른 반응속도를 필요로 한다. 따라서, 안면의 특징을 보다 빠르고 쉽게 파악하여 감정을 정확히 예측하는 알고리즘을 개발하기 위해 많은 노력이 선행되어 왔다 (Lyons 등, 1999; Shan 등, 2009).
이미지자료의 분석의 의미는? 이미지자료의 분석이란 색상정보(RGB)와 광도정보(luminosity)를 이용하여 이미지의 특징을 파악하고, 이를 통해 피사체의 형태를 식별하거나 분류하는 것을 의미한다. 최근 등장하는 다양한 사물인터넷 기기 혹은 상황인식 기반의 인공지능에서는 사용자와 기기의 상호작용(interface)이 중요시되는데, 특히 인간의 표정을 실시간으로 인식하여 상황에 맞는 대응을 하기 위해서는 고도의 관찰력과 빠른 반응속도를 필요로 한다.
shape와 texture information을 종합하는 모델링 방법 중 피사체의 형태적 특성을 나타내는 것은? 이미지의 특징 정보는 크게 피사체의 모양에 대한 shape information과 질감에 대한 texture information으로 구분되며, active shape model (ASM) (Cootes 등, 1955)이나 active appearance model (AAM) (Cootes 등, 2001) 등이 shape와 texture information을종합하는 모델링 방법으로 잘 알려져 있다. Shape information은 피사체의 형태적 특성을 나타내는데, 특히 기하학적 성질을 나타낼 때는 기하정보(geometric information)으로도 이해된다. 사람의 얼굴에 관련된 대표적인 shape information으로는 얼굴 랜드마크(face landmark)를 사용할 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (27)

  1. Bradski, G. and Kaehler, A. (2008). Learning OpenCV: Computer vision with the OpenCV library, O'Reilly Media, Sebastopol. 

  2. Brieman, L. (1996). Bagging predictors, Machine Learning, 24, 123-140 . 

  3. Breiman, L. (2001). Random forests, Machine Learning , 45, 5-32. 

  4. Cootes, T. F., Edwards, G. J., and Taylor, C. J. (2001). Active appearance models, IEEE Transactions on Pattern Analysis and Machine Intelligence, 23, 681-685 . 

  5. Cootes, T. F., Taylor, C. J., Cooper, D. H., and Graham, J. (1995). Active shape models-their training and application, Computer Vision and Image Understanding, 61, 38-59. 

  6. Cortes, C. and Vapnik, V. (1995). Support-vector networks, Machine Learning, 20, 273-297 . 

  7. Daugman, J. G. (1988). Complete discrete 2-D Gabor transforms by neural networks for image analysis and compression, IEEE Transactions on Acoustics, Speech, and Signal Processing, 36, 1169-1179. 

  8. Ekman, P. (1992). An argument for basic emotions, Cognition & Emotion, 6, 169-200. 

  9. Fogel, I. and Sagi, D. (1989). Gabor filters as texture discriminator, Biological Cybernetics, 61, 103-113 . 

  10. Goodfellow, I. J., Erhan, D., Carrier, P. L., et al. (2013). Challenges in representation learning: a report on three machine learning contests, arXiv:1307.0414, from: https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data 

  11. Jain, A. K. and Farrokhnia, F. (1991). Unsupervised texture segmentation using Gabor filters, Pattern Recognition, 24 , 1167-1186. 

  12. Kazemi, V. and Sullivan, J. (2014). One millisecond face alignment with an ensemble of regression trees. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 1867-1874. 

  13. King, D. E. (2009). Dlib-ml: a machine learning toolkit, Journal of Machine Learning Research, 10, 1755-1758 . 

  14. Liaw, A. and Wiener, M. (2002). Classification and Regression by randomforest, R News, 2, 18-22. 

  15. Lyons, M. J., Budynek, J., and Akamatsu, S. (1999). Automatic classification of single facial images, IEEE Transactions on Pattern Analysis and Machine Intelligence, 21, 1357-1362. 

  16. Meyer, D., Dimitriadou, E., Hornik, K., Weingessel, A., Leisch, F., Chang, C. C., and Lin, C. C. (2017). e1071: Misc Functions of the Department of Statistics, Probability Theory Group (Formerly: E1071), TU Wien, R package version 1.6-8. from: https://CRAN.R-project.org/packagee1071 

  17. Ojala, T., Pietikainen, M., and Maenpaa, T. (2002). Multiresolution gray-scale and rotation invariant texture classification with local binary patterns, IEEE Transactions on Pattern Analysis and Machine Intelligence, 24, 971-987. 

  18. Paul van Gent (2016). http://www.paulvangent.com/2016/08/05/emotion-recognition-using-facial-landmarks/ 

  19. R Core Team (2016). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria, from: https://www.R-project.org/ 

  20. Saatci, Y. and Town, C. (2006). Cascaded classification of gender and facial expression using active appearance models, In 7th International Conference on Automatic Face and Gesture Recognition (FGR06), IEEE, 393-398. 

  21. Saragih, J. M., Lucey, S., and Cohn, J. F. (2009). Face alignment through subspace constrained mean-shifts, in Proceedings / IEEE International Conference on Computer Vision, 1034-1041. 

  22. Shan, C., Gong, S., and McOwan, P. W. (2009). Facial expression recognition based on local binary patterns: a comprehensive study, Image and Vision Computing, 27, 803-816. 

  23. Steven Puttemans (2013). https://github.com/opencv/opencv/tree/master/data/Haarcascades. 

  24. Venables, W. N. and Ripley, B. D. (2002). Modern Applied Statistics with S (4th ed), Springer, New York. 

  25. Viola, P. and Jones, M. J. (2001). Rapid object detection using a boosted cascade of simple features. In Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001, Kauai. 

  26. Viola, P. and Jones, M. J. (2004). Robust real-time face detection, International Journal of Computer Vision, 57, 137-154. 

  27. Weihs, C., Ligges, U., Luebke, K., and Raabe, N. (2005). klaR analyzing German business cycles, In Data Analysis and Decision Support, 335-343, Springer, Heidelberg. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로