최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기응용통계연구 = The Korean journal of applied statistics, v.31 no.5, 2018년, pp.539 - 554
손나영 (이화여자대학교 통계학과) , 조현선 (이화여자대학교 통계학과) , 이소현 (이화여자대학교 통계학과) , 송종우 (이화여자대학교 통계학과)
Effective interaction between user and device is considered an important ability of IoT devices. For some applications, it is necessary to recognize human facial expressions in real time and make accurate judgments in order to respond to situations correctly. Therefore, many researches on facial ima...
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
상황인식 기반의 인공지능에서 중요시 되는것은? | 이미지자료의 분석이란 색상정보(RGB)와 광도정보(luminosity)를 이용하여 이미지의 특징을 파악하고, 이를 통해 피사체의 형태를 식별하거나 분류하는 것을 의미한다. 최근 등장하는 다양한 사물인터넷 기기 혹은 상황인식 기반의 인공지능에서는 사용자와 기기의 상호작용(interface)이 중요시되는데, 특히 인간의 표정을 실시간으로 인식하여 상황에 맞는 대응을 하기 위해서는 고도의 관찰력과 빠른 반응속도를 필요로 한다. 따라서, 안면의 특징을 보다 빠르고 쉽게 파악하여 감정을 정확히 예측하는 알고리즘을 개발하기 위해 많은 노력이 선행되어 왔다 (Lyons 등, 1999; Shan 등, 2009). | |
이미지자료의 분석의 의미는? | 이미지자료의 분석이란 색상정보(RGB)와 광도정보(luminosity)를 이용하여 이미지의 특징을 파악하고, 이를 통해 피사체의 형태를 식별하거나 분류하는 것을 의미한다. 최근 등장하는 다양한 사물인터넷 기기 혹은 상황인식 기반의 인공지능에서는 사용자와 기기의 상호작용(interface)이 중요시되는데, 특히 인간의 표정을 실시간으로 인식하여 상황에 맞는 대응을 하기 위해서는 고도의 관찰력과 빠른 반응속도를 필요로 한다. | |
shape와 texture information을 종합하는 모델링 방법 중 피사체의 형태적 특성을 나타내는 것은? | 이미지의 특징 정보는 크게 피사체의 모양에 대한 shape information과 질감에 대한 texture information으로 구분되며, active shape model (ASM) (Cootes 등, 1955)이나 active appearance model (AAM) (Cootes 등, 2001) 등이 shape와 texture information을종합하는 모델링 방법으로 잘 알려져 있다. Shape information은 피사체의 형태적 특성을 나타내는데, 특히 기하학적 성질을 나타낼 때는 기하정보(geometric information)으로도 이해된다. 사람의 얼굴에 관련된 대표적인 shape information으로는 얼굴 랜드마크(face landmark)를 사용할 수 있다. |
Bradski, G. and Kaehler, A. (2008). Learning OpenCV: Computer vision with the OpenCV library, O'Reilly Media, Sebastopol.
Brieman, L. (1996). Bagging predictors, Machine Learning, 24, 123-140 .
Cootes, T. F., Edwards, G. J., and Taylor, C. J. (2001). Active appearance models, IEEE Transactions on Pattern Analysis and Machine Intelligence, 23, 681-685 .
Cootes, T. F., Taylor, C. J., Cooper, D. H., and Graham, J. (1995). Active shape models-their training and application, Computer Vision and Image Understanding, 61, 38-59.
Cortes, C. and Vapnik, V. (1995). Support-vector networks, Machine Learning, 20, 273-297 .
Daugman, J. G. (1988). Complete discrete 2-D Gabor transforms by neural networks for image analysis and compression, IEEE Transactions on Acoustics, Speech, and Signal Processing, 36, 1169-1179.
Ekman, P. (1992). An argument for basic emotions, Cognition & Emotion, 6, 169-200.
Fogel, I. and Sagi, D. (1989). Gabor filters as texture discriminator, Biological Cybernetics, 61, 103-113 .
Goodfellow, I. J., Erhan, D., Carrier, P. L., et al. (2013). Challenges in representation learning: a report on three machine learning contests, arXiv:1307.0414, from: https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data
Jain, A. K. and Farrokhnia, F. (1991). Unsupervised texture segmentation using Gabor filters, Pattern Recognition, 24 , 1167-1186.
Kazemi, V. and Sullivan, J. (2014). One millisecond face alignment with an ensemble of regression trees. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 1867-1874.
King, D. E. (2009). Dlib-ml: a machine learning toolkit, Journal of Machine Learning Research, 10, 1755-1758 .
Liaw, A. and Wiener, M. (2002). Classification and Regression by randomforest, R News, 2, 18-22.
Lyons, M. J., Budynek, J., and Akamatsu, S. (1999). Automatic classification of single facial images, IEEE Transactions on Pattern Analysis and Machine Intelligence, 21, 1357-1362.
Meyer, D., Dimitriadou, E., Hornik, K., Weingessel, A., Leisch, F., Chang, C. C., and Lin, C. C. (2017). e1071: Misc Functions of the Department of Statistics, Probability Theory Group (Formerly: E1071), TU Wien, R package version 1.6-8. from: https://CRAN.R-project.org/packagee1071
Ojala, T., Pietikainen, M., and Maenpaa, T. (2002). Multiresolution gray-scale and rotation invariant texture classification with local binary patterns, IEEE Transactions on Pattern Analysis and Machine Intelligence, 24, 971-987.
Paul van Gent (2016). http://www.paulvangent.com/2016/08/05/emotion-recognition-using-facial-landmarks/
R Core Team (2016). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria, from: https://www.R-project.org/
Saatci, Y. and Town, C. (2006). Cascaded classification of gender and facial expression using active appearance models, In 7th International Conference on Automatic Face and Gesture Recognition (FGR06), IEEE, 393-398.
Saragih, J. M., Lucey, S., and Cohn, J. F. (2009). Face alignment through subspace constrained mean-shifts, in Proceedings / IEEE International Conference on Computer Vision, 1034-1041.
Shan, C., Gong, S., and McOwan, P. W. (2009). Facial expression recognition based on local binary patterns: a comprehensive study, Image and Vision Computing, 27, 803-816.
Steven Puttemans (2013). https://github.com/opencv/opencv/tree/master/data/Haarcascades.
Venables, W. N. and Ripley, B. D. (2002). Modern Applied Statistics with S (4th ed), Springer, New York.
Viola, P. and Jones, M. J. (2001). Rapid object detection using a boosted cascade of simple features. In Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001, Kauai.
Viola, P. and Jones, M. J. (2004). Robust real-time face detection, International Journal of Computer Vision, 57, 137-154.
Weihs, C., Ligges, U., Luebke, K., and Raabe, N. (2005). klaR analyzing German business cycles, In Data Analysis and Decision Support, 335-343, Springer, Heidelberg.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.