$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

사용자의 성향 기반의 얼굴 표정을 통한 감정 인식률 향상을 위한 연구
A study on the enhancement of emotion recognition through facial expression detection in user's tendency 원문보기

감성과학 = Science of emotion & sensibility, v.17 no.1, 2014년, pp.53 - 62  

이종식 (성균관대학교 인터렉션 사이언스학과) ,  신동희 (성균관대학교 인터렉션 사이언스학과)

초록
AI-Helper 아이콘AI-Helper

인간의 감정을 인식하는 기술은 많은 응용분야가 있음에도 불구하고 감정 인식의 어려움으로 인해 쉽게 해결되지 않는 문제로 남아 있다. 인간의 감정 은 크게 영상과 음성을 이용하여 인식이 가능하다. 감정 인식 기술은 영상을 기반으로 하는 방법과 음성을 이용하는 방법 그리고 두 가지를 모두 이용하는 방법으로 많은 연구가 진행 중에 있다. 이 중에 특히 인간의 감정을 가장 보편적으로 표현되는 방식이 얼굴 영상을 이용한 감정 인식 기법에 대한 연구가 활발히 진행 중이다. 그러나 지금까지 사용자의 환경과 이용자 적응에 따라 많은 차이와 오류를 접하게 된다. 본 논문에서는 감정인식률을 향상시키기 위해서는 이용자의 내면적 성향을 이해하고 분석하여 이에 따라 적절한 감정인식의 정확도에 도움을 주어서 감정인식률을 향상 시키는 메카니즘을 제안하였으며 본 연구는 이러한 이용자의 내면적 성향을 분석하여 감정 인식 시스템에 적용함으로 얼굴 표정에 따른 감정인식에 대한 오류를 줄이고 향상 시킬 수 있다. 특히 얼굴표정 미약한 이용자와 감정표현에 인색한 이용자에게 좀 더 향상된 감정인식률을 제공 할 수 있는 방법을 제안하였다.

Abstract AI-Helper 아이콘AI-Helper

Despite the huge potential of the practical application of emotion recognition technologies, the enhancement of the technologies still remains a challenge mainly due to the difficulty of recognizing emotion. Although not perfect, human emotions can be recognized through human images and sounds. Emot...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 따라서 본 연구는 사용자 측면에서 감정인식을 분석하고 분류하여 인간의 표정을 좀 더 정확하게 인지하고 개선을 할 수 있는 방안을 제안 하였다. 특히 사용자의 내적 성향에 관련된 M.
  • Shin (2006) 연구에 따르면 중립표정에 대한 감정인식의 연구를 하였으며 이러한 인간의 표정을 측정하는데 다양한 오염 변인이 존재하는데 실험 시 기본적으로 얼굴표정의 작은 근육의 움직임(무표정) 으로 인한 측정의 오류가 발생하며 그 중에서 본 연구는 개인의 성향을 고려하지 않으며 단지 표정에 해당하는 근육의 움직임으로 보편적으로는 평가 할 수 있으나 이용자 개인의 내면에 존재하는 성격적인 부분과 얼굴 표현에 인색한(무표정) 이용자에게는 적절하지 못한 결과를 초래 할 수 있다. 따라서 본 연구는 이러한 인간의 내면의 성향을 MBTI실험을 통하여 실험하기전 실시 하였다.
  • 따라서 본 연구에서는 기존의 방식과 달리 이론적으로 이용자 중심에서 성향을 분석하여 그 데이터를 감정 인식률에 적용함으로써 보다 정확한 감정인식의 개선에 중점을 두고자 한다.
  • 본 연구는 기존의 단순한 얼굴 표정의 변화로만 감정인식에 국한됨으로 인하여 인간 내면의 잠재된 감정을 제대로 평가하지 못한 것이 사실이며 기존에 이용자의 자신의 정확한 감정 표현에도 불구하고 얼굴 표정의 크기가 작음 인하여 낮은 감정 인식률을 나타냈다. 이러한 현상은 본 실험에서도 나타났다.
  • 본 연구에서는 기존연구에서의 감정인식의 개선방식과 다르게 성향에 따라 분류하여 외향적 성향에서의 우울과 화남의 특정감정에서 낮은 감정 인식률과 내향적 성향에서의 기쁨과 놀람의 특정 감정에서의 낮은 감정인식률을 개선하기 위해서 외향적 성향의 우울과 화남의 측정 시에 감정 인식 프로그램에서 파라미터 값의 민감도를 일괄 상향 조정하여 기존의 낮은 인식률을 상향 보정하여 좀 더 나은 인식률의 얻을 수 있었다. 물론 기존에 연구에서도 감정을 표현하기 위해서 정해진 점(눈 입 눈썹) 기준으로 이미 정해진 파라메타 값이 존재하며 그 정해진 점의 높이와 넓이에 따라 감정의 기준이 정해지는 부분은 동일하며 측정의 결과 값을 평가하는 부분에서 파라미터 값을 변경을 제안 하였으며 Joo (2007)의 얼굴표정을 이용한 감정인식 및 감정인식의 표현기법 중에 파라미터의 값의 변화에 따라 얼굴 표정의 결과 값이 변화하였다.
  • 즉 이용자의 성향에 따라 어느 특정한 감정이 낮은 인식률 보였으며 본 연구는 인간의 본연의 잠재된 내향과 외향의 성향을 구분하여 감정인식률에 반영하였으며 그결과 통계상으로 성향이 감정인식 측정에서 유효한결과 값을 나타냈다. 본 연구에서는 이러한 정확한 감정인식은 인간의 내면의 그대로 나타내는 것이 무엇보다 중요하며 또한 감정인식이 이용자 중심에서의 설계가 중요하다고 제안한다.

가설 설정

  • 즉 성별에 따라 감정인식률이 차이가 있을 것이다. 따라서 (연구가설 1. 성별에 따라 특정 감정에서 감정인식률이 차이가 있을 것이다.) 기쁨, 슬픔, 놀람의 항목에서 연구 가설이 채택됨을 알 수 있고 감정 인식률에서 차이를 보임을 알 수 있다.
  • 05 를 보임을알 수 있었다. 따라서 (연구가설2. 성격의 외향성과 내향성 유무에 따라 감정인식률이 차이가 있을 것이다.) 기쁨 ,슬픔, 화남, 놀람의 항목에서 모두 채택됨을 알수 있다. 이를 감정 인식에 반영하여 개선 전과 개선후 비교 하였으며 감정의 항목에서 유의미한 차이 (t(19)=-4.
  • 따라서 본 결과는 가설2 성격에 따라 특정 감정에서 감정인식률이 차이가 있을 것이다. 라는 내용이 채택됨을 알 수 있다.
  • 연구 가설 2. 성격에 따라 특정 감정에서 감정인식률이 차이가 있을 것이다.
  • 연구 가설 1. 성별에 따라 특정 감정에서 감정인식률이 차이가 있을 것이다.
  • 05)를 보임을 알 수 있었다. 즉 성별에 따라 특정 감정에서 감정인식률이 차이가 있을 것이다. 연구가설 1 이 기쁨의 항목에서 채택됨을 알 수 있다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
얼굴 표정을 통한 감정 인식률 저하 요인에는 어떤 인지적 요인이 존재하는가? (1) 스트레스 상황에서 감정 오류 (2) 얼굴 표현이 인색한(무표정) 이용자 (3) 실험실 환경이 집중도에 영향 (조명 밝기, 온도) (4) 얼굴 표정을 통한 감정 인식 유 경험 (5) 조작자의 측정하려는 의도는 아는 부분 (6) 얼굴과 얼굴인식 시스템과의 거리 조건
사용자의 내적 성향의 개인적인 특성에는 무엇이 있는가? 사용자의 내적 성향은 각각의 사용자에게 내재되어 있는 특성을 의미하며 이러한 개인적인 특성은 1) 성격적인 특성, 2) 신체적인 특성, 3) 동기적인 특성 마지막으로 4) 라이프스타일적인 특성이라는 네 가지 특성이 있다. 본 실험에서 성격적 특성을 고려한 이유는 Keltner, D.
감정 표현에 따른 사람의 기본 표정에는 무엇이 있는가? Mehrabian 은 메시지의 단지 7%만 순수한 언어에 의해 전달되며 신체의 움직임이나 음성과 같은 준 언어에 의하여 38%, 얼굴표정에 의해서는 55%의 메시지가 보고한 바가 있다. 이러한 사람의 감정 표현에 대하여 심리학자 Ekman and Friesen (1992)에 따르면 사람이 여섯 가지 기본 표정인 놀람, 공포, 혐오, 행복감, 두려움, 슬픔 등은 그 보편성 가지고 있다고 보고하고 있다. Vogt, Thurid, and Elisabeth André.
질의응답 정보가 도움이 되었나요?

참고문헌 (30)

  1. Kim, M. H. & Park, J. B. (2005). Development of Emotion Recongition System Using Facial Image. Proceedings of Korea Fuzzy Logic and Intelligent Systems Vol. 15, No. 2, pp. 191-196 

  2. Kang, D. H. & Lee, M. L. (2008). Face recognition using PCA and KNN for improving research. Proceedings of KIIS Fall Conference 2008 Vol. 18. No. 2 

  3. Shin, D. I. (2007). Trends of Emotion Recognition Technology. Technology Trends Week Vol 1283 2007, pp. 1-9 

  4. Shin, Y. S. (2006). Independent neutral facial expression recognition. Proceedings of Korea Computer Vol.33, No.1(B) 

  5. Lee, D. J. & LEE, K. A. (2005). Face Emotion Recognition by Fusion Model based on Static and Dynamic Image. Proceedings of Korea Fuzzy Logic and Intelligent Systems Vol 15, No. 5, pp.573-580 

  6. JOO, J. T. (2007). Emotion Recognition and Expression using Facial Expression. Proceedingsof KFIS Spring Conference Vol. 17, No.1 pp. 295-298 

  7. Joo, Y. H. (2004). Facial Image Analysis Algorithm for Emotion Recognition. Proceedings of Korea Fuzzy Logic and Intelligent Systems Vol. 14, No. 7, pp. 801-806 

  8. Shim, K. B. & Park, C. H. (2001). Analyzing the element of emotion recognition from speech. Proceedings of Korea Fuzzy Logic and Intelligent Systems Vol 11, No6, pp.510-515 

  9. Ko, H. J. (2004). Emotion Recognition Method from Speech Signal Using the Wavelet Transform. Proceedings of Korea Fuzzy Logic and Intelligent Systems Vol. No 2, pp.150-155 

  10. Vogt, T. & Elisabeth, A.(2006). Improving automatic emotion recognition from speech via gender differentiation. Proc. Language Resources and Evaluation Conference (LREC 2006), Genoa. 

  11. Bos, D. O. (2006). EEG-based emotion recognition. The Influence of Visual and Auditory Stimuli pp 1-17. 

  12. P. Ekman,(1992). An Argument for Basic Emotions. Basic Emotions, N. Stein and K.Oatley, eds. Lawrence Erlbaum, pp. 169-200. 

  13. Hancock, P. A., & I. Vasmatzidis, I. (2003). Effects of Heat Stress on Cognitive Performance: The Current State of Knowledge. International Journal of Hyperthermia, 19(3), 355?372. 

  14. Terracciano, A. & Merritt, M. & Zonderman, A. B. & Evans, M. K. (2003). Personality traits and sex differences in emotion recognition among African Americans and Caucasians. Annals of the New York Academy of Sciences, 1000(1), 309-312. 

  15. Matsumoto, D. & Kudoh, T. (1993). American-Japanese cultural differences in attributions of personality based on smiles. Journal of Nonverbal Behavior, 17(4), 231-243. 

  16. Frijda, N. H. (1986). The emotions. Cambridge University Press 

  17. Lang, P. J. (1995). The emotion probe: Studies of motivation and attention. American psychologist, 50(5), 372. 

  18. Rotter, N. G. & Rotter, G. S. (1988). Sex differences in the encoding and decoding of negative facial emotions. Journal of Nonverbal Behavior, 12(2), 139-148. 

  19. Fivush, R. & Brotman, M. A. & Buckner, J. P. & Goodman, S. H. (2000). Gender differences in parent?child emotion narratives. Sex Roles, 42(3-4), 233-253. 

  20. Ekman, P. (1992). An argument for basic emotions. Cognition & Emotion, 6(3-4), 169-200. 

  21. M. Deivamani, R.Baskaran, P. Dhavachelvan (2008). Improving Emotion Recognition with a Learning Multi-agent system. Department of Computer Science & Engineering, Anna University, Chennai, India 

  22. Hancock, P. J. B & Burton, A. M. & Bruce, V.(1996). Face Processing : human perception and principal component analysis. Memory and Cognition, Vol.24, No.1, p26-40 

  23. Lu, J. & Plataniotis, K. N. & Venetsanopoulos, A. N. (2003). Face recognition using LDA-based algorithms. Neural Networks, IEEE Transactions on, 14(1), 195-200. 

  24. Lee, T. W. (1998). Independent component analysis, theory and applications. 

  25. Shim, K. B. (2008). Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm. Korea Fuzzy Logic and Intelligent Systems, 18(1), 20-26 

  26. Picard, R. W. & Vyzas, E. & Healey, J. (2001). Toward machine emotional intelligence: Analysis of affective physiological state. IEEE Transactions on Pattern Analysis and Machine Intelligence, 23(10), 1175.1191. 

  27. Keltner, D. (1996). Facial expressions of emotion and personality. Handbook of emotion, adult development, and aging, 385-401. 

  28. Ball, G., & Breese, J. (2000). Emotion and personality in a conversational agent. Embodied conversational agents, 189-219. 

  29. Fraunhofer IIS SHORETM http://www.iis.fraunhofer.de 

  30. MBTI test (Demo Version) http://mbtitest.net/sub/- 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로