$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

가상 인간의 감정 표현 인식을 위한 비언어적 다중모달 영향 분석
Impact Analysis of nonverbal multimodals for recognition of emotion expressed virtual humans 원문보기

인터넷정보학회논문지 = Journal of Korean Society for Internet Information, v.13 no.5, 2012년, pp.9 - 19  

김진옥 (대구한의대학교 국제문화정보대학 모바일콘텐츠학부)

초록
AI-Helper 아이콘AI-Helper

디지털 콘텐츠에서 HCI로 활용되는 가상 인간은 얼굴 표정과 신체자세와 같은 모달을 이용하여 다양한 감정을 표현하지만 비언어적 다중모달의 조합에 대한 연구는 많지 않다. 감정을 표현하는 가상 인간을 제작하려면 계산 엔진 모델은 얼굴 표정과 신체자세와 같은 비언어적 모달의 조합이 사용자에 의해 어떻게 인식되는지를 고려해야 하기 때문에 본 연구는 가상 인간의 감정 표현 디자인에 필요한 비언어적 다중모달의 영향을 분석하여 제시한다. 먼저 가상 인간에 대한 다중모달 별 감정 인식을 평가하여 다른 모달간의 상대적 영향성을 분석하였다. 그리고 일치하는 얼굴과 자세 모달을 통해 기본 감정 및 정서가와 활성화 인식에 대한 영향을 평가하며 감정이 불일치하는 다중모달을 통해 일상생활에서 빈번하게 드러나는 중첩된 감정의 인식 정도를 관측하였다. 실험 결과, 가상 인간의 얼굴과 신체자세의 표정이 일치하면 감정 인식이 용이하며, 얼굴 표정으로 감정 카테고리를 판별하지만 감정의 활성화 차원 판단에는 자세 모달리티가 선호됨을 확인하였다. 본 연구 결과는 감정을 드러내는 가상 인간의 행동 동기화 및 애니메이션 엔진 시스템 구현에 활용할 수 있다.

Abstract AI-Helper 아이콘AI-Helper

Virtual human used as HCI in digital contents expresses his various emotions across modalities like facial expression and body posture. However, few studies considered combinations of such nonverbal multimodal in emotion perception. Computational engine models have to consider how a combination of n...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 감정 인식은 주로 얼굴 표정을 통해 이루어지지만 자세에서도 영향을 받는다. 감정 표현 모달 실험은 단일 감정 인식과정에서 얼굴과 자세 그리고 얼굴+자세 모달이 감정 인식에 미치는 영향을 파악하는 것을 목적으로 했다. 실험 결과, 자세와 얼굴 모달이 일치하지 않아 여러 감정이 섞여 나타나는 경우 자세가 감정의 활성화 정도를 평가하는데 유용하였다.
  • 얼굴 표정이 정확하게 인지되지 않은 때 감정을 전달하는 신체언어가 특히 더 중요한 역할을 하게 되므로 가상 인간의 감정 다중모달은 당연히 고려되어 할 내용이다. 따라서 본 연구에서는 가상 인간이 감정을 여러 모달을 통합하여 전달하는 데 효과적인 표현 방법을 분석하고 가상 인간이 나타내는 감정 표현을 피실험자가 어떻게 인식하는지를 평가한 내용을 다룬다. 이를 위해 가상 인간을 설정한 후 (그림 2)와 같은 구조로 얼굴, 자세, 얼굴+자세 감정 모달에 대해 기본 감정 인식 정도, 감정 활성화 정도와 감정 정서가를 대상으로 가상 인간의 감정 표현에 필요한 감정 모달 개별로, 다중 모달이 일치했을 때, 다중 모달이 불일치할 때의 경우를 실험하여 평가한다.
  • 가상 인간의 감정 표현에 대한 이러한 필요성을 바탕으로 본 연구는 가상 인간이 감정을 표현하는 얼굴과 신체 자세를 모달로 이용하여 다양한 감정을 표현하는 방법을 분석한다. 또한 일상생활에서 빈번하게 나타내는 중첩된 감정의 인식 과정에서 서로 일치하는 않는 얼굴과 자세표정이 감정 인식에 미치는 영향을 다룬다. 특히 가상인간의 감정 크기를 인식하는데 영향을 끼치는 자세 모달리티를 새롭게 분석한다.
  • 본 연구는 가상 인간의 자세와 얼굴의 모달 조합을 통해 감정을 표현하는 감정 모달 간의 상관성을 분석하고 얼굴과 자세 모달을 통해 다양한 감정이 제시될 때 모달이 감정 인식에 어떤 영향을 미치는지 확인하기 위해 두가지 실험을 수행했다. 이를 위해 디지털콘텐츠의 가상 인간과 유사한 캐릭터를 설계하고 이 가상 인간이 드러내는 비언어적 감정 표현을 피실험자가 인식하여 감정카테고리 상태를 판단하도록 하였다.
  • 본 연구는 사람이 가상 인간이 표현하는 감정을 인식할 때 얼굴, 자세, 얼굴+자세와 같은 비언어적 모달이 어떤 영향을 주는지 분석한다. 이를 위해 슬픔, 두려움, 분노, 놀람, 기쁨 과 같은 기본 감정을 얼굴 표정과 자세로 표현한 결과를 피실험자가 인식하고 감정 표현의 능동/수동적 측면을 고려한 활성화 정도, 긍정적 감정인지 부정적 감정인지를 판단하는 정서가 정도를 인식하는 실험을 수행한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
감정은 무엇인가? 감정은 신체 기관이 의미 있는 자극에 대응하여 인식과 인식 처리, 주관적 느낌, 행동 경향, 생리적 변화, 운동 신경 표현의 5개 관련 요소를 서로 연관시키고 동시에 발생시키는 사건이다[1]. 감정 정보는 얼굴 표정 음성, 언어, 자세, 머리 움직임, 신체 움직임, 자세를 포함한 광범위한 모달을 통해 전달되므로 감정관련 다중모달의 표현 동시성이 감정 인식에 중요함에도 감정 인식에 대한 대부분의 연구는 얼굴 표정 및 신체 자세의 개별적인 모달을 통해 감정 인식을 수행하고 있다[2].
가상 인간의 감정 표현 디자인에 필요한 비언어적 다중모달의 영향을 분석을 실험한 결과는? 그리고 일치하는 얼굴과 자세 모달을 통해 기본 감정 및 정서가와 활성화 인식에 대한 영향을 평가하며 감정이 불일치하는 다중모달을 통해 일상생활에서 빈번하게 드러나는 중첩된 감정의 인식 정도를 관측하였다. 실험 결과, 가상 인간의 얼굴과 신체자세의 표정이 일치하면 감정 인식이 용이하며, 얼굴 표정으로 감정 카테고리를 판별하지만 감정의 활성화 차원 판단에는 자세 모달리티가 선호됨을 확인하였다. 본 연구 결과는 감정을 드러내는 가상 인간의 행동 동기화 및 애니메이션 엔진 시스템 구현에 활용할 수 있다.
감정 정보는 무엇을 통해 전달되는가? 감정은 신체 기관이 의미 있는 자극에 대응하여 인식과 인식 처리, 주관적 느낌, 행동 경향, 생리적 변화, 운동 신경 표현의 5개 관련 요소를 서로 연관시키고 동시에 발생시키는 사건이다[1]. 감정 정보는 얼굴 표정 음성, 언어, 자세, 머리 움직임, 신체 움직임, 자세를 포함한 광범위한 모달을 통해 전달되므로 감정관련 다중모달의 표현 동시성이 감정 인식에 중요함에도 감정 인식에 대한 대부분의 연구는 얼굴 표정 및 신체 자세의 개별적인 모달을 통해 감정 인식을 수행하고 있다[2]. 또한 감정 인식에 대한 이전 연구들은 감정 표현을 담당하는 개별 채널에 집중하면서 의도적이고 과장된 표정만을 주로 인식하며 사람들이 일반 환경에서 만나는 복합적인 다중모달 감정 신호는 그다지 고려하지 않는 문제점을 보이고 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (23)

  1. K.R. Scherer, "Emotion, Introduction to Social Psychology: A European perspective", Oxford: Blackwell, pp.151-191, 2000. 

  2. J. A. Harrigen, "The new handbook of methods in nonverbal behavior research", Series in Affective Science, Oxford University Press, pp. 137-198, 2005. 

  3. T. Partala, V. Suraka, "The effects of affective interventions in human-computer interaction". Interacting with Computers, Vol. 16, pp. 205-309, 2004. 

  4. H. Gunes, M. Piccardi, M. Pantic, "From the lab to the Real World : Affect Recognition Using Multiple Cues and Modalities," Affective Computing, Focus on Emotion Expression, Synthesis and Recognition, Tech Education and Publishing, pp.184-218, 2008. 

  5. C. Izard, "Human Emotions", Plenum, New York, 1977. 

  6. J. A. Russell, "A circumplex model of affect", Journal of Personality and Social Psychology, Vol. 39, No. 6, pp 1161-1178, 1980. 

  7. K. R. Scherer, "Analyzing Emotion Blends", Proceedings of the Xth Conference of the International Society for Research on Emotions, Fischer, pp.142-148, 1998. 

  8. P. Ekman, W. Friesen, "A new pan-cultural facial expression of emotion", Motivation and Emotion, Vol. 10, pp.159-168, 1986. 

  9. "표정 강도에 강건한 얼굴 표정 인식", 정보처리학회 논문지 B, 제 16-B권 5호, pp. 395-402, 2009. 

  10. H. Gunes, M. Piccardi, "Bi-modal emotion recognition from expressive face and body gestures", Journal of Network & Computer Applications, Vol. 30, No. 4, pp.1334-1345, 2007. 

  11. A.T. Dittman, "The role of body movement in communication", Nonverbal behavior and communication, Lawrence Erlbaum, Hillsdale, 1987. 

  12. 김진옥. "감정 자세 인식을 위한 자세특징과 감정 예측 모델", 한국인터넷정보학회 논문지, 제 12권 6호, pp. 83-94, 2011. 

  13. H.G. Wallbott, "Bodily expression of emotion", European Journal of Social Psychology, Vol. 28, pp.879-896, 1998. 

  14. K.R. Scherer, H. Ellgring, "Multimodal Expression of Emotion: Affect Programs or Componential Appraisal Patterns", Emotion, Vol. 7, No. 1, pp.158-171, 2007. 

  15. J. K. Hietanen, J. M. Leppanen, "Judgment of other people''s facial expressions of emotions is influenced by their concurrent affective hand movements", Scandinavian Journal of Psychology, Vol. 49, pp.221-230, 2008. 

  16. H.K.M. Meeren, C. van Heijnsbergen, B. de Gelder, "Rapid perceptual integration of facial expression and emotional body language", Proceedings of the National Academy of Sciences of the USA, pp.16518-16523, 2005. 

  17. R. Niewiadomski, "A model of complex facial expressions in interpersonal relations for animated agent",. PhD Thesis, University of Perugia, 2007. 

  18. T. Ziemke, R. Lowe, "On the role of emotion in embodied cognitive architectures: From organisms to robots, Cognitive Computation, Vol. 1, pp. 104-117, 2009. 

  19. C. Pelachaud, "Multimodal expressive embodied nonversational virtuals", Proceedings of the 13th annual ACM international conference on Multimedia, pp.632-689, 2005. 

  20. D. Ballin, M. Gillies, B. Crabtree, "A Framework For Interpersonal Attitude And Non-Verbal communication in Improvisational Visual Media Production", 1st European Conference on Visual Media Production IEE,. 2004. 

  21. S. Buisine, S. Abrilian, R. Niewiadomski, J. C. Martin, L. Devillers, C. Pelachaud, "recognition of blended emotions: From video corpus to expressive virtual", International Conference on intelligent Virtuals, Springer-Verlag, pp.93-106, 2006. 

  22. J. A. Hall, D. Matsumoto, "Gender differences in judgments of multiple emotions from facial expressions",. Emotion, Vol. 4, No. 2, pp. 201-206, 2004. 

  23. 김진옥. "새로운 얼굴 특징공간을 이용한 모델 기반 얼굴 표정 인식, 한국정보처리학회 논문지 B, 제 17-B권 4호, pp.309-316, 2010. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로