$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

상반된 감성에 따른 안면 움직임 차이에 대한 분석
Analysis of Facial Movement According to Opposite Emotions 원문보기

한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.15 no.10, 2015년, pp.1 - 9  

이의철 (상명대학교 컴퓨터과학과) ,  김윤경 (상명대학교 대학원 컴퓨터과학과) ,  배민경 (상명대학교 대학원 컴퓨터과학과) ,  김한솔 (상명대학교 대학원 컴퓨터과학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 Kinect 카메라를 통해 촬영된 영상 처리를 통해 상반된 감성 자극 관점에서 안면 움직임의 차이를 분석하는 연구를 진행하였다. Russell의 2차원 감성 모델에서 원점 대칭 위치에 존재하는 두 상반된 감성인 "Sad - Excitement", "Contentment - Angry" 감성을 유발하기 위해 피험자에게 시각자극과 청각자극을 동시에 제공하였다. Kinect Face Tracking SDK에서 제공되는 121개 특징점으로 구성된 안면 active appearance model에서 안면 움직임을 잘 표현하는 31개의 주요 특징점 주변의 화소 변화를 측정하였다. 안면 근육의 비선형적 움직임 문제를 해결하기 위해 지역 이동 기반 최소거리 결정 방법(local minimum shift matching)을 사용하였다. 분석 결과, sad 감성에서는 우측 안면 움직임이 많이 나타났고, excitement 감성에서는 좌측 안면 움직임이 많이 나타남으로써 두 상반된 감성 자극에 대한 안면 움직임의 위치 또한 상반된 결과를 보였다. 또한 "Contentment" 감성에서는 좌측 안면 움직임이 많이 나타났고, "Angry" 감성에서는 안면의 좌우 구분 없이 움직임이 나타남으로써, 두 상반된 감성 자극에 대해서는 우측 안면에서 차이를 확인할 수 있었다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, a study on facial movements are analyzed in terms of opposite emotion stimuli by image processing of Kinect facial image. To induce two opposite emotion pairs such as "Sad - Excitement"and "Contentment - Angry" which are oppositely positioned onto Russell's 2D emotion model, both visu...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 또한 “Angry” 감성에서도 눈 주변 근육의 움직임에서 유사성을 확인할 수 있다. 본 논문에서는 감성에 따라 변화하는 안면움직임을 확인하기 보다는 상반된 감성에서 나타나는 안면 움직임의 차이를 확인하였다. Kinect 카메라로 촬영된 영상을 통해 감성들을 유발하였을 때, 두 상반된 감성 자극에 대한 안면 움직임의 위치 또한 상반된 결과를 나타냄을 확인하였다.
  • 본 논문에서는 두 쌍의 상반된 감성을 유발하였을 때의 얼굴 영상 취득하여, 상반된 감성에서 나타나는 안면 움직임의 차이를 분석하였다. 분석을 위해 유발한 두 상반된 감성은 Russell이 정의한 2차원 감성모델에서 원점 대칭 위치에 존재하는 감성들이다[16].
  • 본 연구에서는 얼굴 주요 지점의 프레임 간 차이를 분석하여, 감성에 따른 얼굴 위치별 움직임의 차이를 분석한다. 시간의 흐름에 따른 특징 변화를 분석하여 감성 인식을 시도한 연구들은 다음과 같다.
  • 이러한 기존 연구들의 문제를 해결하기 위해, 본 논문에서는 Kinect 카메라에서 제공하는 3차원 영상 기반 Face Tracking SDK를 사용하여 수행속도 문제를 해결하였다[14]. 또한 [그림 1]과 같이 정확한 인식을 위해서 과도하게 나타내는 표정은 실제 감성을 나타낸다고 하기에는 어렵다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
기존의 카메라 기반 감성측정 방법에는 무엇이 있는가? 카메라 기반 감성 측정방법은 신체에 장치를 착용하지 않을 뿐만 아니라 인체 표면의 다양한 특성을 측정할 수 있다는 장점이 있다. 기존의 카메라 기반 감성측정 방법은 제스처 분석을 통한 측정방법, 눈 영상을 분석하는 방법, 얼굴 표정을 분석하는 방법 등이 있다[4-8]. 제스처는 내적 감성보다는 외적 표현 수단이므로, 감성 측정 보다는 입력 인터페이스 수단으로 사용되는 경우가 많다.
기존의 카메라 기반 감성측정 방법 중 눈 영상을 분석하는 방법은 어떤 단점을 가지는가? 제스처는 내적 감성보다는 외적 표현 수단이므로, 감성 측정 보다는 입력 인터페이스 수단으로 사용되는 경우가 많다. 눈 영상을 분석하여 감성을 측정하는 방법은 눈 영역의 크기가 작은 만큼 고해상도의 카메라나 줌 렌즈 등의 장치적 요구조건이 까다롭다[5]. 얼굴 표정은 인간의 감성이 가장 풍부하게 표현되는 특징으로, 얼굴의 다양한 부위별 특징과 상대적으로 넓은 영역에서 분석 가능하므로, 일반 카메라를 통해 인식하고 감성을 측정 하는 방법으로 가장 적절하다고 할 수 있다.
카메라 기반 감성 측정방법의 장점은 무엇인가? 이에 대한 대안으로 여러 가지 분야에 활용도가 높은 카메라 기반 측정 방법을 고려할 수 있다. 카메라 기반 감성 측정방법은 신체에 장치를 착용하지 않을 뿐만 아니라 인체 표면의 다양한 특성을 측정할 수 있다는 장점이 있다. 기존의 카메라 기반 감성측정 방법은 제스처 분석을 통한 측정방법, 눈 영상을 분석하는 방법, 얼굴 표정을 분석하는 방법 등이 있다[4-8].
질의응답 정보가 도움이 되었나요?

참고문헌 (23)

  1. M. W. Park, C. J. Kim, M. Whang, and E. C. Lee, "Individual Emotion Classification between Happiness and Sadness by Analyzing Photoplethysmography and Skin Temperature", 2013 Fourth World Congress on Software Engineering(WCSE), pp.190-194, 2013. 

  2. N. Wu, H. Jiang, and G. Yang, "ECG Emotion recognition based on physiological signals", Lecture Notes in Computer Science, pp.311-320, 2012. 

  3. F. C. Chang, C. K. Chang, C. C. Chiu, S. F. Hsu, and Y. D. Lin, "ECG Variations of HRV analysis in different approaches", In Proc. Of Computers in Cardiology, pp.17-20, 2007. 

  4. K. Kaneko and K. Sakamoto, "Spontaneous Blinks as a Criterion of Visual Fatigue during Prolonged Work on Visual Display Terminals", J. of Perceptual and Motor Skills, Vol.92, No.1, pp.234-350, 2001. 

  5. E. Lee, H. Heo, and K. Park, "The Comparative Measurements of Eyestrain Caused by 2D and 3D Displays", IEEE Transaction on Consumer Electronics, Vol.56, No.3, pp.1677-1683, 2010. 

  6. H. Gunes and M. Piccardi, "Bi-model emotion recognition from expressive face and body gesture", J. of Network and Computer Applications, Vol.30, No.4, pp.1334-1345, 2007. 

  7. T. Partatla and V. Surakka, "Pupil Size Variationl as an Indication of Affective Processing", Int. J. Human-Computer Studies, Vol.59, No.1-2, pp.185-198, 2003. 

  8. Y. song, L. Morency, and R. Davis, "Learning a Sparse Codebook of Facial and Body Microe xpressions for Emotion Recognition", ICMI, pp.237-244, 2013. 

  9. B. Heisele, "Face Recognition with Support Vector Machines: Global Versus Component-based Approach", ICCV, Vol.2, pp.688-694, 2001. 

  10. T. Wang, H. Ai, B. Wu, and C. Huang, "Real Time Facial Expression Recognition with Adaboost", ICPR, Vol.3, pp.926-929, 2004. 

  11. H. Sunghee and B. Hyeran, "Facial Expression Recognition using Eigen-points", Korean Institute of Information Science and Engineering, Vol.31, No.1, pp.817-819, 2004. 

  12. L. Zhang, "Facial Expression Recognition Using Facial Movement Features", IEEE Transactions on Biometrics Compendium, Vol.2, No.4, pp.219-229, 2011. 

  13. E. Lee, M. Whang, D. Ko, S. Park, and S. Hwang, "A new social emotion estimating method by measuring micro movement of human bust", Industrial Application of Affective Engineering, pp.19-26, 2014. 

  14. A. Jana, Kinect for Windows SDK Programming Guide, contents Packt, 2014. 

  15. Michael J. Lyons, Shigeru Akamatsu, Miyuki Kamachi, and Jiro Gyoba, "Coding Facial Expressions with Gabor Wavelets", Third IEEE International Conference on Automatic Face and Gesture Recognition, Nara Japan, IEEE Computer Society, pp.200-205, 1998. 

  16. J. Russell, "A Circumplex Model of Affect", J. of Personality and Social Psychology, Vol.39, No.6, pp.1161-1178, 1980. 

  17. Y. Kim, H. Kim, and E. Lee, "Emotion Classification using Facial Temporal Sparsity", Int. J. of Applied Engineering Research, Vol.9, No.24, pp.24793-24801, 2014. 

  18. T. Ahonen, A. Hadid, and M. Pietikainen, "Face Description with Local Binary Patterns: Application to Face Recognitiom", IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol.28, No.12, pp.2037-2041, 2006. 

  19. W. Richard, "Error Detecting and Error Correction Codes", J. of Bell System Technical, Vol.29, No.2, pp.147-160, 1950. 

  20. http://hmi.ewi.utwente.nl/verslagen/capita-selecta/CS-Oude_Bos-Danny.pdf 

  21. M. Jana and A. Hanbury, "Affective Image Classification Using Features Inspired by Psyhology and Art Theory", MM, pp.83-92, 2010. 

  22. http://musicovery.com/index.php?ctus 

  23. P. Ekman and W. Friesen, Facial Action Coding System: A Technique for the Measurement of Facial Movement, Consulting Psychologists Press, 1978. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로