본 논문에서는 Kinect 카메라를 통해 촬영된 영상 처리를 통해 상반된 감성 자극 관점에서 안면 움직임의 차이를 분석하는 연구를 진행하였다. Russell의 2차원 감성 모델에서 원점 대칭 위치에 존재하는 두 상반된 감성인 "Sad - Excitement", "Contentment - Angry" 감성을 유발하기 위해 피험자에게 시각자극과 청각자극을 동시에 제공하였다. Kinect Face Tracking SDK에서 제공되는 121개 특징점으로 구성된 안면 active appearance model에서 안면 움직임을 잘 표현하는 31개의 주요 특징점 주변의 화소 변화를 측정하였다. 안면 근육의 비선형적 움직임 문제를 해결하기 위해 지역 이동 기반 최소거리 결정 방법(local minimum shift matching)을 사용하였다. 분석 결과, sad 감성에서는 우측 안면 움직임이 많이 나타났고, excitement 감성에서는 좌측 안면 움직임이 많이 나타남으로써 두 상반된 감성 자극에 대한 안면 움직임의 위치 또한 상반된 결과를 보였다. 또한 "Contentment" 감성에서는 좌측 안면 움직임이 많이 나타났고, "Angry" 감성에서는 안면의 좌우 구분 없이 움직임이 나타남으로써, 두 상반된 감성 자극에 대해서는 우측 안면에서 차이를 확인할 수 있었다.
본 논문에서는 Kinect 카메라를 통해 촬영된 영상 처리를 통해 상반된 감성 자극 관점에서 안면 움직임의 차이를 분석하는 연구를 진행하였다. Russell의 2차원 감성 모델에서 원점 대칭 위치에 존재하는 두 상반된 감성인 "Sad - Excitement", "Contentment - Angry" 감성을 유발하기 위해 피험자에게 시각자극과 청각자극을 동시에 제공하였다. Kinect Face Tracking SDK에서 제공되는 121개 특징점으로 구성된 안면 active appearance model에서 안면 움직임을 잘 표현하는 31개의 주요 특징점 주변의 화소 변화를 측정하였다. 안면 근육의 비선형적 움직임 문제를 해결하기 위해 지역 이동 기반 최소거리 결정 방법(local minimum shift matching)을 사용하였다. 분석 결과, sad 감성에서는 우측 안면 움직임이 많이 나타났고, excitement 감성에서는 좌측 안면 움직임이 많이 나타남으로써 두 상반된 감성 자극에 대한 안면 움직임의 위치 또한 상반된 결과를 보였다. 또한 "Contentment" 감성에서는 좌측 안면 움직임이 많이 나타났고, "Angry" 감성에서는 안면의 좌우 구분 없이 움직임이 나타남으로써, 두 상반된 감성 자극에 대해서는 우측 안면에서 차이를 확인할 수 있었다.
In this paper, a study on facial movements are analyzed in terms of opposite emotion stimuli by image processing of Kinect facial image. To induce two opposite emotion pairs such as "Sad - Excitement"and "Contentment - Angry" which are oppositely positioned onto Russell's 2D emotion model, both visu...
In this paper, a study on facial movements are analyzed in terms of opposite emotion stimuli by image processing of Kinect facial image. To induce two opposite emotion pairs such as "Sad - Excitement"and "Contentment - Angry" which are oppositely positioned onto Russell's 2D emotion model, both visual and auditory stimuli are given to subjects. Firstly, 31 main points are chosen among 121 facial feature points of active appearance model obtained from Kinect Face Tracking SDK. Then, pixel changes around 31 main points are analyzed. In here, local minimum shift matching method is used in order to solve a problem of non-linear facial movement. At results, right and left side facial movements were occurred in cases of "Sad" and "Excitement" emotions, respectively. Left side facial movement was comparatively more occurred in case of "Contentment" emotion. In contrast, both left and right side movements were occurred in case of "Angry" emotion.
In this paper, a study on facial movements are analyzed in terms of opposite emotion stimuli by image processing of Kinect facial image. To induce two opposite emotion pairs such as "Sad - Excitement"and "Contentment - Angry" which are oppositely positioned onto Russell's 2D emotion model, both visual and auditory stimuli are given to subjects. Firstly, 31 main points are chosen among 121 facial feature points of active appearance model obtained from Kinect Face Tracking SDK. Then, pixel changes around 31 main points are analyzed. In here, local minimum shift matching method is used in order to solve a problem of non-linear facial movement. At results, right and left side facial movements were occurred in cases of "Sad" and "Excitement" emotions, respectively. Left side facial movement was comparatively more occurred in case of "Contentment" emotion. In contrast, both left and right side movements were occurred in case of "Angry" emotion.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
또한 “Angry” 감성에서도 눈 주변 근육의 움직임에서 유사성을 확인할 수 있다. 본 논문에서는 감성에 따라 변화하는 안면움직임을 확인하기 보다는 상반된 감성에서 나타나는 안면 움직임의 차이를 확인하였다. Kinect 카메라로 촬영된 영상을 통해 감성들을 유발하였을 때, 두 상반된 감성 자극에 대한 안면 움직임의 위치 또한 상반된 결과를 나타냄을 확인하였다.
본 논문에서는 두 쌍의 상반된 감성을 유발하였을 때의 얼굴 영상 취득하여, 상반된 감성에서 나타나는 안면 움직임의 차이를 분석하였다. 분석을 위해 유발한 두 상반된 감성은 Russell이 정의한 2차원 감성모델에서 원점 대칭 위치에 존재하는 감성들이다[16].
본 연구에서는 얼굴 주요 지점의 프레임 간 차이를 분석하여, 감성에 따른 얼굴 위치별 움직임의 차이를 분석한다. 시간의 흐름에 따른 특징 변화를 분석하여 감성 인식을 시도한 연구들은 다음과 같다.
이러한 기존 연구들의 문제를 해결하기 위해, 본 논문에서는 Kinect 카메라에서 제공하는 3차원 영상 기반 Face Tracking SDK를 사용하여 수행속도 문제를 해결하였다[14]. 또한 [그림 1]과 같이 정확한 인식을 위해서 과도하게 나타내는 표정은 실제 감성을 나타낸다고 하기에는 어렵다.
제안 방법
High arousal의 “Excitement” 감성과 Low arousal의 “Sad” 감성을 하나의 상반된 감성으로 설정하였고, High valence의 “Contentment” 감성과 Low valence의 “Angry" 감성을 다른 하나의 상반된 감성으로 설정하였다.
인접한 두 프레임의 비교영역 이동 방법은 [그림 5]과 같고, 빨간색 사각형 영역에 대하여, 프레임 간 특징 거리를 계산하였다. 계산된 특징 거리 중 최소값을 나타내는 위치로 정렬 한 후 교집합 영역의 평균 화소값 차이를 계산함으로써, 이전 프레임을 기준으로 움직임량을 계산한다.
첫 번째로, 'musicovery' 웹사이트에서 감성 당 5개씩, 총 20개의 후보 음향을 추출 하였다. 두 번째 검증과정으로는 집단심층면접법(FGD, Focus Group Discussion)을 수행하여 후보 음향을 12 개로 줄였다. 세 번째로 집단심층면접법으로 추출된 음향들을 카이제곱검정을 통해 적합성을 검증하였다.
두 번째로 Russell의 2차원 감성모델에서 High valence 성향의 “Contentment” 감성과 Low valence 성향의 “Angry” 감성을 유발하였을 때 나타나는 안면 움직임의 차이를 분석하였다.
따라서 음수가 나오는 경우는 Neutral 감성에서의 안면 움직임보다 감성이 유발되었을 때 움직임이 적다고 판단할 수 있고, 양수의 경우는 그 반대의 경우라고 할 수 있다. 두 쌍의 상반된 감성에서 나온 결과들의 평균값을 안면 움직임의 정도를 파악할 수 있는 기준 수치로 설정하였다. [그림 8]은 분석에서 사용한 31개의 점을 Kinect 카메라에서 추출되는 순서로 번호를 부여하였다.
시각자극으로 제공된 이미지는 감성 당 50장으로, 1장 당 5초씩 제공하여, 한감성에 대한 실험은 4분 16초 동안 진행되었다. 또한 이전에 측정한 감성이 현재 측정하는 감성에 영향을 끼치는 것(order effect)를 최소화하기 위하여 감성 유발 순서는 랜덤하게 하였고, 측정되는 감성들 사이에 2분의 쉬는 시간을 두었다. 실험 순서는 [그림 7]과 같다.
이전 프레임과의 안면 움직임 변화를 측정하기 위해 특징 점을 중심으로 하는 사각형 영역 (10픽셀×10픽셀)에 대하여 주변 화소 변화를 측정하는 지역 이동 기반 최소거리 결정 방법을 사용하였다[17]. 먼저 LBP(Local Binary Pattern) 방법을 사용하여 이전 프레임과의 미세한 위치 변화 정렬을 위한 과정을 거친다. LBP는 중심 화소의 8개 이웃화소와의 비교를 통해 영역의 질감 특징을 검출하는 방법이다[18].
본 연구에서 사용한 안면 움직임 분석 방법은 부위별 미세 움직임을 확인할 수 있게 한다. 따라서 구안와사와 같은 안면 신경마비 증상을 보이는 환자들의 안면 움직임을 측정하는 데에 활용할 수 있을 것이다.
본 연구에서는 Russell의 감성모델을 기준으로 대각 사분면에 존재하는 감성들을 상반된 감성으로 설정하여 비교분석 하였다. 추가적으로 분석해본 결과 High arousal 성향인 “Angry”감성과 “Excitement”의 감성의 경우 동일하게 양측 안면에서 움직임이 높게 나타났다.
FACS 는 심리학자인 에크만이 1978년에 표정에 따른 얼굴 근육 움직임을 정의한 시스템으로, 감성에 따른 안면인식 연구에서 기준이 되어 왔다[22]. 본 연구에서는 시각자극과 청각자극 두 개만으로 감성을 유발하였고, 31Hz의 아주 짧은 시간에 나타난 표정을 분석하였다. 그렇기 때문에 일반적으로 정의되어 완전한 표정을 묘사한 Action Unit과 완벽히 일치하기는 어렵다.
본 연구에서는 시각자극과 청각자극을 동시에 제공 하는 것이 감성을 가장 효과적으로 유발한다는 기존 연구에 근거하여 두 자극요소를 동시에 제공하였다[19]. 시각자극은 low-level 단위로 분석한 결과 감성 유발 효율성이 입증된 ‘Artistic photography from a photo sharing site’의 이미지를 사용하였고, 청각자극은 Russell의 2차원 감성모델과 동일한 평면으로 음악을 분류한 ‘musicovery’ 웹사이트에서 제공받았다[20][21].
시각자극은 low-level 단위로 분석한 결과 감성 유발 효율성이 입증된 ‘Artistic photography from a photo sharing site’의 이미지를 사용하였고, 청각자극은 Russell의 2차원 감성모델과 동일한 평면으로 음악을 분류한 ‘musicovery’ 웹사이트에서 제공받았다[20][21]. 본 연구에서는 음향의 객관성을 검증하기 위해 4단계의 검증과정을 진행하였다. 첫 번째로, 'musicovery' 웹사이트에서 감성 당 5개씩, 총 20개의 후보 음향을 추출 하였다.
피험자는 모니터 앞에 편안한 자세로 앉아서 청각자극을 위한 이어폰을 착용하였다. 시각자극으로 제공된 이미지는 감성 당 50장으로, 1장 당 5초씩 제공하여, 한감성에 대한 실험은 4분 16초 동안 진행되었다. 또한 이전에 측정한 감성이 현재 측정하는 감성에 영향을 끼치는 것(order effect)를 최소화하기 위하여 감성 유발 순서는 랜덤하게 하였고, 측정되는 감성들 사이에 2분의 쉬는 시간을 두었다.
다른 연구에서는 카메라 기반으로 상체의 움직임을 분석하여, 사회감성을 측정하는 방법을 제시한 연구가 있다[13]. 이 연구에서는 Adaboost 알고리즘을 이용하여 얼굴의 위치를 찾고, 연속하는 두 개의 프레임의 밝기 차이를 이용하여 피험자의 사회감성에 따라 나타나는 움직임을 분석하였다. 하지만, 단순히 밝기 차이로 움직임을 판단하는 방법은 인체의 3차원적인 움직임에 의한 2차원 영상에 서의 비선형적 기하 변환 요소를 고려했다고 할 수 없다.
기존에 안면의 움직임을 파악하여, 얼굴 표정을 분석한 연구가 있다. 이 연구에서는 트레이닝 영상에서 3차원 가버 특징을 추출하고, 특징을 패치(patch)화 하여 입력 영상에서 매칭하는 방식을 통해 표정을 인식하였다[12]. 하지만, 여러 장의 정지영상을 이용하여 얼굴의 부위별 움직임을 측정하는 것은 안면 근육의 움직임이나 특징 요소를 충분히 반영했다고 할 수 없다.
이전 프레임과의 안면 움직임 변화를 측정하기 위해 특징 점을 중심으로 하는 사각형 영역 (10픽셀×10픽셀)에 대하여 주변 화소 변화를 측정하는 지역 이동 기반 최소거리 결정 방법을 사용하였다[17].
첫 번째로 Russell의 2차원 감성모델에서 세로축 (Arousal축)을 기준으로 High arousal 성향인 “Excitement” 감성과 Low arousal 성향인 “Sad” 감성 에서 나타나는 안면 움직임의 차이를 분석하였다.
LBP는 중심 화소의 8개 이웃화소와의 비교를 통해 영역의 질감 특징을 검출하는 방법이다[18]. 추출된 안면 근육 패턴들은 상하좌우 2픽셀씩 이동하며 총 23회 HD(Hamming Distance)를 계산하여, 가장 최소 HD가 나타나는 지점을 결정함으로써, 이전 프레임과의 정렬을 수행한다. 인접한 두 프레임의 비교영역 이동 방법은 [그림 5]과 같고, 빨간색 사각형 영역에 대하여, 프레임 간 특징 거리를 계산하였다.
대상 데이터
그리고 눈, 코, 입 주변의 점들의 경우, 근접해서 위치된 점들은 상관성이 매우 높아 공통된 움직임을 나타낼 수 있다. 따라서 눈, 코, 입 주변의 점들 중 상관성이 낮은 31개를 선택하였다.
본 연구에서는 Kinect Face Tracking SDK에서 제공 되는 121개 특징 점으로 구성된 안면 active appearance model에서 안면 움직임을 잘 표현하는 31개의 주요 특징 점을 선택하였다. 본 연구에서 수행한 알고리즘의 흐름은 [그림 3]과 같다.
본 논문에서는 두 쌍의 상반된 감성을 유발하였을 때의 얼굴 영상 취득하여, 상반된 감성에서 나타나는 안면 움직임의 차이를 분석하였다. 분석을 위해 유발한 두 상반된 감성은 Russell이 정의한 2차원 감성모델에서 원점 대칭 위치에 존재하는 감성들이다[16]. High arousal의 “Excitement” 감성과 Low arousal의 “Sad” 감성을 하나의 상반된 감성으로 설정하였고, High valence의 “Contentment” 감성과 Low valence의 “Angry" 감성을 다른 하나의 상반된 감성으로 설정하였다.
성별에 따라 감성을 표현하는 데에 차이가 있을 수 있기 때문에, 남자 5명과 여자 5명으로 실험을 진행하였고, 평균 나이는 25.27±3.73 이다.
시각자극은 low-level 단위로 분석한 결과 감성 유발 효율성이 입증된 ‘Artistic photography from a photo sharing site’의 이미지를 사용하였고, 청각자극은 Russell의 2차원 감성모델과 동일한 평면으로 음악을 분류한 ‘musicovery’ 웹사이트에서 제공받았다[20][21].
실험 환경은 피험자가 시각자극을 제공받는 모니터 하단에 Kinect 카메라를 설치하여 피험자의 얼굴이 정면으로 촬영될 수 있도록 하였다. Kinect 카메라 설치 환경 및 실험하는 모습은 [그림 6]과 같다.
실험은 총 10명의 대학생과 대학원생 피험자로 진행하였다. 성별에 따라 감성을 표현하는 데에 차이가 있을 수 있기 때문에, 남자 5명과 여자 5명으로 실험을 진행하였고, 평균 나이는 25.
첫 번째로, 'musicovery' 웹사이트에서 감성 당 5개씩, 총 20개의 후보 음향을 추출 하였다.
데이터처리
두 번째 검증과정으로는 집단심층면접법(FGD, Focus Group Discussion)을 수행하여 후보 음향을 12 개로 줄였다. 세 번째로 집단심층면접법으로 추출된 음향들을 카이제곱검정을 통해 적합성을 검증하였다. 카이제곱검정을 통하여 후보 음향을 8개로 줄였고, 마지막으로 후보 음향들이 감성에 매칭되는 정도를 점수로 측정하는 요인분석(Factor analysis)을 수행하여, 최종적으로 각 감성을 대표하는 4개의 음향을 결정하였다.
세 번째로 집단심층면접법으로 추출된 음향들을 카이제곱검정을 통해 적합성을 검증하였다. 카이제곱검정을 통하여 후보 음향을 8개로 줄였고, 마지막으로 후보 음향들이 감성에 매칭되는 정도를 점수로 측정하는 요인분석(Factor analysis)을 수행하여, 최종적으로 각 감성을 대표하는 4개의 음향을 결정하였다.
이론/모형
두 상반된 감성들은 Russell의 2차원 감성모델에서 [그림 2]와 같이 표현될 수 있다. 특징 추출방법으로는 안면 근육의 비선형적 움직임 문제를 해결하기 위해 지역 이동 기반 최소거리 결정 방법(local minimum shift matching)을 사용하였다.
성능/효과
‘High arousal & High valence’ 성향인 “Excitement” 감성은 좌측 안면 움직임이 많이 나타났고, ‘Low arousal & Low valence’ 성향인 "Sad" 감성은 우측 안면 움직임이 많이 나타남으로써, 상반된 결과를 보였다.
본 논문에서는 감성에 따라 변화하는 안면움직임을 확인하기 보다는 상반된 감성에서 나타나는 안면 움직임의 차이를 확인하였다. Kinect 카메라로 촬영된 영상을 통해 감성들을 유발하였을 때, 두 상반된 감성 자극에 대한 안면 움직임의 위치 또한 상반된 결과를 나타냄을 확인하였다.
또한 ‘High arousal & Low valence’ 성향인 “Angry” 감성은 좌측 안면, ‘Low arousal & High valence’ 성향인 “Contentment” 감성에서는 안면의 좌우 구분 없이 움직임이 나타남으로써, 두 상반된 감성 자극에 대해서는 우측 안면에서의 차이를 확인할 수 있었다.
두 감성의 움직임이 많은 점들의 패턴은 같지만, 움직임의 정도는 다르다는 것을 알 수 있다. 또한 Low arousal 성향의 감성들은 공통적으로 우측 안면에 서의 움직임이 높게 나타냄을 확인할 수 있었다.
안면 움직임에 개인의 차이가 있음을 고려하여, 특정 감성을 유발하기 전에 Neutral 감성에서의 안면움직임을 측정하여 개인차를 최소화한 분석 결과를 얻을 수 있었다. [그림 7]의 Neutral 측정 구간이 이에 해당한다.
추가적으로 분석해본 결과 High arousal 성향인 “Angry”감성과 “Excitement”의 감성의 경우 동일하게 양측 안면에서 움직임이 높게 나타났다.
후속연구
본 연구에서 사용한 안면 움직임 분석 방법은 부위별 미세 움직임을 확인할 수 있게 한다. 따라서 구안와사와 같은 안면 신경마비 증상을 보이는 환자들의 안면 움직임을 측정하는 데에 활용할 수 있을 것이다. 향후 감성에 따른 안면움직임을 분석하는 방법으로 성별을 구분하여 분석을 할 수 있을 것이고, 4가지 감성 외에 보다 세밀한 감성 자극을 제공하여 감성 자극의 정도에 따른 안면 움직임도 분석할 수 있을 것이다.
따라서 구안와사와 같은 안면 신경마비 증상을 보이는 환자들의 안면 움직임을 측정하는 데에 활용할 수 있을 것이다. 향후 감성에 따른 안면움직임을 분석하는 방법으로 성별을 구분하여 분석을 할 수 있을 것이고, 4가지 감성 외에 보다 세밀한 감성 자극을 제공하여 감성 자극의 정도에 따른 안면 움직임도 분석할 수 있을 것이다.
질의응답
핵심어
질문
논문에서 추출한 답변
기존의 카메라 기반 감성측정 방법에는 무엇이 있는가?
카메라 기반 감성 측정방법은 신체에 장치를 착용하지 않을 뿐만 아니라 인체 표면의 다양한 특성을 측정할 수 있다는 장점이 있다. 기존의 카메라 기반 감성측정 방법은 제스처 분석을 통한 측정방법, 눈 영상을 분석하는 방법, 얼굴 표정을 분석하는 방법 등이 있다[4-8]. 제스처는 내적 감성보다는 외적 표현 수단이므로, 감성 측정 보다는 입력 인터페이스 수단으로 사용되는 경우가 많다.
기존의 카메라 기반 감성측정 방법 중 눈 영상을 분석하는 방법은 어떤 단점을 가지는가?
제스처는 내적 감성보다는 외적 표현 수단이므로, 감성 측정 보다는 입력 인터페이스 수단으로 사용되는 경우가 많다. 눈 영상을 분석하여 감성을 측정하는 방법은 눈 영역의 크기가 작은 만큼 고해상도의 카메라나 줌 렌즈 등의 장치적 요구조건이 까다롭다[5]. 얼굴 표정은 인간의 감성이 가장 풍부하게 표현되는 특징으로, 얼굴의 다양한 부위별 특징과 상대적으로 넓은 영역에서 분석 가능하므로, 일반 카메라를 통해 인식하고 감성을 측정 하는 방법으로 가장 적절하다고 할 수 있다.
카메라 기반 감성 측정방법의 장점은 무엇인가?
이에 대한 대안으로 여러 가지 분야에 활용도가 높은 카메라 기반 측정 방법을 고려할 수 있다. 카메라 기반 감성 측정방법은 신체에 장치를 착용하지 않을 뿐만 아니라 인체 표면의 다양한 특성을 측정할 수 있다는 장점이 있다. 기존의 카메라 기반 감성측정 방법은 제스처 분석을 통한 측정방법, 눈 영상을 분석하는 방법, 얼굴 표정을 분석하는 방법 등이 있다[4-8].
참고문헌 (23)
M. W. Park, C. J. Kim, M. Whang, and E. C. Lee, "Individual Emotion Classification between Happiness and Sadness by Analyzing Photoplethysmography and Skin Temperature", 2013 Fourth World Congress on Software Engineering(WCSE), pp.190-194, 2013.
N. Wu, H. Jiang, and G. Yang, "ECG Emotion recognition based on physiological signals", Lecture Notes in Computer Science, pp.311-320, 2012.
F. C. Chang, C. K. Chang, C. C. Chiu, S. F. Hsu, and Y. D. Lin, "ECG Variations of HRV analysis in different approaches", In Proc. Of Computers in Cardiology, pp.17-20, 2007.
K. Kaneko and K. Sakamoto, "Spontaneous Blinks as a Criterion of Visual Fatigue during Prolonged Work on Visual Display Terminals", J. of Perceptual and Motor Skills, Vol.92, No.1, pp.234-350, 2001.
E. Lee, H. Heo, and K. Park, "The Comparative Measurements of Eyestrain Caused by 2D and 3D Displays", IEEE Transaction on Consumer Electronics, Vol.56, No.3, pp.1677-1683, 2010.
H. Gunes and M. Piccardi, "Bi-model emotion recognition from expressive face and body gesture", J. of Network and Computer Applications, Vol.30, No.4, pp.1334-1345, 2007.
T. Partatla and V. Surakka, "Pupil Size Variationl as an Indication of Affective Processing", Int. J. Human-Computer Studies, Vol.59, No.1-2, pp.185-198, 2003.
Y. song, L. Morency, and R. Davis, "Learning a Sparse Codebook of Facial and Body Microe xpressions for Emotion Recognition", ICMI, pp.237-244, 2013.
B. Heisele, "Face Recognition with Support Vector Machines: Global Versus Component-based Approach", ICCV, Vol.2, pp.688-694, 2001.
T. Wang, H. Ai, B. Wu, and C. Huang, "Real Time Facial Expression Recognition with Adaboost", ICPR, Vol.3, pp.926-929, 2004.
H. Sunghee and B. Hyeran, "Facial Expression Recognition using Eigen-points", Korean Institute of Information Science and Engineering, Vol.31, No.1, pp.817-819, 2004.
L. Zhang, "Facial Expression Recognition Using Facial Movement Features", IEEE Transactions on Biometrics Compendium, Vol.2, No.4, pp.219-229, 2011.
E. Lee, M. Whang, D. Ko, S. Park, and S. Hwang, "A new social emotion estimating method by measuring micro movement of human bust", Industrial Application of Affective Engineering, pp.19-26, 2014.
A. Jana, Kinect for Windows SDK Programming Guide, contents Packt, 2014.
Michael J. Lyons, Shigeru Akamatsu, Miyuki Kamachi, and Jiro Gyoba, "Coding Facial Expressions with Gabor Wavelets", Third IEEE International Conference on Automatic Face and Gesture Recognition, Nara Japan, IEEE Computer Society, pp.200-205, 1998.
J. Russell, "A Circumplex Model of Affect", J. of Personality and Social Psychology, Vol.39, No.6, pp.1161-1178, 1980.
Y. Kim, H. Kim, and E. Lee, "Emotion Classification using Facial Temporal Sparsity", Int. J. of Applied Engineering Research, Vol.9, No.24, pp.24793-24801, 2014.
T. Ahonen, A. Hadid, and M. Pietikainen, "Face Description with Local Binary Patterns: Application to Face Recognitiom", IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol.28, No.12, pp.2037-2041, 2006.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.