본 논문은 상반된 감성자극에 따른 얼굴과 눈의 반응 차이와 같은 감성자극에서 남성과 여성의 얼굴과 눈의 반응 차이를 분석한다. 눈의 반응 차이의 분석으로는 근적외선 카메라를 이용한 눈의 다양한 특징 분석을 통해 감성을 분류하는 방법에 관한 연구를 진행한다. 제안하는 방법은 기존의 눈의 특징을 이용하여 감성을 분류한 연구들과 비교했을 때, 다양한 눈의 특징과 성별을 고려함으로써 더욱 신뢰성 있는 분석 결과를 얻고자 하였다. 그리고 얼굴 반응 차이의 분석으로는 ...
본 논문은 상반된 감성자극에 따른 얼굴과 눈의 반응 차이와 같은 감성자극에서 남성과 여성의 얼굴과 눈의 반응 차이를 분석한다. 눈의 반응 차이의 분석으로는 근적외선 카메라를 이용한 눈의 다양한 특징 분석을 통해 감성을 분류하는 방법에 관한 연구를 진행한다. 제안하는 방법은 기존의 눈의 특징을 이용하여 감성을 분류한 연구들과 비교했을 때, 다양한 눈의 특징과 성별을 고려함으로써 더욱 신뢰성 있는 분석 결과를 얻고자 하였다. 그리고 얼굴 반응 차이의 분석으로는 키넥트 카메라에서 추출되는 이미지 기반으로 얼굴 미세 움직임을 분석한다. 감성 마다 나타나는 얼굴의 미세 움직임은 이론만 존재할 뿐 객관적인 측정은 아직 완전히 증명되지 않았기 때문에, 본 논문에서는 미세움직임을 추출할 수 있는 알고리즘을 개발하여 분석한다. 사용한 눈의 특징은 동공 크기, 동공 조절 속도, 눈 깜박임 빈도, 눈을 감은 지속시간을 사용하였으며, 이들은 근적외선 카메라 영상으로부터 자체 개발한 자동화된 처리 방법을 통해 추출된다. 그리고 각각의 특징을 분석할 때 감성을 유발하기 전에 추출한 레퍼런스 데이터를 제거하는 방법으로 개인차를 제거하였다. 본 논문에서는 각 특징이 모두 유의미한 정보를 포함하고 있음을 검증하였다. 분석에 사용한 상반된 감성자극 자극으로는 각성-이완, 긍정-부정 감성이 사용되었다. 또한 이 감성들 유발을 위해 청각 자극을 사용함으로써, 자극 외의 색상이나 빛이 눈의 특징에 끼치는 영향을 최소화하였다. 얼굴의 특징을 분석 할 때에는 감성을 유발하기 위해서, 시각과 청각 자극을 동시에 제공하였다. 상반된 감성자극에 따른 차이 분석에 사용한 감성은 “Excitement"-"Sad", "Contentment"-"Angry"를 사용하였으며, 이들은 Russell이 정의한 2차원 감성모델에서 원점 대칭 위치에 존재하는 감성들이다. 그리고 성별에 따른 차이 분석에 사용한 감성은 Russell의 감성모델에서 8개의 감성을 선택하였다. 얼굴 미세움직임은 키넥트 카메라 영상으로부터 자체 개발한 미세움직임 분석 방법을 통해 추출된다. 첫 번째로, 키넥트 face tracking SDK에서 제공하는 얼굴 특징 점 121개 중 특징점간의 상관도가 낮은 31개의 주요 특징 점을 선정한다. 선정된 31개의 점에서 픽셀 화소값의 변화를 본다. 사람의 얼굴은 선형적으로 변화하는 것이 아니기 때문에, 지역 이동 기반 최소거리 결정 방법을 통해 미세움직임을 측정하여 비선형적인 움직임을 보정한다. 상반된 감성자극에서 나타나는 눈의 특징 분석 결과, 각성-이완 감성 유발 자극에 대해서는 동공 크기 변화율과 깜박임 빈도 특징이 유의한 차이를 보였다. 또한 긍정-부정 감성 유발 자극에 대해서는 눈을 감은 지속시간 특징이 유의한 차이를 보였다. 특히 동공 크기 특징은 각성-이완, 긍정-부정의 상반된 감성자극 자극 유발 상황에서 모두 유의한 차이가 없음을 확인할 수 있었다. 그리고 성별 간 나타나는 눈의 특징 분석 결과, 각성-이완 감성을 분류하기 위한 특징으로는 남성과 여성 모두 동공 조절 속도와 눈 깜박임 빈도가 유의함을 확인하였다. 또한 긍정-부정 감성을 분류하기 위해서는 남성은 눈을 감은 지속시간이 유의하였고, 여성은 눈 깜박임 빈도가 유의한 특징임을 확인할 수 있었다. 상반된 감성자극에서 나타나는 얼굴 미세움직임을 분석한 결과, “Excitement" 감성에서는 왼쪽 얼굴의 미세움직임이 높게 나타났고, "Sad" 감성에서는 오른쪽 얼굴의 미세움직임이 높게 나타났다. 또한 "Contentment" 감성에서는 왼쪽 얼굴의 미세움직임이 높게 나타났고, "Angry" 감성에서는 양쪽 얼굴 모두에서 높은 움직임을 보였다. 그리고 성별 간 나타나는 눈의 특징 분석 결과, 남성의 얼굴 움직임은 실험한 모든 감성에서 거의 비슷하게 나타났지만 여성의 얼굴움직임은 그렇지 않았다. 이 특징은 남성이 여성보다 움직임 평균은 높지만, 움직임 편차는 낮다고 할 수 있다. 본 연구는 시선 추적 장치와 같은 차세대 웨어러블 장치 기반의 콘텐츠 환경에서 사용자의 감성을 정량적으로 측정하기 위한 목적으로 사용될 것으로 기대된다.
본 논문은 상반된 감성자극에 따른 얼굴과 눈의 반응 차이와 같은 감성자극에서 남성과 여성의 얼굴과 눈의 반응 차이를 분석한다. 눈의 반응 차이의 분석으로는 근적외선 카메라를 이용한 눈의 다양한 특징 분석을 통해 감성을 분류하는 방법에 관한 연구를 진행한다. 제안하는 방법은 기존의 눈의 특징을 이용하여 감성을 분류한 연구들과 비교했을 때, 다양한 눈의 특징과 성별을 고려함으로써 더욱 신뢰성 있는 분석 결과를 얻고자 하였다. 그리고 얼굴 반응 차이의 분석으로는 키넥트 카메라에서 추출되는 이미지 기반으로 얼굴 미세 움직임을 분석한다. 감성 마다 나타나는 얼굴의 미세 움직임은 이론만 존재할 뿐 객관적인 측정은 아직 완전히 증명되지 않았기 때문에, 본 논문에서는 미세움직임을 추출할 수 있는 알고리즘을 개발하여 분석한다. 사용한 눈의 특징은 동공 크기, 동공 조절 속도, 눈 깜박임 빈도, 눈을 감은 지속시간을 사용하였으며, 이들은 근적외선 카메라 영상으로부터 자체 개발한 자동화된 처리 방법을 통해 추출된다. 그리고 각각의 특징을 분석할 때 감성을 유발하기 전에 추출한 레퍼런스 데이터를 제거하는 방법으로 개인차를 제거하였다. 본 논문에서는 각 특징이 모두 유의미한 정보를 포함하고 있음을 검증하였다. 분석에 사용한 상반된 감성자극 자극으로는 각성-이완, 긍정-부정 감성이 사용되었다. 또한 이 감성들 유발을 위해 청각 자극을 사용함으로써, 자극 외의 색상이나 빛이 눈의 특징에 끼치는 영향을 최소화하였다. 얼굴의 특징을 분석 할 때에는 감성을 유발하기 위해서, 시각과 청각 자극을 동시에 제공하였다. 상반된 감성자극에 따른 차이 분석에 사용한 감성은 “Excitement"-"Sad", "Contentment"-"Angry"를 사용하였으며, 이들은 Russell이 정의한 2차원 감성모델에서 원점 대칭 위치에 존재하는 감성들이다. 그리고 성별에 따른 차이 분석에 사용한 감성은 Russell의 감성모델에서 8개의 감성을 선택하였다. 얼굴 미세움직임은 키넥트 카메라 영상으로부터 자체 개발한 미세움직임 분석 방법을 통해 추출된다. 첫 번째로, 키넥트 face tracking SDK에서 제공하는 얼굴 특징 점 121개 중 특징점간의 상관도가 낮은 31개의 주요 특징 점을 선정한다. 선정된 31개의 점에서 픽셀 화소값의 변화를 본다. 사람의 얼굴은 선형적으로 변화하는 것이 아니기 때문에, 지역 이동 기반 최소거리 결정 방법을 통해 미세움직임을 측정하여 비선형적인 움직임을 보정한다. 상반된 감성자극에서 나타나는 눈의 특징 분석 결과, 각성-이완 감성 유발 자극에 대해서는 동공 크기 변화율과 깜박임 빈도 특징이 유의한 차이를 보였다. 또한 긍정-부정 감성 유발 자극에 대해서는 눈을 감은 지속시간 특징이 유의한 차이를 보였다. 특히 동공 크기 특징은 각성-이완, 긍정-부정의 상반된 감성자극 자극 유발 상황에서 모두 유의한 차이가 없음을 확인할 수 있었다. 그리고 성별 간 나타나는 눈의 특징 분석 결과, 각성-이완 감성을 분류하기 위한 특징으로는 남성과 여성 모두 동공 조절 속도와 눈 깜박임 빈도가 유의함을 확인하였다. 또한 긍정-부정 감성을 분류하기 위해서는 남성은 눈을 감은 지속시간이 유의하였고, 여성은 눈 깜박임 빈도가 유의한 특징임을 확인할 수 있었다. 상반된 감성자극에서 나타나는 얼굴 미세움직임을 분석한 결과, “Excitement" 감성에서는 왼쪽 얼굴의 미세움직임이 높게 나타났고, "Sad" 감성에서는 오른쪽 얼굴의 미세움직임이 높게 나타났다. 또한 "Contentment" 감성에서는 왼쪽 얼굴의 미세움직임이 높게 나타났고, "Angry" 감성에서는 양쪽 얼굴 모두에서 높은 움직임을 보였다. 그리고 성별 간 나타나는 눈의 특징 분석 결과, 남성의 얼굴 움직임은 실험한 모든 감성에서 거의 비슷하게 나타났지만 여성의 얼굴움직임은 그렇지 않았다. 이 특징은 남성이 여성보다 움직임 평균은 높지만, 움직임 편차는 낮다고 할 수 있다. 본 연구는 시선 추적 장치와 같은 차세대 웨어러블 장치 기반의 콘텐츠 환경에서 사용자의 감성을 정량적으로 측정하기 위한 목적으로 사용될 것으로 기대된다.
In this paper, experimental verification is performed in which separability of male and female can be confirmed in terms of opposite emotion classification. Comparing previous works, our proposed method try to achieve more reliable result by considering variability of gender and ocular features. ...
In this paper, experimental verification is performed in which separability of male and female can be confirmed in terms of opposite emotion classification. Comparing previous works, our proposed method try to achieve more reliable result by considering variability of gender and ocular features. As occular features for emotion classification, pupil size, pupil accommodation rate, blink frequency, and eye closed duration were used. To analyze precisely, individual variation of ocular feature values are normalized then auditory emotion stimuli is used. In detail, the used stimuli induce two opposite emotion pairs such as 'positive-negative' and 'arousal-relaxation'. At result, both male and female, pupil accommodation rate and blink frequency were statistically significant features for classification between arousal-relaxation. Also, for classification between positive-negative, eye closed duration was the significant features on male, and eye blink frequency was the significant features on female. At result, pupil accommodation rate and blink frequency were statistically significant features for classification arousal-relaxation. Also, eye closed duration was the most significant feature for classification positive-negative. In emotion expression, there are many differences between males and females, such as degree, appearance, and factors arousing emotion. However, the differences are not yet fully verified due to the lack of effective feature extraction methods. Therefore, we developed a facial movement extraction method to perform an experimental verification. To induce four kinds of emotion, both visual and auditory stimuli were simultaneously presented to subjects. Among 121 facial feature points, 31 main points were selected for the analysis of facial movement. The results indicated that males’ facial movements were almost identical for all the emotions. On the other hand, females’ facial movements showed different tendencies. Moreover, we found that the average movement for males was higher than for females, while discriminative power for different emotions was higher for females than for males.
In this paper, experimental verification is performed in which separability of male and female can be confirmed in terms of opposite emotion classification. Comparing previous works, our proposed method try to achieve more reliable result by considering variability of gender and ocular features. As occular features for emotion classification, pupil size, pupil accommodation rate, blink frequency, and eye closed duration were used. To analyze precisely, individual variation of ocular feature values are normalized then auditory emotion stimuli is used. In detail, the used stimuli induce two opposite emotion pairs such as 'positive-negative' and 'arousal-relaxation'. At result, both male and female, pupil accommodation rate and blink frequency were statistically significant features for classification between arousal-relaxation. Also, for classification between positive-negative, eye closed duration was the significant features on male, and eye blink frequency was the significant features on female. At result, pupil accommodation rate and blink frequency were statistically significant features for classification arousal-relaxation. Also, eye closed duration was the most significant feature for classification positive-negative. In emotion expression, there are many differences between males and females, such as degree, appearance, and factors arousing emotion. However, the differences are not yet fully verified due to the lack of effective feature extraction methods. Therefore, we developed a facial movement extraction method to perform an experimental verification. To induce four kinds of emotion, both visual and auditory stimuli were simultaneously presented to subjects. Among 121 facial feature points, 31 main points were selected for the analysis of facial movement. The results indicated that males’ facial movements were almost identical for all the emotions. On the other hand, females’ facial movements showed different tendencies. Moreover, we found that the average movement for males was higher than for females, while discriminative power for different emotions was higher for females than for males.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.