본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.
본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.
This paper suggests to apply mirror-reflected method based 2D emotion recognition database to 3D application. Also, it makes facial expression of fuzzy modeling using probability of emotion. Suggested facial expression function applies fuzzy theory to 3 basic movement for facial expressions. This me...
This paper suggests to apply mirror-reflected method based 2D emotion recognition database to 3D application. Also, it makes facial expression of fuzzy modeling using probability of emotion. Suggested facial expression function applies fuzzy theory to 3 basic movement for facial expressions. This method applies 3D application to feature vector for emotion recognition from 2D application using mirror-reflected multi-image. Thus, we can have model based on fuzzy nonlinear facial expression of a 2D model for a real model. We use average values about probability of 6 basic expressions such as happy, sad, disgust, angry, surprise and fear. Furthermore, dynimic facial expressions are made via fuzzy modelling. This paper compares and analyzes feature vectors of real model with 3D human-like avatar.
This paper suggests to apply mirror-reflected method based 2D emotion recognition database to 3D application. Also, it makes facial expression of fuzzy modeling using probability of emotion. Suggested facial expression function applies fuzzy theory to 3 basic movement for facial expressions. This method applies 3D application to feature vector for emotion recognition from 2D application using mirror-reflected multi-image. Thus, we can have model based on fuzzy nonlinear facial expression of a 2D model for a real model. We use average values about probability of 6 basic expressions such as happy, sad, disgust, angry, surprise and fear. Furthermore, dynimic facial expressions are made via fuzzy modelling. This paper compares and analyzes feature vectors of real model with 3D human-like avatar.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
제안 방법
2D의 이미지를 사용하여 3D 좌표를 얻기 위해 두 개의 거울을 얼굴의 옆에 두고 하나의 카메라로 얻은 이미지를 이용하여 3D 좌표를 얻는다. 각 카메라의 동기화를 마칠 필요 없이 하나의 이미지로 가능하다는 장점을 가지고 있다.
방법을 사용하였다. 6개의 입력과 3개의 출력으로 구성된 퍼지 모델링하였다. 이로 인해, 비선형적인 사람의 얼굴을 모델링히.
그림 6과 같이 무표정의 누 눈썹, 입의 크기를 1로 기준하여 크기의 변화율을 나타내며 행복과 슬픔, 행복과 놀람, 무서움과 혐오, 무서움과 놀람, 화남과 혐오, 화남과 슬픔, 화남과 놀람, 혐오와 슬픔, 혐오와 놀람, 슬픔과 놀람 순으로 동적인 감정을 구성하여 보았다.
본 논문에서는 거울 투영 이미지로 2차원 모델을 3차원 모델로 변환할 수 있는 특성을 사용하여 2차원에서의 장점인 다양한 표정에 대한 데이터베이스를 3차원에 적용함으로서 데이터베이스를 구축하고 각 감정 확률을 이용하여 자연스러운 표정을 3차원 아바타로 구현하였다.
사람의 6가지 기본감정들에 대하여 모델링하였고 많은 사람들을 통해서 각 감정에 대한 누 눈썹, 입의 크기의 좌표점을 추출하였다..
그림 3과 같이 거울 투영을 이용하여 각 감.정에 대한 3D 좌표를 추출하였다.뜨
퍼지 룰을 기반으로 얼굴감정의 비선형성을 퍼지시스템으로 모델링하였다
대상 데이터
각 감정을 모델링하기 위해서 MPEG-4가 정의한 얼굴의 특징점은 총 84개소의 얼굴 요소 중에 19개를 선정하여 표정을 나타낼 수 있는 눈썹, 눈과 입의 위치를 선정하였다 , [10]
표정의 특징벡터는 얼굴표정을 구분하는 기준이 되고 그것을 이용하여 각 사람들의 특징점 좌표가 아닌 눈, 눈썹, 입의 비율을 감정 생성 데이터로 사용하였다.
이론/모형
"퍼지화에는 싱글톤 방법을 사용하였고 비퍼지화에는 평균 중심 방법을 사용하였다. 6개의 입력과 3개의 출력으로 구성된 퍼지 모델링하였다.
본 논문에서는 퍼지 시스템을 이용하여 비선형적 인 사람의 표정을 모델링 할 수 있다.
성능/효과
기본 6가지 감정(행복 무서움, 화남, 혐오, 슬픔, 놀람)을이용하여 감정 형태에 대한 특징벡터를 구하고 무표정의 눈, 눈썹, 입의 크기를 1로 기준으로 하였을 때 기본 감정의 특징 벡터들의 비율을 구하고 이 데이터를 이용하여 비션형적인 인간의 감정표현을 퍼지 이론을 기반으로 한 모델링을 하였다, 그로 인해, 각 감정의 산술 평균을 한 기존 시스템보다 오차율이 적고 동적표정을 생성할 때는 사람이 인식할 수 있는 수준으로 자연스럽게 표현되었다.
본 논문은 거울 투영 방식을 통하여 2D 이미지를 3D로 변환하고 감정의 특징벡터들이 2D 뿐만 아니라 3D에서 적용이 가능하다는 것을 보였다. 2D의 감정 인식 데이터베이스를 이용하여 각 감정의 타당성을 비교하는 기준이 되었다.
사람의 다양한 감정을 기본 감정 6가지의 감정 확률을 이용하여 많은 모델링이 필요 없이 동적 얼굴 표정을 구현할 수 있다.
참고문헌 (12)
T. Kanade, J.Cohn, and Y. Tian. 'Comprehensive database for facial expression analysis'. FGR'00, France, 2000
Lijun Yin; Xiaozhou Wei; Yi Sun; Jun Wang; Rosato, M.J.; 'A 3D facial expression database for facial behavior research', Automatic Face and Gesture Recognition, 2006. FGR 2006. 7th International Conference, pp. 211-216, 10-12 April 2006
J. Wang, L. Yin, et al, '3D facial expression recognition based on primitive surface feature distribution'. Tech. Report, Binghamton U, 2006
I-Chen Lin, Jeng-Sheng Yeh, Ming Ouhyoung, 'Realistic 3D facial animation parameters from mirror-reflected multi-view video', Computer Animation, 2001. The Fourteenth Conference on Computer Animation. pp, 2-250, 7-8 Nov. 2001
Sy-sen Tang, 'Lip-Sync in Human face Animation Based on Video Analysis and Spline models', International Multimedia Modeling Conference, pp. 102-108, 2004
Kyu-min Kyung, 'Automatic 3D Facial Movement detection from Mirror-reflected Multi-Image for Facial Expression Modeling', Conference in Information and Control Systems, pp. 113-115, 2005
J. Noh, 'A survey of Facial modeling and Animation Techniques', USC Technical Report, pp. 99-105, 1998
Li-Xin Wang, A Course in Fuzzy Systems and Control, Prentice Hall, 1997
R. C. Gonzalez and R. E. Woods, Digital Image Processing, Second Edition. Prentice Hall, 2002
David A. Forsyth and Jean Ponce, Computer Vision A modern approach, Prentice Hall, 2003
Sato, W.; Yoshikawa, S.; 'Emotional elicitation by dynamic facial expressions', Development and Learning, 2005 Proceedings The 4nd International Conference pp.170-174, 1921 July, 2005
Yuwen Wu: Hong Liu; Hongbin Zha; 'Modeling facial expression space for recognition', Intelligent Robots and Systems. 2005 (IROS 2005). 2005 IEEE/RSJ International Conference pp. 1968-1973, 2-6 Aug. 2005
※ AI-Helper는 부적절한 답변을 할 수 있습니다.