$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

음성 신호를 사용한 감정인식의 특징 파라메터 비교
Comparison of feature parameters for emotion recognition using speech signal 원문보기

電子工學會論文誌. Journal of the Institute of Electronics Engineers of Korea. SP, 신호처리, v.40 no.5 = no.293, 2003년, pp.371 - 377  

김원구 (군산대학교 전자정보공학부)

초록
AI-Helper 아이콘AI-Helper

본 논문에서 음성신호를 사용하여 인간의 감정를 인식하기 위한 특징 파라메터 비교에 관하여 연구하였다. 이를 위하여 여러 가지 감정 상태에 따라 분류된 한국어 음성 데이터 베이스를 이용하여 얻어진 음성 신호의 피치와 에너지의 평균, 표준편차와 최대 값 등 통계적인 정보 나타내는 파라메터와 음소의 특성을 나타내는 MFCC 파라메터가 사용되었다. 파라메터들의 성능을 평가하기 위하여 문장 및 화자 독립 감정 인식 시스템을 구현하여 인식 실험을 수행하였다. 성능 평가를 위한 실험에서는 운율적 특징으로 피치와 에너지와 각각의 미분 값을 사용하였고, 음소의 특성을 나타내는 특징으로 MFCC와 그 미분 값을 사용하였다. 벡터 양자화 방법을 사용한 화자 및 문장 독립 인식 시스템을 사용한 실험 결과에서 MFCC와 델타 MFCC를 사용한 경우가 피치와 에너지를 사용한 방법보다 우수한 성능을 나타내었다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, comparison of feature parameters for emotion recognition using speech signal is studied. For this purpose, a corpus of emotional speech data recorded and classified according to the emotion using the subjective evaluation were used to make statical feature vectors such as average, sta...

주제어

참고문헌 (14)

  1. Rosalind W. Picard, Affective Computing, The MIT Press 1997 

  2. C. E. Williams and K. N. Stevens, 'Emotions and speech: Some acoustical correlates', Journal Acoustical Society of America, Vol. 52, No. 4, pp. 1238-1250, 1972 

  3. Lain R. Murray and John L. Arnott, 'Toward the simulation of emotion in synthetic speech: A review of the literature on human vocal emotion', Published in J. Accoust. Soc. Am., pp. 1097-1108, Feb. 1993 

  4. Janet E. Cahn, 'The generation of affect in synthesized speech', Journal of the American Voice I/O Society, Vol. 8, pp. 1-19, July 1990 

  5. Frank Dellaert, Thomas Polzin, Alex Waibel, 'Recognizing emotion in speech', Proceedings of the ICSLP 96, Piladelphia, USA, Oct. 1996 

  6. Thomas S. Huang, Lawrence S. Chen and Hai Tao, 'Bimodal emotion recognition by man and machine', ATR Workshop on Virtual Communication Environments - Bridges over Art/Kansei and VR Technologies, Kyoto, Japan, April 1998 

  7. K. R. Scherer, D. R. Ladd, and K. E. A. Silverman, 'Vocal cues to speaker affect: Testing two models', Journal Acoustical Society of America, Vol. 76, No. 5, pp. 1346-1355, Nov. 1984 

  8. Michael Lewis and Jeannette M. Haviland, Handbook of Emotions, The Guilford Press, 1993 

  9. D. Roy and A. Pentland, 'Automatic spoken affect analysis and classification', in Proceedings of the Second International Conference on Automatic Face and Gesture Recognition, pp. 363-367, Killington, VT, Oct. 1996 

  10. Jun Sato, and Shigeo Morishima, 'Emotion Modeling in Speech Production using Emotion Space', Proceedings of the IEEE International Workshop 1996, pp. 472-477, IEEE, Piscataway, NJ, USA, 1996 

  11. 강봉석, 음성 신호를 이용한 감정 인식, 석사학위논문, 연세대학교, 1999년 12월 

  12. L. R. Rabiner and B. H. Juang, Fundamentals of speech recognition, Prentice-Hall Inc., 1993 

  13. R.O. Duda, and P.E. Hart, Pattern classification and scene anlaysis, John Wiley & Sons Inc., 1973 

  14. Earl Gose, Richard Johnsonbaugh, and Steve Jost, Pattern Recognition and Image Analysis, Prentice Hall Inc., 1996 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로