$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

발화 내 감정의 정밀한 인식을 위한 한국어 문미억양의 활용
Utilizing Korean Ending Boundary Tones for Accurately Recognizing Emotions in Utterances 원문보기

한국통신학회논문지. The Journal of Korea Information and Communications Society. 통신이론 및 시스템, v.30 no.6C, 2005년, pp.505 - 511  

장인창 (고려대학교 산업정보시스템공학과) ,  이태승 (한국과학기술연구원 CAD) ,  박미경 (한국과학기술연구원 CAD) ,  김태수 (한국과학기술연구원 CAD) ,  장동식 (고려대학교 산업정보시스템공학과)

초록
AI-Helper 아이콘AI-Helper

인간을 상대하는 자율장치는 고객의 자발적인 협조를 얻기 위해 암시적인 신호에 포함된 감정과 태도를 인지할 수 있어야 한다. 인간에게 음성은 가장 쉽고 자연스럽게 정보를 교환할 수 있는 수단이다. 지금까지 감정과 태도를 이해할 수 있는 자동시스템은 발성문장의 피치와 에너지에 기반한 특징을 활용하였다. 이와 같은 기존의 감정인식 시스템의 성능은 문장의 특정한 억양구간이 감정과 태도와 관련을 갖는다는 언어학적 지식의 활용으로 보다 높은 향상이 가능하다. 본 논문에서는 한국어 문미억양에 대한 언어학적 지식을 피치기반 특징과 다층신경망을 활용하여 구현한 자동시스템에 적용하여 감정인식률을 향상시킨다. 한국어 감정음성 데이터베이스를 대상으로 실험을 실시한 결과 $4\%$의 인식률 향상을 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

Autonomic machines interacting with human should have capability to perceive the states of emotion and attitude through implicit messages for obtaining voluntary cooperation from their clients. Voice is the easiest and most natural way to exchange human messages. The automatic systems capable to und...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 그러므로 영어의 경계 억양과 한국어의 문미 억양에 보다 큰 중요성을 부여한다면 보다 정확하게 화자의 감정을 인지할 수 있을 것이다. 다음 절에서는 한국어 문미 억양에 대한 억양 음운론적 지식을 도입하여 감정인식능력의 향상에 문미 억양이 미치는 영향을 실험을 통해 확인한다.
  • 본 논문에서 사용된 감정 음성 데이터베이스는 화자 및 문장 독립적인 감정인식 시스템의 개발과 시험을 위해 설계되었다. 이 데이터베이스가 목표로 한 감정은 기쁨, 슬픔, 분노 중성의 네 감정이다.
  • 본 논문에서는 한국어 문장의 문미 억양에서 추출한 통계치에 더 높은 가중치를 부여하여 정적인 방법에 기반한 기존의 자동감정인식 시스템의 성능을 향상시킨다 이 감정인식 시스템에서 각 한국어 문장은 앞부분의 본체와 뒷부분의 미 부로 분할된다. 본체는 미 부의 두 배길 이를 가지며 미 부는 문미 억 양을 포함한다.
  • 어떤 감정의 내부 원인과 외부 표현이 언제나 합치되는 것은 아니지만 청자는 내재된 감정이 어떤 것인지 청취한 음성을 통해 추측하려고 시도한다. 억양은 감정상태를 음성으로 표현하는데 있어 중요한 수단이다 이 절에서는 영어와 한국어에 대해 문헌에서 보고된 억양과 감정 사이의 관계를 살펴본다.
  • 지금까지 한국어 문미 억양에 대한 억양음 운론적 지식을 정적 특징에 기반한 자동감정 인식 시스템에 적용하여 감정인식의 신뢰성을 향상시키기 위한 방법을 연구하였다. 한국어 문미억양이 감정적 행동에 미치는 영향은 문미억양을 포함하는 미부의 더 높은 인식률을 통해 증명되었다.
  • 지난 몇 년간 일단의 한국어 연구자가 화자의 감정과 태도에 문미 억양이 미치는 영향을 조사하였다. 전선아[9]는 몇 가지 한국어 문미 억양의 의미를 서술하였는데, 그중에서 감정이나 태도와 연관된 문미 억양의 패턴을 다음과 같이 정리하였다.
  • 본체는 미 부의 두 배길 이를 가지며 미 부는 문미 억 양을 포함한다. 한국어 감정 음성 데이터베이스에 대해 최고의 감정인식률을 획득하기 위해 본체와 미 부에 부여되는 가중치의 최적 비율을 탐색한다. 기존의 감정인식 시스템에 이 최적 비율을 적용할 때 인식률의 향상을 확인한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (14)

  1. Cowie, R., Douglas-Cowie, E., Tsapatsoulis, N., Votsis, G., Kollias, S., Fellenz, W. and ?Taylor, J.G., 'Emotion Recognition in HumanComputer Interaction,' IEEE Signal Processing Magazine, Vol. 18, No.1, pp. 32-80, Jan 2001 

  2. Gauvain, J. and Lamel, L., 'Large-Vocabulary Continuous Speech Recognition: Advances and Applications,' Proceedings of the IEEE, Vol. 88, No.8, pp. 1181-1200, Aug 2000 

  3. Yoshimura, T., Hayamizu, S., Ohmura, H., and Tanaka, K., 'Pitch Pattern Clustering of User Utterances in Human-Machine Dialogue,' Proceedings of the International Conference on Spoken Language, Vol. 2, pp. 837-840, Oct 1996 

  4. Dellaert, F., Polzin, T., and Waibel, A., 'Recognizing Emotion in Speech,' Proceedings of the International Conference on Spoken Language, Vol. 3, pp. 1970-1973, Oct 1996 

  5. Bhatti, M. W., Wang Y., and Guan. L., 'A Neural Network Approach for Human Emotion Recognition in Speech,' Proceedings of the 2004 International Symposium on Circuits and Systems, Vol. 2, pp. 181-184, May 2004 

  6. Schuller, B., Rigoll, G. and Lang, M., 'Hidden Markov Model-Based Speech Emotion Recognition,' Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing, Vol. 2, pp. 1-4, Apr 2003 

  7. Schuller, B., Rigoll, G. and Lang, M., 'Speech Emotion Recognition Combining Acoustic Features and Linguistic Information in a Hybrid Support Vector Machine-Belief Network Architecture,' Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing, Vol. 1, pp. 577-580, May 2004 

  8. O'Connor, J. D. and Arnold G. F., Intonation of Colloquial English, Longmans, 1961 

  9. Jun, S., K-ToBI Labelling Conventions, Ver. 3.1, http://www.linguistics.ucla.edu/people/jun/ktobi/K-tobi.html, 2000 

  10. Pierrehurnbert, J. and Hirschberg, J., 'The Meaning of Intonation Contours in the Interpretation of Discourse,' Intentions in Communication, MIT Press, pp. 271-323, 1990 

  11. 이호영, '한국어의 억양체계,' 언어학, 제13호, pp. 129-151, 12월 1991년 

  12. Rabiner, L. and Sambur, M. 'An Algorithm for Determining the Endpoints of Isolated Utterances,' Bell System Technical Journal, Vol. 54, pp. 297-315, Feb 1975 

  13. Krubsack, D. A. and Niederjohn, R. J., 'An Autocorrelation Pitch Detector and Voicing Decision with Confidence Measures Developed for Noise-Corrupted Speech,' IEEE Transactions on Signal Processing, Vol. 39, No.2, pp. 319-329, Feb 1991 

  14. Bengio, Y., Neural Networks for Speech and Sequence Recognition, International Thomson Computer Press, 1995. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로