$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

음성을 이용한 감정 정보 추출 방법
An acoustic study of feeling information extracting method 원문보기

한국인터넷방송통신학회 논문지 = The journal of the Institute of Internet Broadcasting and Communication, v.10 no.1, 2010년, pp.51 - 55  

이연수 (단국대학교 정보아키텍쳐 연구실) ,  박용범 (단국대학교 정보아키텍쳐 연구실)

초록
AI-Helper 아이콘AI-Helper

최근 콜센터 등에서는 고객을 음성 미디어를 통하여 서비스하고 있다. 이런 콜 센터에서 제공하는 다양한 서비스의 품질 측정 방법 중 음성 대화 속 화자의 감정에 따른 측정 방법이 있다. 본 연구에서는 화자의 음성을 이용하여 그 사람의 감정을 알아내고자 하였다. 이를 위하여 음성 신호로부터 여러 가지 파라미터를 추출하고 분석함으로써 인간의 감정을 분류하였다. 사람의 감정은 크게 기쁨, 슬픔, 흥분, 보통 등 4가지 상태로 나눌 수 있다. 대부분의 음성 서비스 품질은 흥분 또는 분노의 상태가 중요하다. 본 논문에서는 이와 같은 감정을 Pitch와 Amplitude를 기초로 한 5가지 요소를 통하여 효율적으로 대화자간의 문제가 되는 대화를 선별해 내는 방법을 연구 하였다.

Abstract AI-Helper 아이콘AI-Helper

Tele-marketing service has been provided through voice media in a several places such as modern call centers. In modern call centers, they are trying to measure their service quality, and one of the measuring method is a extracting speaker's feeling information in their voice. In this study, it is p...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 대부분의 콜센터와 같은 상업적 환경에서는 정확한 감정인식보다 최소한의 비용으로 포괄적인 선별이 더욱 중요한 요인이 된다. 따라서 본 연구에서는 어느 정도의 감정인식이 이루어지는 상황에서 최소 비용으로 시스템을 구성할 수 있도록 최소 비용으로 검출 가능한 음성 분석 요소만으로 감정 변화를 인지하고자 하였다.
  • 본 연구는 콜센터의 고객과 상담원의 대화 중 문제가 되는 대화를 선별하고자 녹음된 대화를 이용하여 실험하였다. 대부분의 콜센터와 같은 상업적 환경에서는 정확한 감정인식보다 최소한의 비용으로 포괄적인 선별이 더욱 중요한 요인이 된다.
  • 본 연구에서는 적은 컴퓨팅 파워를 사용하여 받아들일만한 수준의 인식 율을 보이는 방법을 찾아보았다. 물론 한국어 음성을 기준으로 한 연구이지만 언어 종속적인 부분이 적어 다른 언어에도 쉽게 적용이 가능할 것으로 보인다.
  • 화자의 음성을 분석하여 감정변화를 인지하고 이를 기반으로 대화를 분석하여 문제 대화를 추출하는 방법에 관하여 연구하여 보았다. 언어적 정보와 비언어적 정보 모두 이용이 가능하지만 아직 한국어 음성인식이 완전하게 이루어지지 않는 상황에서 그 내용적 의미를 파악하여 감정 변화를 인지하는 것은 매우 어려운 문제이며 많은 컴퓨팅 파워를 요구하기 때문에 상업적 응용도 쉽지 않은 상황이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
사람의 감정은 크게 어떤 상태로 나눌 수 있는가? 이를 위하여 음성 신호로부터 여러 가지 파라미터를 추출하고 분석함으로써 인간의 감정을 분류하였다. 사람의 감정은 크게 기쁨, 슬픔, 흥분, 보통 등 4가지 상태로 나눌 수 있다. 대부분의 음성 서비스 품질은 흥분 또는 분노의 상태가 중요하다.
화자의 음성을 분석하여 감정의 변화를 인지하는 연구가 증가하고 있는 이유는? 최근에 화자의 음성을 분석하여 감정의 변화를 인지하는 연구가 증가 하고 있다. 이와 같은 연구가 증가하는 이유는 감정 이라는 부분이 여러 곳에서 사용 될 수 있는 중요한 요소이기 때문이다.[4][1] 일반적으로 감정의 변화를 인지하는 감정인지 시스템은 대화 중 감정 변화가 발생하면 이를 인지하는 방식으로 작동 하여야 한다.
피치란 무엇인가? 피치는 기본 주파수(Fundamental Frequency)를 의미하며 음성의 주기적 특성을 나타낸다. 하지만 음성은 부분적으로 완전하지 않은 주기성 (Quasi- periodic)을 나타내기 때문에 근사치만을 구할 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (10)

  1. Cowie, R., Douglas-Cowie, E., Tsapatsoulis, N., Votsis, G., Kollias, S., Fellenz, and Taylor, J., "Emotion recognition in human-computer interactioins", IEEE Sig. Proc. Mag., vol.18(1), pp. 32-80, Jan 2001 

  2. Davis, C., Kim, J., Grauwinkel, K. and Mixdorff, H., "Lombard speech: Auditory(A), Visual(V) and AV effects", Proceedings of Speech prosody, pp.361-365, Dresden, Germany, 2006. 

  3. G. Zhou, J. H. L. Hansen, and J. F. Kaiser, "Classification of Speech under Stress based on Features derived from the Nonlinear Teager Energy Operator," Proc. of ICASSP, pp. 549-552, 1998. 

  4. Lee, C. M., and Narayanan, S., "Towards detecting emotion in spoken dialogs," IEEE Trans. on Speech and Audio Processing, Vol. 13(2), pp.293-303, 2005 

  5. L. Rabiner and B. H. Juang, Fundamentals of Speech Recognition, Prentice Hall, 1993 

  6. Patil, V. and Rao. P., "Acoustic cues to manner of articulation of obstruents in Marathi", Proc. of frontiers of research on Speech & Music, Kolkata, India, February 2008. 

  7. S. Fukuda and V. Kostov, "Extracting Emotion from Voice," Proc. of IEEE, pp. IV-299-304, 1999. 

  8. S. Yildirim, M. Bulut, C. Lee, A. Kazemzadeh, C. Busso, Z. Deng, S. Lee, and S. Narayanan, "An acoustic study of emotions expressed in speech," Proc. of Internet Conf. on Spoken Lang. Processing. (ICSLP 04), Vol. 1, pp. 2193-2196, Jeju Island, Korea, 2004, 

  9. Cahn, J.E., "Generating Expressions in Synthesized Speech",Master's Thesis MIT, 1989. 

  10. 양병곤, 프라트를 이용한 음성분석의 이론과 실제, 만수출판사, 2003 

저자의 다른 논문 :

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로