최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국지능시스템학회 논문지 = Journal of Korean institute of intelligent systems, v.20 no.5, 2010년, pp.683 - 687
This paper studied some methods which use frequency warping method that is the one of the speech transformation method to develope the robust speech recognition system for the emotional variation. For this purpose, the effect of emotional variations on the speech signal were studied using speech dat...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
음성 인식 기술의 발달로 증가하고 있는 것은? | 음성 인식 기술이 발달함에 따라 인간과 기계사이의 보다 편리한 인터페이스로의 사용이 급격히 증가하고 있다. 최근에는 음성 인식 시스템의 실용화가 늘어나면서 실생활에 유용하게 사용될 수 있는 응용 제품들이 개발되고 있다. | |
음성 인식 기술의 문제점은 무엇인가? | 그러나 음성 인식 기술이 아직도 가지고 있는 문제점은 이러한 시스템의 성능이 주변 잡음 및 채널 특성 등의 환경 변화와 감정 상태와 같은 심리적 변화에 크게 좌우된다는 것이다. 이중에 환경 변화에 대한 연구는 음성 인식 시스템의 실용화를 위하여 오래 전부터 연구되어왔다[1-7]. | |
음성 인식 기술에서 음성 신호의 형태는 무엇에 따라 변화하여 어떤 차이점이 발생하는가? | 이와 함께 음성 인식 시스템의 성능에 영향을 미치는 요인으로 인간의 심리적 변화가 있다. 음성 신호의 형태는 인간의 감정 상태에 따라서 변화하여 평상시 발음과 기쁨, 슬픔, 화남, 우울 등의 상태에서 발음한 것이 크게 다르다. 현재의 음성 인식 시스템들이 평상시 감정 상태에서 발음한 음성 데이터를 사용하여 만들어졌기 때문에 인간의 감정이 포함된 음성을 인식하는 경우에는 그 성능이 저하된다. |
J. C. Junqua, and J. P. Haton, Robustness in Automatic Speech Recognition - Fundamental and Applications, Kluwer Academic Publishers, 1996.
A. Acero and R. M. Stern, "Environmental robustness in automatic speech recognition," Proc. of ICASSP, pp. 849-852, April 1990.
H. Hermansky, N. Morgan, H. G. Hirsch, "Recognition of speech in additive and convolutional noise based RASTA spectral processing", Proc. of ICASSP, pp. 83-86, 1993.
J. Koehler, N. Morgan, H. Hermansky, H. G. Hirsch, G. Tong, "Integrating RASTA-PLP into Speech Recognition", Proc. of ICASSP, pp. 421-424, 1994.
M. G. Rahim, B. H. Juang, "Signal bias removal by maximum likelihood estimation for robust telephone speech recognition", IEEE Trans. Speech & Audio Processing, vol. 4, No. 1, pp. 19-30, 1996.
N. Amir, "Classifying emotions in speech: a comparison of methods", Proc. of Eurospeech '2001, Vol. 1, pp. 127-130, Aalborg, Denmark, 2001
A. Nogueiras, etc, "Speech emotion recognition using Hidden Markov Models", Proc. of Eurospeech '2001, Vol. 4, pp. 2679-2682, Aalborg, Denmark, 2001
R. W. Picard, Affective Computing, The MIT Press 1997.
I. R. Murray and J. L. Arnott, "Toward the simulation of emotion in synthetic speech: a review of the literature on human vocal emotion", Journal of Acoustical Society of America, pp. 1097-1108, Feb. 1993.
김원구, 방현진, “성도 정규화를 이용한 감정 변화에 강인한 음성 인식”, 한국 지능시스템학회 논문지, 19권 6호, pp. 773-338, 2009
M. Pitz, H. Ney, "Vocal tract normalization equals linear transformation in cepstral space", IEEE Trans. Speech & Audio Processing, vol. 13, No. 5, pp. 930-944, 2005.
S. Wegmann, D. McAllaster, J. Orlofl and B. Peskin, "Speaker Normalization on Conversational Telephone Speech, Proc. of ICASSP, Atlanta, GA, pp. 339-342, May 1996.
L. Welling, R. Haeb-Umbach, X. Aubert and N. Haberland, "A study on speaker Normalization using vocal tract normalization and speaker adaptive training", Proc. of ICASSP, Seattle, WA, pp. 797-800, May 1998
A. Acero and R. M. Stern, "Robust speech recognition by normalization of the acoustic space", Proc. of ICASSP, Toronto, pp. 893-896, May 1991.
E. Eide and H. Gish, "A parametric approach to vocal tract length normalization", Proc. of ICASSP, Atlanta, GA, pp.346-349, May 1996.
Sirko Molau, Stephan Kanthak , Hermann Ney, "Efficient Vocal Tract Normalization in Automatic Speech Recognition", Proc. of the ESSV'00, Cottbus, Germany, pp. 209-216, 2000
강봉석, “음성 신호를 이용한 문장독립 감정 인식시스템”, 연세대학교 석사학위 논문, 2000.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.