최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기말소리와 음성과학 = Phonetics and speech sciences, v.4 no.2, 2012년, pp.73 - 78
권철홍 (대전대학교) , 송승규 (대전대학교) , 김종열 (한국한의학연구원) , 김근호 (한국한의학연구원) , 장준수 (한국한의학연구원)
Emotion recognition is an important technology in the filed of human-machine interface. To apply speech technology to emotion recognition, this study aims to establish a relationship between emotional groups and their corresponding voice characteristics by investigating various speech features. The ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
본 연구에서 피험자가 발성할 음성 데이터는 5개의 모음(아, 에, 이, 오, 우)로 정한 이유는? | ”) 으로 정하였다. 모음을 대상으로 한 것은 음성 특징 파라미터를 추출하기에 적합하기 때문이다. | |
ANOVA(분산분석)이란? | ANOVA(분산분석)는 세 개 이상의 모집단 평균 간의 차이를 검증하는 데 이용하는 분석방법이다[8]. 본 논문에서 모집단(감정상태)이 6개이므로 ANOVA를 실시하여 집단 간에 유의한 차이가 있는 음성 특징 파라미터를 도출하였다. | |
LTAS란 무엇인가? | LTAS(Long Term Average Spectral Slope)는 스펙트럼에서 주파수 증가에 따른 하모닉 에너지의 감소율을 보여주는 파라미터로, 이 파라미터 값이 음수인 것은 고주파로 갈수록 하모닉 에너지가 줄어들고 있음을 나타낸다. 놀람, 기쁨인 경우 보다 지루함, 무감정, 슬픔인 경우가 하모닉 에너지 감소율이 큼을 보여 준다. |
Vicholson, J., Takahashi, K., Nakatsu, R., (2000). Emotion recognition in speech using neural networks, Neural Computing and Application, Vol. 9, 290-296.
Kang, M. G., Seo, J. T., Kim, W. G., (2004). Emotion recognition based on GMM using speech signals, J. of Acoustical Society of Korea, Vol. 23, No. 3, 235-241. (강면구, 서정태, 김원구 (2004). 음성신호를 사용한 GMM 기반의 감정인식, 한국음향학회지, 23권 3호, 235-241.)
Razak, A., Komiya, R., Abidin, M., (2005). Comparison between fuzzy and NN method for speech emotion recognition, Proc. of the Third International Conference on Information Technology and Applications, Vol. 1, 297-302.
Cho, Y. H., Park, G. S., (2006), A study on robust speech emotion feature extraction under the mobile communication environment, J. of Acoustical Society of Korea, Vol. 25, No. 6, 269-276. (조윤호, 박규식 (2006). 이동통신 환경에서 강인한 음성 감성특징 추출에 관한 연구, 한국음향학회지, 25권 6호, 269-276.)
Jang, K. D., Kim, N., Kwon, O. W., (2006). Speech emotion recognition on a simulated intelligent robot, Malsori, Vol. 56, 173-183. (장광동, 김남, 권오욱 (2006). 모의 지능 로봇에서의 음성 감정인식, 말소리, 56권, 173-183.)
Han, S. M., Kim, S. B., Kim, J. Y., Kwon, C. H., (2011). A preliminary study on correlation between voice characteristics and speech features, The Phonetics and Speech Sciences, Vol. 3, No. 4, 85-91. (한성만, 김상범, 김종열, 권철홍 (2011), 목소리 특성의 주관적 평가와 음성 특징과의 상관관계 기초연구, 한국음성학회, 말소리와 음성과학, 3권 4호, 85-91)
Seong, T. J., (2007). Understanding and application of modern basic statistics, Kyoyookbook. (성태제 (2007). 현대 기초통계학의 이해와 적용, 교육과학사.)
Wayland, R., Jongman, A. (2003). Acoustic correlates of breathy and clear vowels: the case of Khmer, Journal of Phonetics, Vol. 31, 181-201.
Iseli, M., Shue, Y. L., Alwan, A. (2007). Age, sex, and vowel dependencies of acoustic measures related to the voice source, Journal of Acoustical Society of America, Vol. 121, No. 4, 2283-2295.
C. T. Ferrand, (2002). Harmonics-to-Noise Ratio: an index of vocal aging, Journal of Voice, Vol. 16, No. 4, 480-487.
Boersma, P. (1993). Accurate short-term analysis of the fundamental frequency and the harmonics-to-noise ratio of a sampled sound, Proceedings of Institute of Phonetic Sciences, Vol. 17, 97-110.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.