최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기방송공학회논문지 = Journal of broadcast engineering, v.23 no.3, 2018년, pp.421 - 430
김영언 (서울과학기술대학교 NID융합대학원) , 박구만 (서울과학기술대학교 NID융합대학원)
Many voice recognition systems use methods such as MFCC, HMM to acknowledge human voice. This recognition method is designed to analyze only a targeted sound which normally appears between a human and a device one. However, the recognition capability is limited when there is a group sound formed wit...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
음성인식 시스템이 인식하기 어려운 소리는? | 많은 음성인식 시스템들은 MFCC와 HMM등의 분류 기법을 사용하여 사람의 음성을 인식한다. 그러나 이러한 음성인식 시스템은 단일 음성신호를 인식하는 것을 목적으로 설계되어, 인간과 기계사이의 일대일 음성 인식에는 적합하나, 애완동물 소리와 실내 소리같은 음성보다 다양하고 넓은 주파수의 소리 군으로 중첩된 음향 속에서 설정된 소리를 인식하기에는 제한이 있다. 중첩된 소리들의 주파수는 사람의 목소리보다 높은 최대 20 kHz까지 넓은 주파수 범위로 구성된다. | |
음성인식 시스템은 무엇을 사용하여 사람의 음성을 인식하는가? | 많은 음성인식 시스템들은 MFCC와 HMM등의 분류 기법을 사용하여 사람의 음성을 인식한다. 그러나 이러한 음성인식 시스템은 단일 음성신호를 인식하는 것을 목적으로 설계되어, 인간과 기계사이의 일대일 음성 인식에는 적합하나, 애완동물 소리와 실내 소리같은 음성보다 다양하고 넓은 주파수의 소리 군으로 중첩된 음향 속에서 설정된 소리를 인식하기에는 제한이 있다. | |
1980년대 음성 인식 시스템의 개발 상황은? | 음성 인식 시스템은 대표적인 인간과 컴퓨터사이의 인터페이스로, 오늘날 스마트 폰, 티브이, 자동차 등의 다양한 분야에서 활용되고 있다[1]. 1980년대에 IBM이 HMM(Hidden Markov Model)을 활용한 대규모 음성시스템을 개발하면서 인식할 수 있는 단어가 1만 단어로 늘어났으며, 음성인식의 전성기가 시작되었다. 1990 ~ 2000년대에는 HMM 기반 음성인식 시스템이 주를 이루었으며, 음성인식 오류를 최소화하기 위한 변별학습(discriminative learning), 잡음이나 반향 등에 강인한 음성인식 기술 등이 개발되었다[2]. |
J. Jo, H. Yoo, S. Cha and I. Park, "Optimization of Floating-Point Bit-width for MFCC Feature Extraction," The Institute of electronics and information engineers of Korea, summer academic conference, Vol. 36, No. 1, pp. 1194-1197, June 2013..
H. Park, S. Kim, M. Jin and C. You, “The latest Speech Recognition Technology Trends Based on Machine Learning,” The Magazine of the IEEE, Vol. 41, No. 3, pp. 18-27, March 2014.
Y. Li and G. Liu, "Sound Classification Based on Spectrogram for Surveillance Applications," Proceedings of NIDC2016, pp.293-297, June 2016.
X. WANG, X. Shi, D. Yang and Y. Zhou, "Research on the Application of 3D Spectrogram in Bird Tweet and Speech Signals," 19th Chinese Control And Decision Conference, pp.7744-7747, July 2017.
J. Choi, D. Yun and S. Choi, "A Method of Frequency Response Normalization of Smart Phones Based on Deep Neural Networks for Virtual Reality Sound Reconstruction," The Korean institute of broadcast and media engineers, Fall academic conference, pp.19-20, Nov. 2017.
A. Ghosal, R. Chakraborty, B. C. Dhara and S. K. Saha, "Song/ Instrumental Classification using Spectrogram Based Contextual Features," Cube 2012, pp.1-5, Sep. 2013.
J. Dennis, H. Tran and H. Li, “Spectrogram Image Feature for Sound Event Classification in Mismatched Conditions,” IEEE Signal Processing Letters, Vol. 18, No. 2, pp. 130-133, Feb. 2011.
N. Koluguri, G. NishaMeenakshi, and P. Ghosh, “Spectrogram Enhancement Using Multiple Window Savitzky-Golay (MWSG) Filter for Robust Bird Sound Detection,” IEEE/ACM Transactions on Audio, Speech and Language Processing, Vol. 25, No. 6, pp. 1183-1192, June 2017.
J. Choi, Y. Park, C. Jeong and Y. Kim, "Development of a Sound Detection System for Security using the MFCC and HMM," The Korea information and communication society, Fall academic conference, pp.352-353, Sep. 2016.
H. Tachibana, N. Ono, H. Kameoka and S. Sagayama, “Harmonic/Percussive Sound Separation Based on Anisotropic Smoothness of Spectrograms,” IEEE/ACM Transactions on audio, Speech and Language Processing, Vol. 22, No. 12, pp. 2059-2073, Dec. 2014.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.