최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국정보전자통신기술학회논문지 = Journal of Korea institute of information, electronics, and communication technology, v.12 no.5, 2019년, pp.512 - 520
복거철 (Division of Computer and IT Instruction, PaiChai University)
It is quite useful to represent speeches visually for learners who study foreign languages as well as the hearing impaired who cannot directly hear speeches, and a number of researches have been presented in the literature. They remain, however, at the level of representing the characteristics of sp...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
모음의 조음 위치는 어떻게 예측하였는가? | 전통적으로 모음의 조음 위치는 모음사각도로 표현 되는 모음공간을 이용하여 예측하여 왔다. 그러나 이 방법은 상대적인 모음 위치를 표시할 뿐이고 정확한 조음 위치를 반영하지 못하는 단점이 있으며, 이런 단점을 보완하기 위하여 음향학적인 관점에서 모음을 분석하려는 시도로서 포먼트(formant) 주파수 분석 기법이 제시되었다[2]. | |
포먼트란 무엇인가? | 포먼트는 폐로부터 나오는 공기의 흐름이 성대를 진동시키며 발생시킨 음원이 성도를 지나는 동안 필터링 과정을 거치면서 만들어내는 공명주파수를 의미한다[3]. 포먼트 값은 성도의 길이에 따라 다른 값을 가지기 때문에 남녀화자의 포먼트 값이 차이가 나지만 포먼트 크기를 정규화한 값은 일정한 비율로 변화하고 동일한 간격을 유지한다는 사실로부터 모든 화자들의 성도 모양은 거의 비슷하다는 것을 알 수 있다[3]. | |
모음공간을 이용하여 예측하는 방법의 단점은 무엇인가? | 전통적으로 모음의 조음 위치는 모음사각도로 표현 되는 모음공간을 이용하여 예측하여 왔다. 그러나 이 방법은 상대적인 모음 위치를 표시할 뿐이고 정확한 조음 위치를 반영하지 못하는 단점이 있으며, 이런 단점을 보완하기 위하여 음향학적인 관점에서 모음을 분석하려는 시도로서 포먼트(formant) 주파수 분석 기법이 제시되었다[2]. |
G. J. Borden, K. S. Harris, and L. J. Raphael, Speech science primer: physiology, acoustics, and perception of speech (Kim et al., Trans.), Seoul: Hankookmunhwasa, 2000.
H.-Y. Sim , C.-H. Choi and S. H. Choi, "Characteristics of Vowel Formants, Vowel Space, and Speech Intelligibility Produced by Children Aged 3-6 Years," Audiology and Speech Research, vol.12, no. 4, pp. 260-269, 2016.
B. Yang, "A study on vowel formant variation by vocal tract modification," Phonetics and Speech Sciences vol. 3, no. 4, pp. 83-92, 1998.
G. C, Yoon "A Comparative Study on the Male and Female Vowel Formants of the Korean Corpus of Spontaneous Speech," Phonetics and Speech Sciences vol. 7, no. 2, pp. 131-138, 2015.
A. Watanabe, S. Tomishige, and M. Nakatake "Speech Visualization by Integrating Features for the Hearing Impaired", IEEE Trans. Speech Audio Proc., vol 8, no 4, pp. 454-466, 2000.
J. Beskow, O. Engwall, B. Granstrom, P. Nordqvist, and P. Wik, "Visualization of Speech and Audio for Hearing Impaired Persons," Technology and Disability, vol 20, pp. 97-107, 2008.
Y. Ueda, T. Sakada, and A. Watanabe, "Real-time Speech Visualization System for Speech Training and Diagnosis," Audio Engineering Society Convention Paper 8184, 2010 November 4, San Fransico, USA.
D. S. Kim, T. H. Lee, and D. M. Lee, "An ambient display for hearing impaired people," Proc. Human Computer Interface Korea (HCI2006), pp.46 - 51, 2006.
J.-H. Lee and H.-J. Chung, "A Study on Frequency Characteristics of Korean Phonemes," Audiology, 제1권, pp. 59-66, 2005.
P. Denes and E. Pinson, The Speech Chain, W. H. Freeman and Company, (Ko et al., Trans.) 1995.
B. Yang, "Formant Measurements of Complex Waves and Vowels Produced by Students," Phonetics and Speech Sciences vol. 15, no. 3, pp. 39-52, 2008.
Y. Dissen, J. Goldberg, and J. Keshet, "Formant Estimation and Tracking: A Deep Learning Approach", J. Acoustic Society, vol.145, no.2, pp.1-11, 2019.
Kohonen, "Clustering, taxonomy, and topological maps of patterns," Proc. 6th Int. Conf. on Pattern Recognition, pp. 114-128, Washington, DC. IEEE Computer Soc. Press.
State-of-the-art accurate phonetic tools based on machine-learning, https://mlspeech.github.io/index.html.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.