최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기디지털융복합연구 = Journal of digital convergence, v.12 no.7, 2014년, pp.273 - 278
In vocabulary recognition using HMM(Hidden Markov Model) by model for the observation of a discrete probability distribution indicates the advantages of low computational complexity, but relatively low recognition rate. Improve them with a HMM model is proposed for the optimization of the Bayesian m...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
가우시안 HMM 모델은 어떤 방법인가? | 가우시안 HMM 모델은 주어진 표본 데이터 집합의 분포밀도를 하나의 확률밀도함수로 모델링하는 방법을 개선하여 밀도 추정 방법으로 복수 개의 가우시안 확률 밀도함수로 데이터의 분포를 모델링하는 방법이다. 하나의 가우시안으로는 모델링 할 수 없는 복수개의 중심점을 가지는 1차원 데이터와 2차원 환형 데이터에 대하여 견고하게 모델링된다. | |
HMM이 널리 사용되는 이유는 무엇 때문인가? | HMM이 널리 사용되어지는 이유는 음성과 문자 등에서 발견되는 많은 변형들을 흡수 할 수 있고, 시간에 따라 변해가는 특성을 지니는 데이터를 잘 모델링하며 파라미터의 수가 클수록 잘 모델링하기 때문이다. HMM 구조의 최적화를 위한 연구는 다양한 방법으로 진행되어 지고 있다. | |
HMM을 이용하는 어휘 인식에서 관측 확률의 이산적인 분포는 어떤 단점을 가지는가? | HMM을 이용하는 어휘 인식은 인식을 위한 모델이 구성되며 구성된 인식 모델들의 대한 관측 확률이 이산 적인 분포를 나타낸다. 이산적인 분포는 계산량이 적은 장점을 가지고 있지만 인식률은 상대적으로 낮은 단점을 가지고 있다. 이러한 단점을 보완하기 위해 베이시안 기법을 이용한 모델 최적화를 제안한다. |
Chan-Shik Ahn, Sang-Yeob Oh. Gaussian Model Optimization using Configuration Thread Control In CHMM Vocabulary Recognition. The Journal of Digital Policy and Management. Vol. 10, No. 7, pp. 167-172, 2012.
높은 점유를 갖는 상태부터 순차적으로 분할해서 점차 상태수를 증가시키는 방법이나 사전 확률에 기반한 사후 확률을 사용하는 복잡한 구조로부터 점차 구조를 감소시켜나가는 방법이 연구되었다[1].
Chan-Shik Ahn, Sang-Yeob Oh. Echo Noise Robust HMM Learning Model using Average Estimator LMS Algorithm. The Journal of Digital Policy and Management. Vol. 10, No. 10, pp. 277-282, 2012.
구조화된 모델들을 대상으로 파라미터의 집합들을 사용함으로써 보다 강인한 모델들을 추정하며 군집화에 사용될 모델 파라미터들의 초기 추정치를 생성하기 위하여 각 문맥들에 대한 데이터가 필요하다[2].
Chan-Shik Ahn, Sang-Yeob Oh. Efficient Continuous Vocabulary Clustering Modeling for Tying Model Recognition Performance Improvement. Journal of the Korea Society of Computer and Information. Vol. 15, No. 1, pp. 177-183, 2010.
Chan-Shik Ahn, Sang-Yeob Oh. CHMM Modeling using LMS Algorithm for Continuous Speech Recognition Improvement. The Journal of digital policy and management. Vol. 10, No. 11, pp. 377-382, 2012.
거리 기반 클러스터링 방법으로 고객의 선호도를 다차원 공간상의 점으로 표시하고, 거리를 계산함으로써 전체 고객들의 집합을 k개의 군집으로 나눈다[4].
Chan-Shik Ahn, Sang-Yeob Oh. Vocabulary Recognition Retrieval Optimized System using MLHF Model . Journal of the Korea Society of Computer and Information. Vol. 14, No. 10, pp. 217-223, 2009.
기준 Markov 모델을 만들고 입력된 음성과 저장된 기준 Morkov 모델을 비교하여 유사도가 가장 높은 기준의 Morkov 모델을 인식된 어휘로 결정한다[5].
S. M. Naqvi, M. Yu, J. A. Chamber. A Multimodal Approach to Blind Source Separation of Moving Sources. IEEE Trans. Signal Processing. Vol. 4, No. 5, pp. 895-910, 2010.
가우시안 확률 밀도 함수는 2차 지수 함수의 형태를 가지므로 2차원 이상의 다차원 식으로 표현이 가능하며, n-차원을 가지는 특징 벡터 x를 확률 변수로 한 가우시안 확률 밀도 함수는 다음과 같이 나타낸다[7].
S. Y. Cho, D. M. Sun, Z. D. Qiu. A Spearman correlation coefficient ranking for matching-score fusion on speaker recognition. Proc. TENCON Conf. pp. 736-741, 2011.
여기서, μ와 Σ는 가우시안 분포의 핵심 파라미터로 표현된다[8].
Jong-Young Ahn, Sang-Bum Kim, Su-Hoon Kim, Kang-In Hur. A study on Voice Recognition using Model Adaptation HMM for Mobile Environment. The Journal of the Institute of Webcasting, Internet and Telecommunication. Vol. 11, No. 3, pp. 175-179, 2011.
인식 실험에서는 실험에 참가한 화자가 음성 인식 목록을 3회 발음하여 총 300단어를 대상으로 실험을 수행하였다[10].
Sang-Yeob Oh. Selective Speech Feature Extraction using Channel Similarity in CHMM Vocabulary Recognition. The Journal of digital policy and management. Vol. 11, No. 10, pp. 453-458, 2013.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.