$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

위너필터에 의한 음성 중의 잡음제거 알고리즘
Noise Reduction Algorithm in Speech by Wiener Filter 원문보기

한국전자통신학회 논문지 = The Journal of the Korea Institute of Electronic Communication Sciences, v.8 no.9, 2013년, pp.1293 - 1298  

최재승 (신라대학교 전자공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 음성신호를 개선할 목적으로 잡음으로 오염된 음성신호로부터 잡음성분을 제거하기 위한 위너 필터를 사용한 잡음제거 알고리즘을 제안한다. 제안한 알고리즘은 먼저 잡음 복원 및 제거 방법에 기초하여 잡음으로 오염된 신호로부터 각 프레임에서 백색잡음의 잡음 스펙트럼을 제거한다. 또한 본 알고리즘은 선형예측 분석 방법에 기초한 위너 필터를 사용하여 음성신호를 강조한다. 본 실험에서는 일본 남성화자에 의한 음성과 잡음데이터를 사용하여 본 알고리즘의 실험 결과를 나타낸다. 백색잡음에 의하여 오염된 음성신호에 대하여 스펙트럼 왜곡률 척도를 사용하여 본 알고리즘이 유효하다는 것을 확인한다. 실험으로부터 백색잡음에 대하여 이전의 위너 필터와 비교하여 최대 4.94 dB의 출력 스펙트럼 왜곡률이 개선된 것을 확인할 수 있었다.

Abstract AI-Helper 아이콘AI-Helper

This paper proposes a noise reduction algorithm using Wiener filter to remove the noise components from the noisy speech in order to improve the speech signal. The proposed algorithm first removes the noise spectrums of white noise from the noisy signal based on the noise reshaping and reduction met...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 그림 1은 기존의 위너 필터에 의한 방법의 블록도를 나타낸다. 그림 1에서 위너 필터는 원 신호와 필터링된 신호와의 차를 최소화하도록 하며, 이 필터는 잡음으로 오염된 입력 음성신호를 처리하여 신호대 잡음비(Signal-to-noise ratio, SNR)를 최대로 향상시키는것을 목적으로 한다. 이것은 음성인식의 성능을 개선하기 위하여 널리 이용하는 방법이다.
  • 음향적으로 잡음제거를 고려할 때에 가장 중요한 요소 중의 하나는 인간의 청각이 위상정보에 둔감하고, 주로 진폭 스펙트럼 정보, 즉 진폭정보를 중요한 실마리로 인식하여 음성을 지각하고 있다는 사실을 들수 있다[14]. 따라서 본 연구에서는 이러한 관점으로부터 인간의 청각 기강의 성질을 충분히 고려하여 음성의 진폭 스펙트럼 성분의 추출을 첫 번째의 목표로 하는 위너 필터의 특성을 제안한다. 따라서 본 논문에서 제안하는 알고리즘은 선형 예측 분석(Linear Predictive Coding, LPC)[15, 16]에 의한 위너 필터를 사용하여 잡음성분을 제거하는 비선형적인 잡음 제거 알고리즘이다.
  • 본 논문에서는 인간의 청각에서 중요하게 고려하는 음성의 진폭 스펙트럼 성분을 강조하는 것을 목적으로하여 위너 필터의 특성에 기초한 알고리즘을 제안하였다. 본 논문에서 제안한 알고리즘은 먼저 잡음 복원 및 제거 방법에 기초하여 잡음으로 오염된 신호로부터 각 프레임에서 백색잡음의 잡음 스펙트럼을 제거한다.
  • 본 논문은 입력되는 음성신호에 포함되는 잡음을 제거하기 위하여, SD를 사용하여 음성 데이터에 대한 잡음제거의 실험결과에 대해서 기술한다.
  • 본 실험에서는 일본 남성화자에 의한 음성신호와 잡음신호를 사용하여 본 알고리즘의 실험 결과를 나타내었다. 백색잡음에 의하여 오염된 음성신호에 대하여 스펙트럼 왜곡률 척도를 사용하여 본 알고리즘이 유효하다는 것을 확인하였다.

가설 설정

  • 기존의 스펙트럼 차감법의 블록도를 그림 2에 나타낸다. 스펙트럼 차감 방법에서는 목적신호의 단구간 진폭 스펙트럼을 추정할 때에 잡음을 정상으로 가정하여, 잡음의 평균 진폭 스펙트럼을 사용한다. 그러나 가령 정상적이어도 잡음의 단구간 진폭 스펙트럼은 평균값의 주위에 분산하고 있어서, 이 분산 때문에 목적음의 단구간 진폭 스펙트럼의 추정 정확도가 떨어지기도 한다.
  • 를 구한다. 여기에서, 음성신호 s(t)와 잡음 n(t)는 서로 상관이 없다고 가정하며, 또한 잡음이 정상적이라고 가정한다. 스펙트럼 차감 방법에서는 다음 식에 의하여 목적신호의 단구간 스펙트럼의 추정값 #를 구한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
스펙트럼 차감법이란? 스펙트럼 차감법[4]은 원하는 신호의 짧은 프레임구간에서 진폭 스펙트럼을 추정하는 방법의 하나이며, 잡음이 중첩된 입력 음성신호의 스펙트럼으로부터 잡음신호의 스펙트럼을 차감하는 것으로부터 원하는 신호의 스펙트럼을 추정할 수 있다.
스펙트럼 차감법은 어떻게 원하는 신호의 스펙트럼을 추정할 수 있는가? 스펙트럼 차감법[4]은 원하는 신호의 짧은 프레임구간에서 진폭 스펙트럼을 추정하는 방법의 하나이며, 잡음이 중첩된 입력 음성신호의 스펙트럼으로부터 잡음신호의 스펙트럼을 차감하는 것으로부터 원하는 신호의 스펙트럼을 추정할 수 있다.
위너 필터는 무엇을 개선하기 위해 이용하는 방법인가? 그림 1에서 위너 필터는 원 신호와 필터링된 신호와의 차를 최소화하도록 하며, 이 필터는 잡음으로 오염된 입력 음성신호를 처리하여 신호대 잡음비(Signal-to-noise ratio, SNR)를 최대로 향상시키는것을 목적으로 한다. 이것은 음성인식의 성능을 개선하기 위하여 널리 이용하는 방법이다. 본 블록에서 잡음성분을 이산 여현 변환(Discrete Cosine Transform, DCT)을 한 후에 잡음성분을 추정한다.
질의응답 정보가 도움이 되었나요?

참고문헌 (19)

  1. K. Daqrouq, I. N. Abu-Isbeih, M. Alfauri, "Speech signal enhancement using neural network and wavelet transform", 2009 6th International Multi-Conference on Systems, Signals and Devices, pp. 1-6, 2009. 

  2. W. G. Knecht, M. E. Schenkel, G. S. Moschytz, "Neural network filters for speech enhancement", IEEE Trans. Speech and Audio Processing, Vol. 3, No. 6, pp. 433-438, 1995. 

  3. J. Chen, K. K. Paliwal and S. Nakamura, "Sub-band based additive noise removal for robust speech recognition", in Proc. Eurospeech, pp. 571-574, 2001. 

  4. S.F. Boll, "Suppression of acoustic noise in speech using spectral subtraction", IEEE Trans. Acoust., Speech, Signal Processing. Vol. 27, No. 2, pp. 113-120, 1979. 

  5. Y.P. Kim and H. Y. Lee, "A Study on Improved Method of Voice Recognition Rate", The Journal of The Korea Institute of Electronic Communication Sciences, Vol. 8, No. 1, pp. 77-83, 2013. 

  6. C.K. Lee and D.I. Kim, "Adaptive Noise Reduction of Speech Using Wavelet Transform", The Journal of The Korea Institute of Electronic Communication Sciences, Vol. 4, No. 3, pp. 190-196, 2009. 

  7. C.Y. Lee, "A Study on the Removal of Unusual Feature Vectors in Speech Recognition", The Journal of The Korea Institute of Electronic Communication Sciences, Vol. 8, No. 4, pp. 561-567, 2013. 

  8. J. Freudenberger, S. Stenzel, "Blind Matched Filtering for Speech Recording in Uncorrelated Noise", International Workshop on Acoustic Signal Enhancement, pp. 1-4, September 2012. 

  9. J.S. Hu, C.H. Yang, "Speech enhancement using transfer function ratio beamformer and matched filter array", International Conference on Information and Automation, pp. 1161- 1166, June 2009. 

  10. Y. Wang, J. An, V. Sethu, E. Ambikairajah, "Perceptually motivated pre-filter for speech enhancement using Kalman filtering", 2007 6th International Conference on Information, Communications & Signal Processing, pp. 1-4, December 2007. 

  11. Y. Shao, C.H. Chang, "A Kalman filter based on wavelet filter-bank and psychoacoustic modeling for speech enhancement", 2006 IEEE International Symposium on Circuits and Systems, ISCAS 2006. Proceedings, May, 2006. 

  12. L. Lin, W. H. Holmes and E. Ambikairajah, "Subband noise estimation for speech enhancement using a perceptual Wiener filter", IEEE International Conference on Acoustics, Speech, and Signal Processing, Vol. 1, pp. I-80- I-80-3, 2003. 

  13. X. Dang, T. Nakai, "Noise reduction using modified phase spectra and Wiener Filter", 2011 IEEE International Workshop on Machine Learning for Signal Processing (MLSP), pp. 1-5, September, 2011 

  14. J. H. L. Hansen and S. Nandkumar, "Robust estimation of speech in noisy backgrounds based on aspects of the auditory process", The Journal of the Acoustical Society of America, Vol. 97, No. 6, pp. 3833-3849, 1995. 

  15. X. Zhang, Y. Guo, Xuemei Hou, " A speech Recognition Method of Isolated Words Based on Modified LPC Cepstrum", IEEE International Conference on Granular Computing, pp. 481-484, 2007. 

  16. P.B. Patil: Multilayered network for LPC based speech recognition. IEEE Transactions on Consumer Electronics, Vol. 44, No. 2, pp. 435 - 438, 1998. 

  17. S.H. Jo, C.D. Yoo, "Psychoacoustically Constrained and Distortion Minimized Speech Enhancement," IEEE Transactions on Audio, Speech, and Language Processing, Vol. 18, No. 8, pp. 2099-2110, November 2010. 

  18. J. S. Choi, "Formant Enhancement Algorithm of Speech Using Auditory Filter", Journal of Korean Institute of Information Technology, Vol. 11, No. 7, June 2013. 

  19. K. Itoh, N. Kitawaki, and K. Kakehi, "A Study of Objective Quality Measures for Digital Speech Waveform Coding Systems", The Journal of Institute of Electronics, Information and Communication Engineers, Vol. J66-A, No. 3, pp. 274-281, 1983. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

이 논문과 함께 이용한 콘텐츠

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로