$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

스펙트로그램과 심층 신경망을 이용한 온라인 오디오 장르 분류
On-Line Audio Genre Classification using Spectrogram and Deep Neural Network 원문보기

방송공학회논문지 = Journal of broadcast engineering, v.21 no.6, 2016년, pp.977 - 985  

윤호원 (광운대학교 전자공학과) ,  신성현 (광운대학교 전자공학과) ,  장우진 (광운대학교 전자공학과) ,  박호종 (광운대학교 전자공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문은 스펙트로그램심층 신경망을 이용한 온라인 오디오 장르 분류 방법을 제안한다. 제안한 방법은 온라인 동작을 위하여 1초 단위로 신호를 입력하여 speech, music, effect 중 하나의 장르로 분류하고, 동작의 범용성을 위하여 기존 오디오 분석에 널리 사용되는 MFCC 대신에 스펙트로그램 기반의 특성 벡터를 사용한다. 실제 TV 방송 신호를 사용하여 장르 분류 성능을 측정하였고, 제안 방법이 기존 방법보다 각 장르에 대하여 우수한 성능을 제공하는 것을 확인하였다. 특히 제안 방법은 기존 방법에서 나타나는 music과 effect 사이를 잘못 분류하는 문제점을 감소시킨다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, we propose a new method for on-line genre classification using spectrogram and deep neural network. For on-line processing, the proposed method inputs an audio signal for a time period of 1sec and classifies its genre among 3 genres of speech, music, and effect. In order to provide th...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 후)특성벡터에">특성 벡터에 대해 특별한 조건을 요구하지 않으므로 GMM에서 사용하였던 MFCC를 사용하지 않아도 된다. 따라서 본 논문에서는 MFCC보다 더 일반적인 특성인 스펙트로그램 기반의 특성 벡터를 제안한다. 또한, DNN은 시간 진행에 따른 특성을 DNN 매개 변수를 구하는 이론적 방법은 없으며, 실험을 통하여 주어진 동작의 성능을 분석하여 결정해야 한다. 본 논문에서는 다양한 매개 변수 조합에 대한 반복적인 장르 분류 성능 분석을 통하여 최상의 매개 변수를 결정하였다.
  • 본 논문에서는 심층 신경망 기반의 온라인 오디오 장르 분류 방법을 제안하였다. 제안한 방법은 입력 오디오 신호를 1초 단위로 분석하여 speech, music, effect의 본 논문은 speech, music, 음향 효과 또는 자연음에 해당하는 effect 등의 3가지 장르를 1초 단위로 분류하는 온라인 장르 분류 기술을 제안한다. 기존의 대표적인 장르 분류 기술은 오디오 신호의 MFCC (mel-frequency cepstral coefficient), 스펙트럼 분포, 스펙트럼 변화량 등의 시간 통계 특성을 GMM (Gaussian mixture model) 또는 심층 신경망 (deep neural network, DNN)으로 또한, 기존 DNN 방법은 30초 단위로 장르를 분류하는 오프라인 동작만 제공하고[3], MFCC와 같이 매우 특화된 특성을 사용하여 범용성에 한계를 가진다[3,5]. 본 논문은 이 문제를 해결하기 위하여 새로운 특성을 정의하고 DNN으로 모델링 하는 장르 분류 방법을 제안한다. 특히,
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
역전파 방식에 따라 진행되는 가중치 갱신 때문에 장르 분류를 위해 drop-out을 적용하기 알맞은 위치는? 그림 5가 drop-out 비율에 따른 장르 분류 성능을 보여준다. 가중치 갱신은 역전파 방식에 따라 진행되기 때문에 영향력이 가장 큰 마지막 3번째 은닉층에 drop-out을 적용하는 것이 가장 효과적인 것을 확인하였다. 또한, 3번째 은닉 층에서 drop-out을 강하게 적용하기보다는 10%를 적용했을 때 가장 우수한 성능을 가지고, drop-out으로 인해 과적응 현상이 감소하여 drop-out을 적용하지 않을 때 (drop-out 비율 0%)에 비하여 성능이 향상되는 것을 확인할 수 있다.
오디오 신호의 장르는? 오디오 콘텐츠의 특성을 분석하여 해당 특성에 특화된 서비스를 제공하려는 시도가 여러 플랫폼에서 진행 중이다[1]. 오디오 신호의 장르 (genre)는 오디오 콘텐츠의 특성을 나타내는 대표적인 분류 기준이며, 따라서 오디오 장르를 자동으로 분류하는 기술이 널리 연구되고 있다. 대부분의 기존 기술은 주어진 오디오 신호 전체를 분석하여 해당 오디오의 장르를 한 번 판정하는 방법을 사용한다[2,3].
짧은 시간 단위로 장르를 분류하는 온라인 장르 분류 기술 연구가 요구되는 이유는? 즉, 기존 방법은 단말기 또는 서버에 저장된 오디오 신호의 장르 분류에 적용하는 오프라인 (off-line) 방법에 해당한다. 최근에는 방송에서 콘텐츠 특성에 따른 특화된 서비스를 위하여 오디오 신호의 온라인 (on-line) 장르 분류 방법이 요구 되고 있다[4]. 예로, TV 프로그램을 시청할 때 방송되는 음악에 따라 실시간으로 최적의 이퀄라이저를 적용하여 시청자에게 제공하려면 온라인 장르 분류가 필요하다. 따라서 짧은 시간 단위로 장르를 분류하는 온라인 장르 분류 기술 연구가 요구된다.
질의응답 정보가 도움이 되었나요?

참고문헌 (9)

  1. Daeyoung Jang, Jeongil Seo, Yong Ju Lee, Jae-hyoun Yoo, Taejin Park and Taejin Lee, "A Study on Realistic Sound Reproduction for UHDTV," Journal of Broadcast Engineering, vol 20, no. 1, pp. 68-81, Jan. 2015. 

  2. G. Tzanetakis and P. Cook, "Musical Genre Classification of Audio Signals," IEEE Transactions on Speech and Audio Processing, vol. 10, no. 5, pp. 293-302, Jul. 2002. 

  3. Tao Feng, "Deep learning for music genre classification," private document. 

  4. Jung-Sung Lee and Hyoung-Gook Kim, "Background Music Identification in TV Broadcasting Program Algorithm using Audio Peak Detection," Proc. of 2013 Korean Institute of Broadcast and Media Engineers Summer Conference, pp. 34-35, Jun. 2013. 

  5. Z. Kons and O. Toledo-Ronen, "Audio event classification using deep neural networks," Proc. of Interspeech, pp. 1482-1486, 2013. 

  6. D. Reynolds, "Gaussian Mixture Models," Encyclopedia of Biometrics, pp. 827-832, Jul. 2015. 

  7. ETSI ES 202 211, "Speech Processing, Transmission and Quality Aspects (STQ); Distributed Speech Recognition; Extended Front-End Feature Extraction Algorithm; Compression Algorithm; Back-End Speech Reconstruction Algorithm," Nov. 2003. 

  8. G. E. Hinton and R. R. Salakhutdinov, "Reducing the Dimensionality of Data with Neural Networks," Science, vol. 313, pp. 504-507, Jul. 2006. 

  9. N. Srivastava, G. Hinton, A. Krizhevsky and R. Salakhutdinov, "Dropout: A Simple Way to Prevent Neural Networks from Overfitting," Journal of Machine Learning Research, 15(1), pp. 1929-1958, Jun. 2014. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로