$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

음악 추천을 위한 감정 전이 모델 기반의 음악 분류 기법
Emotion Transition Model based Music Classification Scheme for Music Recommendation 원문보기

전기전자학회논문지 = Journal of IKEEE, v.13 no.2, 2009년, pp.159 - 166  

한병준 (고려대학교 전자전기공학과) ,  황인준 (고려대학교 전기전자전파공학부)

초록
AI-Helper 아이콘AI-Helper

최근까지 장르나 무드 등의 정적 분류 기술자를 이용한 음악 정보 검색에 관한 다양한 연구가 진행되어 왔다. 정적 분류 기술자는 주로 음악의 다양한 내용적 특징에 기반하기 때문에 그러한 특징에 유사한 음악을 검색하는 데 효과적이다. 하지만 음악을 들었을 때 느끼게 되는 감정 내지 기분 전이를 이용하면 정적 분류 기술자보다 더 효과적이고 정교한 검색이 가능하다. 사람이 음악을 들었을 때 발생하는 감정 전이의 효과에 관한 연구는 현재까지 미비한 실정이다. 감정 전이의 효과를 체계적으로 표현할 수 있다면 기존의 음악 분류에 의한 검색에 비해 음악 추천 등의 새로운 응용에서 더 효과적인 개인화 서비스를 제공할 수 있다. 본 논문에서는 음악에 의한 인간 감정 전이를 표현하기 위한 감정 상태 전이 모델을 제안하고 이를 기반으로 새로운 음악 분류 및 추천 기법을 제안한다. 제안하는 모델의 개발을 위하여 다양한 내용 기반의 특징을 추출하였으며, 고차원 특징 벡터의 차원 감쇄를 위하여 NMF (Non-negative Matrix Factorization)를 사용하였다. 성능 분석을 위한 실험에서 SVM (Support Vector Machine)을 분류기로 사용한 실험에서 평균 67.54%, 최대 87.78%의 분류 정확도를 달성하였다.

Abstract AI-Helper 아이콘AI-Helper

So far, many researches have been done to retrieve music information using static classification descriptors such as genre and mood. Since static classification descriptors are based on diverse content-based musical features, they are effective in retrieving similar music in terms of such features. ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 어떤 사건이나 현상 등으로 인하여 발생하는 감정의 변화를 ‘감정 전이(emotion transition)'라 정의하고, 음악에 의한 감정 전이의 정도를 정량적으로 표현하고자 한다.
  • 본 논문에서는 음악의 분류나 질의 및 추천을 위한 방법으로 기존의 무드나 장르와 같은 정적 분류자 대신 음악을 통해 사람이 느끼게 되는 감정의 전이 효과를 이용하고자 하였다. 이를 위해 음악에 의한 인간 감정 전이의 정도를 정량적으로 표현하기 위한 감정 상태 전이 모델 (ESTM)을 제안하고 이를 기반으로 새로운 음악 분류 및 추천 기법을 제안하였다.
  • 심리 상태 전이 네트워크는 각각의 감정을 개별적인 것으로 보고, 감정 간의 전이를 확률을 통해 직관적으로 나타낸다는 장점이 있지만, 어떤 시점에서의 감정과 감정 간의 상호 효과를 고려하지 않았으며, 어떤 사건으로 인해 현재 감정으로부터 다른 감정으로의 전이에 오히려 부정적 효과가 나타낼 수 있음을 고려하지 않았다. 본 논문에서는 이러한 심리 상태 전이 네트워크에서의 문제점을 다른 방식으로 해결하고자 한다.
  • 본 장에서는 앞에서 제안한 감정 상태 전이 모델을 구축하기 위한 기초 데이터로 사용되는 다양한 음악의 저수준 특징들과 그들을 추출하는 방법을 제시한다.

가설 설정

  • 감정 상태의 전이를 수학적으로 정의하면, 우선 n개의 감정 형용사를 사용해서 사람의 감정을 표현한다고 가정하고, 현재의 감정 상태는 구성 감정 형용사의 정도를 나타내는 행렬 벡터 수식을 사용하여 다음과 같이 표현할 수 있다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
감정 상태 전이 모델이란 어떠한 방법인가? 감정 상태 전이 모델은 사용자의 복합적인 현재 감정 상태가 음악에 의해 다른 감정 상태로 어떻게 전이하는 가를 정량적으로 표현하기 위한 방법이다. 이러한 감정 상태 전이 모델은 개인화 서비스나 소규모 음악 커뮤니티 등 다양한 범위의 사용자 그룹에 대하여 정의가 가능하며 동질의 사용자 그룹일수록 정확하고 효과적인 감정 상태 전이를 표현할 수 있다.
음악 정보 검색을 위한 특징 추출은 음악적 요소의 개입 여부에 따라 어떻게 나눌 수 있는가? 음악 정보 검색을 위한 특징 추출은 음악적 요소의 개입 여부에 따라 신호 분석 레벨에서의 특징 추출, 음악적 구조를 고려한 특징 추출, 그리고 이 두 가지를 혼합한 하이브리드 특징 추출 등으로 나눌 수 있다.
일반 사용자가 음악을 들을 때 발생하는 감정 전이 효과에 관한 연구는 어떠한 분야에 활용될 수 있는가? 일반 사용자가 음악을 들을 때 발생하는 감정 전이 효과에 대한 연구는 다음과 같은 많은 분야에서 활용될 수 있다. 첫째, 사용자의 보편적인 음악 기호를 분석하고 이에 따라 음악을 분류하는 데에 활용될 수 있다. 둘째, 비슷한 성향을 가진 사용자끼리 군집 분류를 하여, 개인별 차별화 서비스를 제공할 수 있다. 셋째, 음악 치료나 유비쿼터스 상황 인지 등 감정의 변화가 수반되거나 예상되는 서비스 분야에 효과적으로 대처할 수 있다. 마지막으로, 음악 아티스트가 역으로 자신의 아트 성향을 분석하는 데에도 활용될 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (24)

  1. MIREX 2008, http://www.music-ir.org/mirex/2008/index.php 

  2. L. Lu, et al., "Automatic Mood Detection and Tracking of Music Audio Signals," IEEE Transactions on Audio, Speech, and Language Processing, vol.14, no.1, pp.5-18, 2006. 

  3. H. Xiang, et al., "An Experimentation on Creating a Mental State Transition Network," Proceedings of IEEE International Conference on Information Acquisition, pp.432-436, 2005. 

  4. 한병준, 노승민, 황인준, "음악 무드 분류에서 음향 특성과 차원 감쇄 기법의 효과 연구," 한국컴퓨터 종합학술대회, vol.35, no.1(C), pp.406-411, 2008년. 

  5. 박창호 등, "인지공학심리학: 인간-시스템 상호 작용의 이해," 시그마프레스, 2007. 

  6. J.A. Russel, "A circumplex model of affect," Journal of Personality Social Psychology, vol.39, pp.1161-1178, 1980. 

  7. R.E. Thayer, "The Biopsychology of Mood and Arousal," Oxford Univ. Press, 1989. 

  8. S. Jun, S. Rho, B. Han, E. Hwang, "A Fuzzy Inference-based Music Emotion Recognition System," IEE International Conferences on Visual Information Engineering, 2008. 

  9. Meinard Muller, "Information Retrieval for Music and Motion," Springer, 2007. 

  10. L. R. Rabiner and B. H. Juang, "Fundamentals of Speech Recognition," Prentice Hall, 1993. 

  11. M. Cord, P. Cunningham, "Machine Learning Techniques for Multimedia," Springer, 2008. 

  12. A. Klapuri and M. Davy, "Signal Processing Methods for Music Transcription," Springer Science+Business Media LLC, 2006. 

  13. D. Ellis and G. Poliner, "Identifying `Cover Songs' with Chroma Features and Dynamic Programming Beat Tracking," Proceedings of IEEE ICASSP 2007, vol.4, pp.1429-1432, 2007. 

  14. Krumhansl C (1990) Cognitive Foundations of Musical Pitch. Oxford University Press. 

  15. D.D.Lee and S.Seung, "Learning the parts of objects by non-negative matrix factorization," Nature vol.401, no.6755 pp.788-791, 1999. 

  16. D.D.Lee and S.Seung, "Algorithms for Non-negative Matrix Factorization," Advances in Neural Information Processing System 13: Proc. of the 2000 Conference, pp.556-562. MIT Press, 2001. 

  17. E. Allwein, et al., "Reducing Multiclass to Binary: A Unifying Approach for Margin Classifiers," Journal of Machine Learning Research, vol.1, pp.113-141, 2000. 

  18. All Music Guide, http://www.allmusic.com/ 

  19. 뮤직인터페이스 멜론(melon), http://melon.com/ 

  20. C.-C. Chang and C.-J. Lin, "LIBSVM : a library for support vector machines," Software available at http://www.csie.ntu.edu.tw/~cjlin/libsvm of subordinate document. Access 30 Jun 2008. 

  21. B. E. Boser, et al., "A training algorithm for optimal margin classifiers," In proc. of the Fifth Annual Workshop on Computational Learning Theory, pp.144-152, ACM Press, 1992. 

  22. C. Cortes and V. Vapnik, "Support-vector network. Machine Learning," vol.20, 1995. 

  23. B. Scholkopf, J.C. Platt et al., "Estimating the support of a high-dimensional distribution," Microsoft research corporation technical report MSR-TR-99-87, 1999. 

  24. A. Holzapfel and Y. Stylianou, "Musical Genre Classification Using Nonnegative Matrix Factorization-Based Features," IEEE Trans. on ASLP, vol.16, no.2, pp.424-434, 2008. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로