$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

상황인지 음악추천을 위한 음악 분위기 검출
Detection of Music Mood for Context-aware Music Recommendation 원문보기

정보처리학회논문지. The KIPS transactions. Part B. Part B, v.17B no.4, 2010년, pp.263 - 274  

이종인 (슈어소프트테크(주)) ,  여동규 (금오공과대학교 컴퓨터공학과) ,  김병만 (금오공과대학교)

초록
AI-Helper 아이콘AI-Helper

상황인지 음악추천 서비스를 제공하기 위해서는 무엇보다 상황 또는 문맥에 따라 사용자가 선호하는 음악의 분위기를 파악할 필요가 있다. 음악 분위기 검출에 대한 기존 연구의 대부분은 수작업으로 대표구간을 선정하고, 그 구간의 특징을 이용하여 분위기를 판별한다. 이러한 접근 방법은 분류 성능이 좋은 반면 전문가의 간섭을 요구하기 때문에 새로운 음악에 대해서는 적용하기 어렵다. 더욱이, 곡의 진행에 따라 음악 분위기가 달라지기 때문에 음악의 대표 분위기를 검출하는 것이 더욱 어려워진다. 본 논문에서는 이러한 문제점들을 보완하기 위해 음악 분위기를 자동으로 판별하는 새로운 방법을 제안하였다. 먼저 곡 전체를 구조적 분석 방법을 통하여 비슷한 특성을 갖는 세그먼트들로 분리한 후 각각에 대해 분위기를 판별한다. 그리고 세그먼트별 분위기 파악 시 Thayer 의 2차원 분위기 모델에 기초한 회귀분석 방법으로 개인별 주관적 분위기 성향을 모델링하였다. 실험결과, 제안된 방법이 80% 이상의 정확도를 보였다.

Abstract AI-Helper 아이콘AI-Helper

To provide context-aware music recommendation service, first of all, we need to catch music mood that a user prefers depending on his situation or context. Among various music characteristics, music mood has a close relation with people‘s emotion. Based on this relationship, some researchers have st...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • - 기존의 연구들은 개인의 주관적 성향을 고려하지 못하였으나, 본 논문에서는 개인별 상황을 인지하여 음악을 추천하기 위한 맞춤식 학습이 가능하도록 하였다.
  • - 기존의 연구들이 SVR 에 대한 학습 평가에서 그쳤으나, 본 논문에서는 더욱 정확한 평가를 위하여 AV 계수 값이 아닌 실제 사용자가 느끼는 음악의 분위기를 파악하여 평가하기 위한 AV 공간 정보를 이용한 평가방법을 제안하였다.
  • 본 논문에서는 상황인지 음악 추천을 위한 전단계로서 음악의 음향 데이터에서 분위기 정보 (AV 값) 를 추출하는 연구를 수행하였다. 향후, 상황별로 사용자가 좋아하는 음악들의 AV 특성을 파악하고 이를 바탕으로 상황정보를 고려한 내용 기반 상황 인지 음악 추천 방법에 대하여 연구할 계획이다.
  • 본 논문에서는 음악의 분위기 탐지를 위하여 기존 내용기반 음악 추천 및 분류 연구들에서 사용하는 수작업을 통한 일정길이 선택 방식이 아닌 실제 우리가 접하고 있는 음악을 구조분석 방법을 통하여 의미 있는 구간으로 나누고 이를 바탕으로 개인별 음악 분위기를 탐지하는 방법에 대해 연구하였다.
  • 본 논문에서는 이러한 문제점을 해결하기 위하여, 수동이 아닌 자동으로 음악 자체의 내용을 바탕으로 한 구조 분석기법을 통하여 음악을 의미 있는 구간들로 나누고, 각 구간들의 독립적인 분위기를 탐지하는 방법을 제안하였다. 또한, 전문가가 아닌 일반 사용자의 개인적 성향을 학습하여야 하는데, 비전문가인 경우 분위기에 대한 평가를 직접 지정하기가 어렵기 때문에 Thayer 의 2 차원 분위기 모델 [5] 을 응용한 분위기 형용사를 제공하고 사용자가 느끼는 분위기들을 여러 개 선택하도록 하였다.
  • 그러나 음악은 일정한 음악학적 구조에 맞추어 비슷한 구간이 반복되고 일정한 규칙을 지니고 있다. 본 논문에서는 이러한 음악 구조적 특징에 기반을 두어 우선 음악 구조를 분석한 뒤 이를 바탕으로 음악 분위기를 탐지하는 방법에 대한 연구를 수행하였다. 전체적인 시스템의 구조는 (그림2) 와 같다.
  • 하지만 주어진 데이터들이 적어 학습데이터와 테스트데이터를 나누기 곤란하거나 주어진 데이터만을 최대한 활용하여 가장 적절한 성능평가를 하기 위해서는 일반적으로 교차 검증 (Cross-validation) 을 사용하여 평가를 하게 된다. 본 논문에서는 총 319 개의 데이터 집합에 관하여 SVR 의 성능 평가를 위하여 일반적으로 사용되는 5-fold Cross-validation 을 사용하여 SVR 의 학습 성능을 살펴보았다.
  • 음악의 구조 정보와 각 구조의 사용자의 주관적 테스트 평가 정보, 그리고 구간별 추출된 음향 특징을 이용하여 분위기를 학습하기 위해서 본 논문에서는 회귀 모델을 기초로 하여 학습하도록 하였다. 회귀 모델을 위한 학습 알고리즘으로는 이진 클래스 분류에 있어 좋은 성능을 보여준 SVM (Support Vector Machine) 을 회귀 학습에 적용한 SVR (Support Vector Regression) 을 사용하였다.
  • 즉, 피실험자로부터 음악분위기 정보를 입력 받을 시 AV 값을 직접 입력 받지 않고 대신에 분위기 형용사를 이용한 것처럼, 분위기 판별 성능을 평가할 시에도 이러한 점을 고려할 필요가 있다. 이를 위해서 본 논문에서는 SVR 회귀 분석기를 통해 예측된 AV벡터 값과 피실험자가 입력한 분위기 정보가 얼마나 비슷한 분위기 형용사 그룹에 있는지를 측정하고자 하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
음악 내용을 기반으로 분위기를 탐지하여 상황에 맞는 지능적인 서비스를 제공할 수 있는 예는? 음악의 내용을 기반으로 분위기를 탐지할 수 있다면 상황이나 행위에 맞는 지능적인 서비스를 제공할 수 있게 된다. 예를 들어, 사용자가 흥분되어 있는 상태라면 차분하고 편안한 분위기의 음악을 추천하거나 들려주어 심리적 안정을 유도해줄 수 있다. 또한, 현재 재생중인 음악의 분위기에 맞게 조명을 자동으로 조정하는 감성 조명 시스템으로도 확장할 수 있을 것이다.
ANSI에서 정의하고 있는 음향의 3요소로 어떤 것이 있는가? ANSI (American National Standard Institute) 에서는 음향의 3 요소로 음고 (Pitch), 소리의 강도 (Loudness), 음색(Timbre) 을 정의하고 있다. 음고와 강도의 경우는 청취자의 민감도와 관련하여 음의 높이 및 세기의 척도가 되고 있다.
상황인지 음악추천 서비스 제공을 위해 우선적으로 필요한 것은? 상황인지 음악추천 서비스를 제공하기 위해서는 무엇보다 상황 또는 문맥에 따라 사용자가 선호하는 음악의 분위기를 파악할 필요가 있다. 음악 분위기 검출에 대한 기존 연구의 대부분은 수작업으로 대표구간을 선정하고, 그 구간의 특징을 이용하여 분위기를 판별한다.
질의응답 정보가 도움이 되었나요?

참고문헌 (30)

  1. T. Li and M. Ogihara, "Detecting Emotion in Music," Proc. of the International Symposium on Music Information Retrieval(ISMIR), pp.239-240, Washington D.C., USA, 2003. 

  2. L. Lu, D. Liu and H. Zhang, "Automatic Mood Detection and Tracking of Music Audio Signals," IEEE Trans. on Audio, Speech, and Language Processing, Vol..14, pp.5-18, 2006. 

  3. Y. Feng, Y. Zhang and Y. Pan, "Popular Music Retrieval by Detecting Mood," Proc. of ACM SIGIR 2003, pp.375-376, 2003. 

  4. Y.H. Yang, C.C. Liu and H.H. Chen, "Music Emotion Classification: a Fuzzy Approach," Proc. of ACM Multimedia 2006 (ACM MM'06), pp.81-84, Santa Barbara, CA, USA, 2006. 

  5. R.E. Thayer, "The Biopsychology of Mood and Arousal", Oxford University Press, 1989. 

  6. H. Katayose, M. Imai and S. Inokuchi, "Sentiment Extraction in Music," Proc. of International Conference Pattern Recognition, Vol.2, pp.1083-1087, 1998. 

  7. D. Liu, N. Zhang and H. Zhu, "Form and Mood Recognition of Johann Strauss's Waltz Centos," Chinese Journal of Electronics, Vol.12, Part.4, pp.587-593, 2003. 

  8. D. Hevner, "Experimental Studies of the Elements of Expression in Music," American Journal of Psychology, Vol.48, pp.246-268, 1936. 

  9. P.R. Farnsworth, "The Social Psychology of Music", The Dryden Press, 1958. 

  10. T. Li and M. Ogihara, "Content-based Music Similarity Search and Emotion Detection," Proc. of ICASSP '04, Vol.5, pp.705-708, 2004. 

  11. Y.H. Yang, Y.F. Su, Y.C. Lin and H.H. Chen, "Music Emotion Recognition: the Role of Individuality," Proc. of ACM SIGMM International Workshop on Human-centered Multimedia 2007, pp.13-21, Augsburg, Germany, 2007. 

  12. Y.H. Yang, C.C. Liu and H.H. Chen, "A Regression Approach to Music Emotion Recognition," IEEE Trans. on Audio, Speech, and Language Processing, Vol.16, pp.448-457, 2008. 

  13. G. Tzanetakis and P. Cook, "Musical Genre Classification of Audio Signals," IEEE Trans. on Speech and Audio Processing, Vol.10, No.5, pp.293-302, 2002. 

  14. J. J. Burred and A. Lerch, "A Hierarchical Approach to Automatic Musical Genre Classification," Proc. of the 6th International Conference on Digital Audio Effects (DAFx-03), 2003. 

  15. J. J. Burred and A. Lerch, "Hierarchical Automatic Audio Signal Classification," Journal of the Audio Engineering Society, Vol.52, No.7/8, pp.357-365, 2004. 

  16. D. Jiang, L. Lu, H. Zhang, J. Tao and L. Cai, "Music Type Classification by Spectral Contrast Feature," Proc. of ICME `02, Vol.1, pp.113-116, 2002. 

  17. T. Tolonen and M. Karjalainen, "A Computationally Efficient Multipitch Analysis Model," IEEE Trans. on Speech Audio Processing, Vol.8, pp.708-716, Nov. 2000. 

  18. T. Li, M. Ogihara and Q. Li, "A Comparative Study on Content-based Music Genre Classification," Proc. of the 26th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp.282-289, 2003. 

  19. Y. K. Kim and Y. Brian, "Singer Identification in Popular Music Recordings Using Voice Coding Features," Proc. of International Conference on Music Information Retrieval, 2002. 

  20. T. Zhang, "Automatic Singer Identification," Proc. of IEEE International Conference on Multimedia and Expo, IEEE CS Press, 2003. 

  21. X. Shao, N.C. Maddage, C. Xu and M.S. Kankanhalli, "Automatic Music Summarization Based on Music Structure Analysis," Proc. of ICASSP'05, Vol.2, pp.1169-1172, 2005. 

  22. Y. Shiu, H. Jeong and C.-C. J. Kuo, "Musical Structure Analysis Using Similarity Matrix and Dynamic Programming," Proc. of SPIE, Multimedia systems and applications, Vol.3, pp.398-409, 2005. 

  23. J. Paulus and A. Klapuri, "Music Structure Analysis by Finding Repeated Parts," Proc. of ACM AMCMM'06, pp.59-67, 2006. 

  24. M. Goto, "SmartMusicKIOSK: Music Listening station with Chorus-Search Function," Proc. of the 16th annual ACM symposium on User Interface Software and Technology, pp.31-40, 2003. 

  25. S. Abdallah, K. Nolad, M. Sandler, M. Casey and C. Rhodes, "Theory and Evaluation of a Bayesian Music Structure Extractor," Proc. of 6th International Conference on Music Information Retrieval London, UK, Sept. 2005. 

  26. M. Levy, M. Sandier and M. Casey, "Extraction of High-Level Musical Structure From Audio Data and Its Application to Thumbnail Generation," Proc. of ICASSP'06, Vol.5, pp.13-16, Toulouse, France, May 2006. 

  27. M. Levy, M. Sandier and M. Casey, "Structural Segmentation of Musical Audio by Constrained Clustering," IEEE Trans. on Audio, Speech, and Language Processing, Vol.16, pp.318-326, 2008. 

  28. L. Lu and H. Zhang, "Automated Extraction of Music Snippets," Proc. of the 11'th ACM International Conference on Multimedia, pp.140-147, 2003. 

  29. T. Zhang and R. Samadani, "Automatic Generation of Music Thumbnails," Proc. of IEEE International Conference on Multimedia and Expo, pp.228-231, 2007. 

  30. G. Peeters, "Deriving Musical Structure from Signal Analysis for Music Audio Summary Generation: "Sequence" and "State" Approach," In Lecture Notes in Computer Science, Vol.2771, pp.143-166. Springer-Verlag, 2004. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로