$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

디지털 음악 콘텐츠의 확장된 검색을 지원하는 한국어 기반 감성 모델과 온톨로지 설계
Designing emotional model and Ontology based on Korean to support extended search of digital music content 원문보기

韓國컴퓨터情報學會論文誌 = Journal of the Korea Society of Computer and Information, v.18 no.5, 2013년, pp.43 - 52  

김선경 (홍익대학교 컴퓨터공학과) ,  신판섭 (대진대학교 컴퓨터공학과) ,  임해철 (홍익대학교 컴퓨터공학과)

초록
AI-Helper 아이콘AI-Helper

대량의 음악 콘텐츠가 유통되는 초고속 인터넷 환경에서, 사용자가 원하는 음악 콘텐츠를 효과적으로 검색하기 위한 연구들이 다양하게 수행되고 있다. 특히, 음악 정보 검색(MIR: Music Information Retrieval) 연구에 감성 모델을 접목한 음악 추천 시스템 개발도 활발하게 진행되고 있다. 그러나, 적용된 감성 모델이 단순하고, 한국어를 대상으로 하지 않아 한국어의 의미적 감성 표현 처리에 한계점을 가진다. 따라서, 본 논문에서는, 한국어를 기반으로, 기존의 감성 모델을 확장한 새로운 감성 모델(KORean Emotional Model : KOREM)을 제안하고, 이를 온톨로지(Music EMotional Ontology : MEMO)로 설계 및 구현하였다. 이를 통해, 한글로 서술된 폭넓고 다양한 감성적 표현을 이용한 음악 콘텐츠의 분류, 저장 및 검색이 가능하다.

Abstract AI-Helper 아이콘AI-Helper

In recent years, a large amount of music content is distributed in the Internet environment. In order to retrieve the music content effectively that user want, various studies have been carried out. Especially, it is also actively developing music recommendation system combining emotion model with M...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 2장 2절에 기술된 [19],[20]의 연구 과정과 유사한 절차로 한국어 기반 감성 모델을 정의하기 위한 연구를 진행하였다. 두 연구 모두 연세대학교 어휘 총집을 기초 자료로 최근 어휘 목록을 이용하였으나 [19]의 경우, ‘송연하다’와 같이 현재 잘 사용하지 않는 단어가 포함되어있고, 감정의 차원을 기술하는데 초점을 맞추었으며, [20]은 감성표현 목록은 일상생활에서 실제로 사용하는 단어를 선별한 것이기 때문에 현재 사용되는 단어의 빈도가 높다.
  • 본 논문에서는 앞서 언급된 문제점을 바탕으로 한국어 감성 모델(KORean Emotional Model : KOREM)을 정의하고 이를 위한 음악 감성 온톨로지(Music EMotional Ontology : MEMO)를 설계한다. MEMO는 OWL-Lite로 기술하고 Protege 4.
  • 본 논문에서는 한국어 기반 감성 모델(KOREM)을 제안하였다. KOREM은 영어 기반의 기존 감성 모델을 확장하여 한글 어휘 분석을 통해 정의되었으며, 하나의 직접 감성 그룹과 이를 보조하는 6개의 간접 감성 그룹으로 구성되며 이를 통해 감성정보에 대한 확장된 추론이 가능하다.
  • 본 절에서는 한글로 기술된 감성적 메타데이터를 객관적으로 표현할 수 있는 한국어기반 감성모델을 정의한다.
  • 국내 연구로는 KETI와 세종대가 공동 진행하는 감성기반 음악 추천 엔진에 관한 연구가 있다[16]. 이 연구는 음원의 시그널 분석을 통해 음악의 감성과 장르 등의 정보를 추출하여 감성과 취향에 적합한 음악을 추천하는 시스템 개발을 목표로 하고 있으며, 음악 장르 분류(AGC, Audio Genre Classification) 기술과 음악 분위기 분류(AMC, Audio Mood Classification) 기술 등의 연구가 진행 중에 있다.
  • 이러한 분석을 통하여 본 논문에서는, 다음과 같은 한국어 기반 감성 모델(KOREM)을 제안한다. KOREM은 기존 감성모델을 확장하여 한글을 기반으로 정의 되었으며, 기존 2차원 모델이 아니라, 하나의 직접 감성(Direct Emotion) 그룹과 이를 보조하는 6개의 간접 감성 그룹으로 구성된다.
  • 두 연구 모두 연세대학교 어휘 총집을 기초 자료로 최근 어휘 목록을 이용하였으나 [19]의 경우, ‘송연하다’와 같이 현재 잘 사용하지 않는 단어가 포함되어있고, 감정의 차원을 기술하는데 초점을 맞추었으며, [20]은 감성표현 목록은 일상생활에서 실제로 사용하는 단어를 선별한 것이기 때문에 현재 사용되는 단어의 빈도가 높다. 하지만, 두 연구의 주요 목표는 현대 한국어 어휘의 빈도를 기반으로 감성 표현 단어를 선별하는 것이다. 이와 달리 본 연구는 디지털 음악 콘텐츠의 분류와 검색을 위한 감성적 표현에 초점을 맞추어 연구를 진행하였기 때문에 기존 연구와는 차별화 된다.

가설 설정

  • 이는 실제 시스템을 구축할 때 값의 범위가 광범위하기 때문에 자동화된 알고리즘으로 처리하기가 어렵다. 둘째, 실제 시스템의 구축이 피상적이다. 즉, 구체화가 미흡하여 상황에 따라 발생할 수 있는 규칙(Rule)의 개수를 한정하기 어렵다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
COMUS의 주요 기능은 무엇인가? 이 연구는 음악 온톨로지에 5개의 클래스(음악, 장르, 사람, 무드, 상황)를 추가하여 음악 추천 시스템(COMUS)을 구축하였다. COMUS의 주요 기능은 사람의 기호와 습관 등을 반영하여 음악을 추천해주는 것이다. 그러나, COMUS는 다음과 같은 문제점을 내포하고 있다.
기존의 MIR 연구는 어떻게 나눌 수 있는가? 기존의 MIR 연구를 크게 분류하면 다음의 세 가지로 나눌 수 있다[6]. 첫째, 음악 콘텐츠의 헤더 파일에 저장된 제목, 가수, 앨범명 등과 같은 텍스트 기반의 메타데이터를 이용하여 검색하는 방법이다(e.g. ID3[7], Dublin Core[8]). 둘째, 음악 콘텐츠의 멜로디나 리듬 같은 로우레벨 정보를 기술적인 기법으로 추출하여 메타데이터로 변환 후 분석하여 검색하는 방법이다. 예로는 사용자가 입력한 멜로디와 유사한 곡을 검색하는 네이버 음악검색 서비스가 있다. 셋째, 집단 지성(Collective intelligence)을 이용하는 방법이 있다. 즉, 음악을 감상한 사용자들이 태깅한 검색어, 주제어, 추천 키워드 등과 같은 메타데이터를 이용하여 검색하는 방법이다(e.g. 아마존(Amazon)의 음원 서비스)[9].
음원 콘텐츠 검색 기법이란? 음원 콘텐츠 검색 기법(Music Information Retrieval : MIR)[5]은 음악 콘텐츠를 디지털 신호로 변환하고 분석하여 유사한 음악을 검색하거나 사용자가 원하는 음악 콘텐츠를 검색하는데 활용하는 기술이다. 특히, MIR은 신호처리, 전산학, 정보학, 기계 학습 등 다양한 학문 분야 접목되어 연구되어지고 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (23)

  1. Alfio Ferrara, Luca A. Ludovico, "A Semantic Web ontology for context-based classification and retrieval of music resources", ACM Transactions on Multimedia Computing, Communications, and Applications (TOMCCAP), 2006. 

  2. Liu, D., Hong-Jiang Zhang, "Automatic mood detection and tracking of music audio signals", IEEE Transactions on Audio, Speech & Language Processing, 2006. 

  3. Yves Raimond, "A Distributed Music Information System(page 37-65) ", Queen Mary University of London, London, UK, January 2009. 

  4. Ellard, K. K., Farchione, T. J., & Barlow, D. H. (In press). Relative effectiveness of emotion induction procedures and the role of personal relevance in a clinical sample: A comparison of film, images, and music. Journal of Psychopathology and Behavioral Assessment. doi: 10.1007/s10862-011-9271-4, December 2011. 

  5. MIREX Home, http://www.music-ir.org/mirex/ 

  6. Finding Musical Information, Donald Byrd, Indiana University, 2006.11.7 

  7. http://www.id3.org/ 

  8. http://dublincore.org/documents/dcmi-terms/ 

  9. CloudPlayer, http://www.amazon.com/gp/dmusicmarketing/CloudPlayerLaunchPage 

  10. Se Heon Song, Seung Min Rho, "Aviation Application : An Ontological and Rule-based Reasoning for Music Recommendation using Musical Moods", The journal of Korea Navigation Institute, Vol.14 No.1, 2010. 

  11. BoKook Yoon, SeongYong Hong, "A Design of Music Retrieval and Recommendation System based on Emotion", Korea Computer Congress 2011, Vol 38. No.1(D), 2011. 

  12. Ekman, P. & Oster, H., Facial Expressions of Emotion. Annual Review of Psychology, 30, 527-554, 1979. 

  13. Russell, J. A., "Evidence of convergent validity on the dimensions of affect", Journal of Personality and Social Psychology, 36(10), 1152-1168, 1978. 

  14. Thayer, R. E. "The Biopsychology of Mood and Arousal", New York: Oxford University Press, 1989. 

  15. Musicovery, http://musicovery.com/ 

  16. KETI, http://www.keti.re.kr/ 

  17. Institute of Language and information Studies, http://ilis.yonsei.ac.kr/ 

  18. YouseKoreanDictionary, http://ilis.yonsei.ac.krdic/ 

  19. In Jo Park, Kyung Hwan Min, "Making a List of Korean Emotion Terms and Exploring Dimensions Underlying Them", Vol.19, No.1, Startpage 109, Endpage 129, Totalpage 21, 2005. 

  20. Sun Ju Sohn, Mi Sook Park, "Korean Emotion Vocabulary: Extraction and Categorization of Feeling Words", Korea Society for Emotion and Sensibility, 105-120, 2012. 

  21. Ekman, P, "Strong evidence for universals in facial expressions: A reply to Russell''s mistaken critique", Psychological Bulletin, 115(2), 268-287, 1994. 

  22. Greenwald, M., Cook, E., & Lang, P. , "Affective judgment and psychophysiological response: Dimensional covariation in the evaluation of pictorial stimuli", Journal of Psychophysiology, 3(1), 51-64, 1989. 

  23. hannanum, http://kldp.net/projects/hannanum 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로