$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

가사 텍스트의 감성분석에 기반 한 음악 시각화 콘텐츠 개발
Development of the Artwork using Music Visualization based on Sentiment Analysis of Lyrics 원문보기

한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.20 no.10, 2020년, pp.89 - 99  

김혜란 (세종대학교 소프트웨어융합대학 만화애니메이션텍 전공)

초록
AI-Helper 아이콘AI-Helper

본 연구에서는 음악 가사의 감성분석을 통한 영상작품의 제작을 시도하였다. 가사 텍스트의 감성분석에는 구글(Google)의 자연어 처리 API를 활용하였고 그 결과를 영상 시각화 규칙과 연결하였다. 기존의 공학적 연구들에서의 텍스트 기반 감성분석은 소셜 미디어에서의 사용자 댓글과 리뷰를 분석해서 사용자들의 감정과 태도를 이해하도록 하는 연구들이 많았다. 본 연구에서는 감성분석 데이터가 예술작품 창작의 재료가 되어 심미적 표현에 활용될 수 있도록 하였다. 기계의 관점에서 볼 때 감정은 숫자로 치환되어 나타나므로 규격화, 표준화 될 수밖에 없다는 한계점이 있다. 이에 가사 데이터의 감성분석 결과를 시각예술에서의 조형요소들의 규칙과 연결하여 이러한 한계를 일부 극복해보자 하였다. 본 연구는 인공지능이 인간의 고도화 된 정신적 산물인 예술작품의 창작까지 시도하는 현 시대를 반영하며 문학, 음악, 회화, 무용 등 기존의 전통적인 예술작품을 기계를 통해 바라본 새로운 형태의 예술작품으로 만들어 보고자 하는 목표를 가지고 있다. 더불어 감정표현에 어려움을 겪는 발달 장애인들의 창작활동과 심리분석 및 의사소통을 용이하게 해주는 예술창작 및 교육 플랫폼으로 확장되기를 기대한다.

Abstract AI-Helper 아이콘AI-Helper

In this study, we tried to produce moving-image works through sentiment analysis of music. First, Google natural language API was used for the sentiment analysis of lyrics, then the result was applied to the image visualization rules. In prior engineering researches, text-based sentiment analysis ha...

주제어

표/그림 (14)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구에서는 음악의 감성분석 데이터를 예술적으로 활용하기 위해 텍스트(음악의 가사) 데이터를 분석하고 시각화 한 내용을 중점적으로 다룬다. 기존의 예술작품들의 데이터 분석에 자연어처리 감성분석과 같은 머신러닝 기술을 적용하고 이를 기반으로 기계의 시점에서 바라 본 새로운 형태의 예술로 재창조하고자 한다. 또한, 향후 감정표현에 어려움을 겪는 발달 장애인들의 창작활동을 보조하며 이들의 의사소통을 용이하게 해주는 인공지능 기반 교육 플랫폼으로 확장되기를 기대한다.
  • 첫째, 텍스트를 기반으로 한 감성분석 및 데이터 시각화와 관련된 선행연구들을 소개한다. 둘째, 대표 감성모델과 자연어처리 감성분석 기술에 대해 소개한다. 셋째, 감성모델과 가사 데이터 분석과 연결되는 시각화 규칙을 만들고 이에 따라 생성된 영상 작품을 소개한다.
  • 기존의 감성차원모델은 이러한 수치적 데이터와 추상적인 감정을 연결해주는 역할을 하도록 하였다. 머신러닝 기술을 통해 기존 예술작품들을 데이터의 관점으로 바라보고자 하였고 이러한 데이터의 활용이 또다른 예술작품을 만드는 재료가 되어 작품 창작으로 지속적으로 이어질 수 있도록 하였다. 이미 데이터는 예술가들에게 새로운 표현을 위한 창작의 도구로 활용되고 있으며 인공지능은 네트워크상에 방대하게 축적된 데이터들을 기반으로 인간의 고도화 된 정신적 산물인 예술작품의 창작까지도 시도하고 있다.
  • 본 연구에서는 음악을 들을 때 가사의 감정과 음원 및 멜로디의 감정이 다를 수도 있다는 사실에 주목하여 방법적으로는 텍스트 기반 감성분석 데이터에 음원의 속성에 따른 감성분석을 결합하여 인터랙티브 영상설치의 형태로 시각화하였다. 방법적으로는 형태, 움직임, 색을 중심으로 한 조형예술 원리와 이론을 감성 분석데이터 결과와 연결시키는 시각화 규칙을 정립하고자 하였다. 기존의 감성차원모델은 이러한 수치적 데이터와 추상적인 감정을 연결해주는 역할을 하도록 하였다.
  • 이미 데이터는 예술가들에게 새로운 표현을 위한 창작의 도구로 활용되고 있으며 인공지능은 네트워크상에 방대하게 축적된 데이터들을 기반으로 인간의 고도화 된 정신적 산물인 예술작품의 창작까지도 시도하고 있다. 본 연구를 통해 기계학습과 인공지능기술을 예술창작에 접목하여 새로운 창작활동의 기반을 마련하고 다가올 미래사회에 인간과 기계의 공생에 관한 인문학적 담론을 확장시키고자 하였다. 이러한 연구가 향후 감정표현에 어려움을 겪는 발달 장애인들의 예술창작활동과 의사소통을 용이하게 보조해주는 인공지능 기반 교육 문화예술 플랫폼으로 활용될 수 있기를 기대한다.
  • 감정인식과 분석을 위한 대표적인 기술적 방법들로는 언어기호 기반의 텍스트 분석, 음성 분석, 얼굴 표정 분석, 제스처 분석, 다양한 생체신호(심전도, 심박수, 호흡 등) 분석 등이 있다. 본 연구에서는 음악에서의 복합적인 감성분석과 미적 시각화를 위해 가사와 음원의 데이터 분석을 동시에 진행하였다. 다만, 본 연구에서는 이 중 가사의 데이터 분석과 시각화 결과를 중점적으로 논의한다.
  • 데이터 형식은 텍스트, 이미지, 동영상, 사운드 등 다양한 형태로 제공되며 이 중 사운드를 시각화 한 영상은 우리가 컴퓨터상에서 흔히 접할 수 있는 뮤직 플레이어의 자동생성 시각화 도구에서부터 패션쇼, 공연, 전시 영상에 이르기까지 쉽게 찾아볼 수 있다. 본 연구에서는 음악의 감성분석 데이터를 예술적으로 활용하기 위해 텍스트(음악의 가사) 데이터를 분석하고 시각화 한 내용을 중점적으로 다룬다. 기존의 예술작품들의 데이터 분석에 자연어처리 감성분석과 같은 머신러닝 기술을 적용하고 이를 기반으로 기계의 시점에서 바라 본 새로운 형태의 예술로 재창조하고자 한다.
  • 사람들은 언어적 표현 이외에도 표정, 음성, 제스처 등의 관찰을 통해 종합적으로 상황을 인식할 수 있는 반면 컴퓨터는 인간의 감정과 같은 추상적인 관념을 개별적인 데이터들을 통해 계산적인 분석 방식으로 이해할 수밖에 없기 때문이다. 본 연구에서는 컴퓨터의 관점에서 바라보는 음악과 감정에 대해 생각해 보고 기계학습을 활용한 예술의 창작방식에 대해 고찰해 보았다. 컴퓨터의 관점에서 본 음악을 크게 텍스트와 음원데이터로 구분하여 특히 텍스트의 감성분석 결과를 영상으로 시각화 해보았다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
감정인식과 분석을 위한 대표적인 기술적 방법들로는 무엇이 있는가? 감정인식과 분석을 위한 대표적인 기술적 방법들로는 언어기호 기반의 텍스트 분석, 음성 분석, 얼굴 표정 분석, 제스처 분석, 다양한 생체신호(심전도, 심박수, 호흡 등) 분석 등이 있다. 본 연구에서는 음악에서의 복합적인 감성분석과 미적 시각화를 위해 가사와 음원의 데이터 분석을 동시에 진행하였다.
감성모델은 크게 개별정서모델, 평가모델, 차원모델로 구분하는데 본 연구는 어던 모델을 기반으로 하였는가? 감성모델은 크게 개별정서모델과 평가모델, 그리고 차원모델로 구분되며 특히 정서의 차원이론에서는 감정의 구조를 설명하기 위해 개별 범주보다는 차원의 개념을 사용하며[11] 감정의 구조가 각각 독립적인 카테고리가 아닌 정서가(valence)와 각성(arousal)의 2차원의 양극을 가진 축으로 이루어져 있다고 주장한다[12]. 본 연구는 차원모델을 기반으로 하였고 한 축이 되는 정서가는 감정의 긍정적이거나 부정적인 정도를 나타내며 각성은 감정 강도의 정도를 나타내는 것으로 해석된다. 감성모델에 대한 연구에서 대표적인 두 인물로는 러셀(Russel)과 테이어(Thayer)가 있으며 러셀의 감성 모델 [그림 1]에서 가로축인 Pleasant축은 유쾌함/불쾌함의 강도를 나타내고 세로축인 Intense축은 흥분/침착의 강도를 양극단으로 나타내는 것을 볼 수 있다.
데이터 시각화는 어떤 기술인가? 특별히 시각 예술가들에게 데이터는 이미 새로운 예술적 표현을 위한 하나의 재료로 활용되고 있고 미세먼지 수치와 같은 공공 데이터에서부터 특정 주제를 위해 자체적으로 수집된 데이터까지 다루어지는 종류 또한 매우 다양하다. 데이터 시각화는 일차적으로는 정보 디자인에서 발전된 형태로 대규모의 데이터를 수치적인 텍스트가 아닌 색과 그래프, 조형요소 등을 활용하여 보다 직관적으로 시각화하는 기술이다. 빅 데이터 기술시장의 성장과 함께 독창적인 시각화 방법론의 중요성이 켜졌으며 데이터 시각화는 미적인 형태를 만드는 동시에 기능적인 정보 전달 측면을 모두 만족시켜야 한다는 특징이 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (20)

  1. H. Katayose and S, Inokuchi, "The Kansei music system," Comput. Music J, Vol.13, No.4, pp.72-77, 1989. 

  2. A. Joshi, P. Bhattacharyya, and M. J. Carman, "Automatic sarcasm detection: A surveym," ACM Computing Surveys (CSUR), Vol.50, No.5, pp.1-22, 2017. 

  3. I. Hernandez-Farias, J. Benedi, and P. Rosso, "Applying basic features from sentiment analysis for automatic irony detection," In Proceedings of the Conference on Pattern Recognition and Image Analysis, Springer, pp.337-344, 2015. 

  4. X. Hu and J. Downie, "Improving mood classification in music digital libraries by combining lyrics and audio," In Proc. JCDL. ACM, pp.159-168, 2010. 

  5. 최수환, "음악 정보 추출(MIR) 알고리즘을 활용한 사 운드 시각화 연구," 에밀레, 제8권, pp.33-58, 2010. 

  6. 이동섭, 김효영, 박진완, "L-system을 이용한 음악 시각화," 디지털디자인학연구, 제12권, 제2호, pp.67-77, 2012. 

  7. 박진완, 김효영, "예술적 데이터 고찰," 디지털디자인학연구, 제11권, 제3호, pp.193-202, 2011. 

  8. T. S. Utomo and R. Sarno, "Emotion Label from ANEW dataset for Searching Best Definition from WordNet," International Seminar on Application for Technology of Information and Communication (iSemantic), ACM, 2018. 

  9. L. Gomez and M. Caceres, "Applying data mining for sentiment analysis in music," PAAMS 2017, AISC, Springer, Cham, Vol.619, pp.198-205, 2017. 

  10. https://ko.wikipedia.org/wiki/감성, 2020.7.6. 

  11. 손진훈, "정서의 심리적 모델 : 개별 정서 모델, 평가모델, 차원 모델을 중심으로," 대한인간공학회지, 제30권, 제1호, pp.179-186, 2011. 

  12. 황민철, 김종화, 문성철, 박상인, "감성 모델링 및 인식 기술," 로봇과 인간, 제8권, 제4호, pp.34-44, 2011. 

  13. 김동림, 림빈, 임영환, "감성 트리 기반의 음악 감성조절 알고리즘," 한국콘텐츠학회논문지, 제15권, 제3호, pp.21-31, 2015. 

  14. R. Thayer, The Origin of Everyday Moods: Managing Energy, Tension, and Stress, Oxford University Press, Oxford, 1996. 

  15. S. Hsiao, S. Chen, and C. Lee, "Methodology for stage lighting control based on music emotions," Information sciences, Vol.412, pp.14-35, 2017. 

  16. http://www.fractal.org/Bewustzijns-Besturings-Model/Nature-of-emotions.htm, 2020.7.24. 

  17. https://m.blog.naver.com/sehyunfa/221675809410, 2020.7.24. 

  18. https://cloud.google.com/natural-language/docs/basics?hlko, 2019.10.3. 

  19. 김혜란, 이상욱, "라반의 공간조화이론 '코레우틱스(Choreutics)'를 활용한 신체 움직임의 추상적 시각화 연구," 예술인문사회 융합 멀티미디어 논문지, Vol.7, No.3, pp.371-381, 2017. 

  20. 배미영, 칸딘스키 조형이론과 작품분석을 통한 색채 특성에 관한 연구, 이화여자대학교, 석사학위논문, 2010. 

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로