폭소노미 (foxonomy) 분위기 태그를 이용한 음악 검색 시 내부적으로 단어 태그 대신에 수치 태그 (AV 태그: Arousal과 Valence 값으로 이루어진 태그)를 이용하면 폭소노미의 문제점 중의 하나인 유사어 문제점을 일부 해결할 수 있다. 하지만 이를 위해서는 두 가지 선행 작업이 제대로 이루어져야 하는데, 그 첫 번째가 단어 태그를 수치 태그로 변환하는 작업이며 그 두 번째가 검색 대상인 음악을 수치 태그로 표현하는 작업이다. 첫 번째 작업에 대해서는 이전 연구를 통하여 그 유의성을 보였기 때문에 본 논문에서는 두 번째 작업에 대해서 그 유의성을 밝히고자 하였다. 이를 위하여 본 논문에서는 음악과 AV값 간의 관계를 정의하는 음악-분위기 매핑테이블을 제안하고, ANOVA 검증을 이용하여 분석 하였다. 실험 결과, 동의어 포함 유무에 무관하게 음악 구간의 A값과 V값 모두 12개 음악의 분위기에 대하여 분포차가 발생하고, 모두 제 1종 오류확률 P<0.001를 만족하였다. 결론적으로 음악의 분위기에 따라 AV 값 분포가 다르다는 것을 확인할 수 있었다.
폭소노미 (foxonomy) 분위기 태그를 이용한 음악 검색 시 내부적으로 단어 태그 대신에 수치 태그 (AV 태그: Arousal과 Valence 값으로 이루어진 태그)를 이용하면 폭소노미의 문제점 중의 하나인 유사어 문제점을 일부 해결할 수 있다. 하지만 이를 위해서는 두 가지 선행 작업이 제대로 이루어져야 하는데, 그 첫 번째가 단어 태그를 수치 태그로 변환하는 작업이며 그 두 번째가 검색 대상인 음악을 수치 태그로 표현하는 작업이다. 첫 번째 작업에 대해서는 이전 연구를 통하여 그 유의성을 보였기 때문에 본 논문에서는 두 번째 작업에 대해서 그 유의성을 밝히고자 하였다. 이를 위하여 본 논문에서는 음악과 AV값 간의 관계를 정의하는 음악-분위기 매핑테이블을 제안하고, ANOVA 검증을 이용하여 분석 하였다. 실험 결과, 동의어 포함 유무에 무관하게 음악 구간의 A값과 V값 모두 12개 음악의 분위기에 대하여 분포차가 발생하고, 모두 제 1종 오류확률 P<0.001를 만족하였다. 결론적으로 음악의 분위기에 따라 AV 값 분포가 다르다는 것을 확인할 수 있었다.
When retrieving music with folksonomy tags, internal use of numeric tags (AV tags: tags consisting of Arousal and Valence values ) instead of word tags can partially solve the problem posed by synonyms. However, the two predecessor tasks should be done correctly; the first task is to map word tags t...
When retrieving music with folksonomy tags, internal use of numeric tags (AV tags: tags consisting of Arousal and Valence values ) instead of word tags can partially solve the problem posed by synonyms. However, the two predecessor tasks should be done correctly; the first task is to map word tags to their numeric tags; the second is to get numeric tags of the music pieces to be retrieved. The first task is verified through our prior study and thus, in this paper, its significance is seen for the second task. To this end, we propose the music mapping table defining the relation between AV values and music and ANOVA tests are performed for analysis. The result shows that the arousal values and valence values of music have different distributions for 12 mood tags with or without synonymy and that their type I error values are P<0.001. Consequently, it is checked that the distribution of AV values is different according to music mood.
When retrieving music with folksonomy tags, internal use of numeric tags (AV tags: tags consisting of Arousal and Valence values ) instead of word tags can partially solve the problem posed by synonyms. However, the two predecessor tasks should be done correctly; the first task is to map word tags to their numeric tags; the second is to get numeric tags of the music pieces to be retrieved. The first task is verified through our prior study and thus, in this paper, its significance is seen for the second task. To this end, we propose the music mapping table defining the relation between AV values and music and ANOVA tests are performed for analysis. The result shows that the arousal values and valence values of music have different distributions for 12 mood tags with or without synonymy and that their type I error values are P<0.001. Consequently, it is checked that the distribution of AV values is different according to music mood.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 분석용 매핑테이블을 두 가지 경우로 나누어 분석 하였는데 그 첫 번째가 음악의 폭소노미 분위기 태그를 이용하여 음악을 Thayer의 2차원 분위기 모델에 포함된 12개 분위기 기준으로 나누어 분석한 것이고(그림 4의 우측 진행), 두 번째가 12개 분위기의 동의어를 고려하여 분석한 것이다(그림 4의 좌측 진행). 본 논문에서는 12개 분위기 태그의 동의어를 고려하기 위해 인터넷 사전을 이용하여 이들의 동의어를 조사 하였다.
이 연구는 태그-분위기 매핑테이블(태그와 AV값 간의 관계)을 제안하고, 태그-분위기 매핑테이블에 존재하는 폭소노미 태그와 이의 AV 값과의 관계를 분석하였다. 본 연구에서는 태그와 AV값 간의 관계가 아닌 음악과 AV값 간의 관계를 분석 하였다. 분석 대상이 다르다는 점이 가장 큰 차이점이며 이외에 다음과 같은 두 가지 차이점이 존재한다.
본 논문과 밀접하게 관련된 연구로 문(2013)의 연구가 있다. 이 연구는 태그-분위기 매핑테이블(태그와 AV값 간의 관계)을 제안하고, 태그-분위기 매핑테이블에 존재하는 폭소노미 태그와 이의 AV 값과의 관계를 분석하였다. 본 연구에서는 태그와 AV값 간의 관계가 아닌 음악과 AV값 간의 관계를 분석 하였다.
이 방법이 제대로 동작하기 위해서는 두 가지 선행 작업이 이루어져야 하는데, 그 첫 번째가 단어 태그를 수치 태그로 변환하는 작업이며 그 두 번째가 검색 대상인 음악을 수치 태그로 표현하는 작업이다. 첫 번째 작업에 대해서는 이전 연구를 통하여 그 유의성을 보였기 때문에 본 논문에서는 두 번째 작업에 대해서 그 유의성을 밝히고자 하였다. 또한, 문(2013)에서는 음악의 대표 구간에 대한 분위기만을 고려하였는데 본 논문에서는 음악의 전체에 아우르는 분위기(전반, 대표, 후반 구간)를 고려하였다.
단어 태그 대신에 수치 태그를 이용하여 음악을 검색하기 위해서는 두 개의 매핑 테이블이 필요한데 그 첫 번째가 음악과 AV값과의 관계를 정의하는 음악-분위기 매핑테이블이고, 두 번째가 태그와 AV 값과의 관계를 정의하는 태그-분위기 매핑테이블이다. 태그-분위기 매핑테이블 구축방법과 이의 분석에 대해서는 기존 연구인 문(2013)에서 선행연구가 되어졌고, 본 논문에서는 음악-분위기 매핑 테이블을 구축하는 방법을 제시하고, 음악의 분위기와 음악의 AV값 사이의 연관성을 파악하였다. 또한, 음악-분위기 매핑테이블 분석 시 분위기 태그의 동의어를 고려하기 위해 인터넷 동의어 사전을 이용하였다.
제안 방법
분석 대상이 다르다는 점이 가장 큰 차이점이며 이외에 다음과 같은 두 가지 차이점이 존재한다. 그 첫 번째가 문(2013)의 연구에서는 음악의 대표구간에 대한 AV값을 정의하고, 정의한 대표구간의 AV값과 태그와의 관계를 분석 하였지만 본 논문에서는 음악의 전반, 대표, 후반구간에 대한 AV값을 정의하였고, 정의한 각 구간과 음악과의 관계를 분석 하였다. 즉, 문(2013)의 연구에서는 음악의 전체 분위기를 하나의 분위기(대표구간의 분위기)로 정의하여 분석하지만 본 논문에서는 음악 전체 분위기를 전반, 대표, 후반의 분위기로 정의하여 분석하였다.
동의어를 포함하지 않은 음악의 AV 분포를 분석하기 위하여 본 논문에서는 AV값을 각도로 변경하였고, 이 각도를 Thayer의 모델에 맞게 다시 12개의 분면으로 나누어 분석 하였다.
즉, 문(2013)의 연구에서는 음악의 전체 분위기를 하나의 분위기(대표구간의 분위기)로 정의하여 분석하지만 본 논문에서는 음악 전체 분위기를 전반, 대표, 후반의 분위기로 정의하여 분석하였다. 두 번째는 문(2013)의 연구에서는 동의어를 고려하지 않고, 폭소노미 분위기 태그와 AV값과의 관계를 분석하였지만 본 논문에서는 동의어를 고려하여 음악과 AV값과의 관계를 분석하였다.
하지만 이러한 방법은 수집 비용이 너무 커 본 연구자들의 능력으로는 현실적이지 못하다. 따라서 본 논문에서는 음악과 AV값 사이의 연관관계를 분석하기 위해 문(2013)의 연구에서 사용한 데이터와 AV값 예측 모델을 재사용하였다. 하지만 문(2013)의 예측 모델은 음악의 대표구간에 대한 AV값만을 예측하였기 때문에 본 논문의 분석을 위해 음악의 전반과 후반 구간의 AV값을 추가로 예측할 필요가 있다.
또한, 음악-분위기 매핑테이블 분석 시 동의어에 대한 분석을 포함하기 위해 본 논문에서는 인터넷 동의어 사전을 이용하여 분위기의 동의어를 조사하였고, 음악의 전제적인 분위기를 고려하기 위해 음악의 전반구간과 후반 구간을 추가하여 분석하였다. 분석 결과, 이 또한 제 1종 오류확률 P<0.
태그-분위기 매핑테이블 구축방법과 이의 분석에 대해서는 기존 연구인 문(2013)에서 선행연구가 되어졌고, 본 논문에서는 음악-분위기 매핑 테이블을 구축하는 방법을 제시하고, 음악의 분위기와 음악의 AV값 사이의 연관성을 파악하였다. 또한, 음악-분위기 매핑테이블 분석 시 분위기 태그의 동의어를 고려하기 위해 인터넷 동의어 사전을 이용하였다.
먼저, 본 논문에서는 음악-분위기 매핑 테이블을 구축하는 방법을 제시하였고, 음악과 분위기 (AV값으로 표현됨) 사이의 연관성을 파악하였다. 즉, 본 논문에서는 음악과 AV값과의 관계를 정의하는 매핑테이블을 제안하고, 실제 구축된 데이터를 이용하여 음악과 AV값의 연관 관계를 분석하였다.
본 논문에서 구축한 분석용 매핑테이블의 경우 12 분위기 태그와 12 분위기의 동의어 태그 그리고 기타 태그들로 구성된다. 본 논문에서는 12 분위기를 기준으로 분석하기 위해 기타 태그들을 제거하였고, 4.2에서 조사한 동의어와 12 분위기를 이용하여 12 분위기 그룹으로 분류하였다.
Lee(2009)의 연구에서는 Thayer의 2차원 분위기 모델과 구조 분석을 이용하여 음악의 분위기를 검출하는 방법에 대한 연구를 실시하였고, 문(2011)의 연구에서도 역시 Thayer의 2차원 분위기 모델을 사용하여 음악 장르에 따른 분위기 분포를 분석하였다. 본 논문에서는 문(2011)의 연구에서 수집하고 정의한 음악의 AV 값과 폭소노미 사이트에서 수집한 음악의 태그를 이용하여 폭소노미 태그와 AV값과의 관계를 정의하였다.
본 논문에서는 분석용 매핑테이블을 두 가지 경우로 나누어 분석 하였는데 그 첫 번째가 음악의 폭소노미 분위기 태그를 이용하여 음악을 Thayer의 2차원 분위기 모델에 포함된 12개 분위기 기준으로 나누어 분석한 것이고(그림 4의 우측 진행), 두 번째가 12개 분위기의 동의어를 고려하여 분석한 것이다(그림 4의 좌측 진행). 본 논문에서는 12개 분위기 태그의 동의어를 고려하기 위해 인터넷 사전을 이용하여 이들의 동의어를 조사 하였다.
2의 분류에 의해 구축한 음악의 12 분위기 그룹에 대하여 서로 독립적인 분포를 가지는지를 확인하기 위해 ANOVA Test를 실시하였고, 각 구간의 A값과 V값에 대하여 실험 하였다. 본 논문의 독립변수는 폭소노미 태그를 기준으로 분류한 음악의 12개 분위기(happy, sad, annoying, pleased, excited, nervous, bored, sleep, calm, peaceful, relaxed, angry) 그룹으로 설정하였고, 종속변수는 각 음악 구간(전반, 대표, 후반)의 A값과 V값으로 설정하였다. 본 논문의 실험 결과는 표 7과 같고, 모두 p-value가 0.
본 논문의 분류 방법은 동의어 포함 유무에 따라 두 가지가 존재하는데 그 첫 번째가 동의어를 고려한 12 분위기 그룹으로 분류하는 방법이고, 두 번째가 동의어를 포함하지 않은 12 분위기 그룹으로 분류하는 방법이다.
분석용 매핑테이블에 포함된 태그의 동의어를 조사하기 위해 인터넷 사전(www.synonym.com)을 이용하였고, 모든 분위기 태그의 동의어를 고려하여 음악의 분위기에 따른 AV값 분포를 분석하는 것은 불가능하기 때문에 본 논문에서는 그림 1의 (c)에 포함된 12개의 형용사 분위기 단어만을 고려하여 이들의 동의어를 조사하였다.
음악의 각 구간에 대한 AV값을 정의하기 위해 문(2013)에서 구축한 AV 예측 모델을 이용하여 음악의 전반과 후반의 AV값을 예측하였고, 예측한 음악 각 구간의 AV값 분포를 파악하기 위해 두 가지 방법으로 실험 대상을 분류 하였다. 그 첫 번째가 태그의 동의어를 고려하여 음악의 AV값을 12 분위기 그룹으로 분류하는 것이고, 두 번째가 동의어를 고려하지 않고 음악의 AV값을 12 분위기 그룹으로 분류하는 것이다.
음악의 전반 및 후반 구간을 추출하기 위해 본 논문에서는 문(2011)에서 사용한 음악의 구조 분석방법을 사용하였다. 전반 및 후반 구간 추출 방법은 음악 구조 정보를 추출하고, 분석된 구조정보를 이용하여 12s 단위로 음악을 분리한 후 분리된 음원 중 전반부 음원과 후반부 음원을 선택하였다.
먼저, 본 논문에서는 음악-분위기 매핑 테이블을 구축하는 방법을 제시하였고, 음악과 분위기 (AV값으로 표현됨) 사이의 연관성을 파악하였다. 즉, 본 논문에서는 음악과 AV값과의 관계를 정의하는 매핑테이블을 제안하고, 실제 구축된 데이터를 이용하여 음악과 AV값의 연관 관계를 분석하였다. ANOVA Test를 실시한 결과, 제 1종 오류확률 P<0.
fm)에 존재하는 음악의 분위기 태그를 이용하여 음악의 분위기를 정의하고, 음악의 분위기를 예측하는 연구를 진행하였다. 즉, 이 연구들의 경우 하나의 분위기를 하나의 클래스로 취급하여 예측하는 방법이지만 본 논문의 경우는 모든 분위기를 아우르는 AV 모델을 구축하고, 폭소노미 분위기 태그 기반에서 AV 값을 분석 하였다.
폭소노미 기반에서 음악과 AV값 간의 연관 관계를 분석하기 위해 본 논문에서는 그림 4와 같은 순으로 분석용 매핑테이블을 구축 하였다.
대상 데이터
분석용 매핑테이블은 그림 5 좌측상단 음악 각 구간의 AV값과 그림 5 우측상단 음악의 태그를 음악 ID를 기준으로 병합하는 방법으로 생성된다. 그림 5의 우측상단의 분위기 태그 데이터는 문(2013)의 데이터로 이 데이터는 널리 알려진 음악 폭소노미 사이트인 last.fm의 자료를 가공하여 만들어진 것이다.
본 논문에서 구축한 분석용 매핑테이블의 경우 12 분위기 태그와 12 분위기의 동의어 태그 그리고 기타 태그들로 구성된다. 본 논문에서는 12 분위기를 기준으로 분석하기 위해 기타 태그들을 제거하였고, 4.
본 논문에서 분석에 사용한 음악의 수는 총 1,243개이고, 이 음악들은 적어도 하나의 분위기 태그들을 갖고 있으며 여러 개의 분위기가 존재하는 경우도 있다. 또한 동의어를 포함한 경우 음악의 수는 calm 450개, Pleased 202개, sad 492개, Excited 268개, Nervous 134개, peaceful 68개, Relaxe 469개, happy 269개, Bored 161개, sleepy 74개, Angry 196개 그리고 Annoying 234개 이고, 동의어를 포함하지 않은 경우 음악의 수는 calm 151개, Pleased 3개, sad 480개, Excited 15개, Nervous 20개, peaceful 44개, Relaxe 34개, happy 256개, Bored 26개, sleepy 39개, Angry 90개 그리고 Annoying 30개 이다.
본 논문에서는 4장에서 분류한 것과 같이 두 가지 분류 방법에 대하여 음악의 AV값이 태그의 분위기를 기준으로 서로 다른 분포를 가지는지를 파악하기 위해 ANOVA Test를 실시하였다.
본 논문에서는 5.1과 5.2의 분류에 의해 구축한 음악의 12 분위기 그룹에 대하여 서로 독립적인 분포를 가지는지를 확인하기 위해 ANOVA Test를 실시하였고, 각 구간의 A값과 V값에 대하여 실험 하였다. 본 논문의 독립변수는 폭소노미 태그를 기준으로 분류한 음악의 12개 분위기(happy, sad, annoying, pleased, excited, nervous, bored, sleep, calm, peaceful, relaxed, angry) 그룹으로 설정하였고, 종속변수는 각 음악 구간(전반, 대표, 후반)의 A값과 V값으로 설정하였다.
이론/모형
음악의 감성적 반응을 개념화하는 연구의 대표적인 사례로서 Thayer(1989) 모델이 있고, 그림 1의 Thayer의 2차원 모델에서는 12개의 단어를 사용한다. 또한 본 논문에서도 분위기를 추출하기 위한 모델로 확장된 Thayer의 2차원 분위기 모델을 사용한다. Thayer의 2차원 분위기 모델에서는 음악 분위기를 Arousal과 Valence로 이루어진 벡터 값으로 표현을 하는데 Arousal은 청취자가 음악에서 느끼는 자극의 강도를 나타내며 Valence는 음들의 안정감을 나타낸다.
음악 전반과 후반의 AV값은 문(2013)의 연구에서 구축한 AV값 예측모델을 사용하여 예측하였다. 문(2013)의 연구에서 구축한 AV값 예측모델은 SVR(Support Vector Regression)과 문(2011)에서 수집한 데이터를 사용하여 구축한 모델이고, 음악 구간의 음향 특징은 Lartillot(2007)의 MIRToolbox를 사용하여 획득한다.
음악 전반과 후반의 AV값은 문(2013)의 연구에서 구축한 AV값 예측모델을 사용하여 예측하였다. 문(2013)의 연구에서 구축한 AV값 예측모델은 SVR(Support Vector Regression)과 문(2011)에서 수집한 데이터를 사용하여 구축한 모델이고, 음악 구간의 음향 특징은 Lartillot(2007)의 MIRToolbox를 사용하여 획득한다.
음악의 구조 분석은 상태열 기반 Sandier(2006)의 유사 구간 클러스터링 방법을 사용하였다. Sandier(2006)의 유사 구간 클러스터링 방법은 음악 특징 벡터 추출, 팀버 타입(Timbre-Type) 시퀀스 추출, 팀버 타입(Timbre-Type) Soft k-Means 클러스터링 방법을 통하여 음악의 구조정보를 파악하는 방법이다.
음악의 전반 및 후반 구간을 추출하기 위해 본 논문에서는 문(2011)에서 사용한 음악의 구조 분석방법을 사용하였다. 전반 및 후반 구간 추출 방법은 음악 구조 정보를 추출하고, 분석된 구조정보를 이용하여 12s 단위로 음악을 분리한 후 분리된 음원 중 전반부 음원과 후반부 음원을 선택하였다.
Feng(2003)과 그 일행은 템포와 아티큘레이션 특징을 이용하여 분위기를 4개의 분위기로 분류하는 방법을 제안하였으며 Li와 Ogihara(2003)는 음색 (timbre texture), 리듬, 피치 특징을 이용하여 분위기를 탐지하는 방법을 제안하였다. 이 방법에서는 분위기의 분류법으로 Hevner(1935)의 검사목록(checklist)을 Farnsworth(1958)가 재구성한 13개의 형용사 그룹들을 사용하였다. Yang(2006)에서는 퍼지 기반의 분류 방법을 사용하여 여러 분위기의 강도를 수치로 나타내는 연구를 하였다.
성능/효과
ANOVA Test를 실시한 결과, 제 1종 오류확률 P<0.001로 음악의 분위기에 따라 각 구간의 분위기 분포가 다름을 확인할 수 있었다.
대표구간에서 pleased의 경우 30∼60도, 60∼90도, 270∼300도에서 각 33%의 분포를 보이고, happy의 경우 90∼120도에서 40%, excited의 경우 90∼120도에서 46%, annoying의 경우 90∼120도에서 45%, angry의 경우 90∼120도에서 14%, nervous의 경우 270∼300도에서 25%, sad의 경우 60∼90도에서 32%, bored의 경우 90∼120도에서 40%, sleepy의 경우 60∼90도에서 23%, calm의 경우 300∼330도에서 23%, peaceful의 경우 270∼300도에서 18%, relaxed의 경우 330∼360도에서 18%로 가장 많은 분포를 보인다.
또한 ANOVA Test를 실시한 결과, 동의어 포함 유무에 무관하게 음악 각 구간의 A값과 V값 모두 분포차가 발생하고, 모두 제 1종 오류확률 P<0.001를 만족하였다.
분석 결과, 이 또한 제 1종 오류확률 P<0.001로 음악의 분위기에 따라 각 구간의 분위기 분포가 다름을 확인할 수 있었다.
음악의 각 구간(전반, 대표, 후반)에 대한 AV값의 분포를 분석한 결과, 음악의 분위기에 따라 각 구간의 분위기 분포가 다르고, 특히 동의어를 포함하지 않은 경우 AV모델에서 분위기 분포 차가 두드러졌다. 또한 ANOVA Test를 실시한 결과, 동의어 포함 유무에 무관하게 음악 각 구간의 A값과 V값 모두 분포차가 발생하고, 모두 제 1종 오류확률 P<0.
전반구간에서 pleased의 경우 30∼60도, 90∼120도, 270∼330도에서 각 33%의 분포를 보이고, happy의 경우 300∼330도에서 33%, excited의 경우 90∼120도에서 27%, annoying의 경우 60∼90도, 90∼120도, 270∼300도에서 20%, angry의 경우 270∼300도에서 27%, nervous의 경우 270∼300도에서 32%, sad의 경우 30∼60도에서 22%, bored의 경우 90∼120도에서 27%, sleepy의 경우 60∼90도에서 27%, calm의 경우 270∼330도에서 30%, peaceful의 경우 270∼330도에서 28%, relaxed의 경우 270∼330도에서 35%, 로 가장 많은 분포를 보인다.
000으로 귀무가설 H0을 기각할 수 있음으로 대립가설 H1을 채택할 수 있다. 즉, 동의어 포함 유무에 무관하게 음악의 AV값을 12 분위기 그룹으로 분류할 경우 AV값 분포의 차이가 발생한다고 결론을 내릴 수 있다.
후반구간에서 pleased, happy, annoying, nervous, excited의 경우 60∼90도에서 22%, 25%, 23%, 26%, 21%로 가장 많은 분포를 보이고, calm, relaxed, sad, peaceful의 경우 270∼300도에서 19%, 19%, 17%, 26%, angry의 경우 90∼120도에서 28%, bored의 경우 30∼60도, 60∼90도, 16%, sleepy의 경우 270∼300도, 300∼330도, 23%로 가장 많은 분포를 보인다.
후반구간에서 pleased의 경우 0∼30도, 60∼90도, 300∼330도에서 각 33%의 분포를 보이고, happy의 경우 90∼120도에서 40%, excited의 경우 90∼120도에서 23%, annoying의 경우 60∼90도에서 35%, angry의 경우 270∼300도에서 26%, nervous의 경우 270∼300도에서 32%, sad의 경우 60∼90도에서 26%, bored의 경우 60∼90도에서 46%, sleepy의 경우 60∼90도에서 23%, calm의 경우 270∼300도에서 28%, peaceful의 경우 270∼300도에서 28%, relaxed의 경우 300∼330도에서 38%로 가장 많은 분포를 보인다.
후속연구
하지만 실제 시스템 환경에 적용하기 위해서는 보다 다양한 분석이 필요하다. 또한 본 논문에서 제안한 방법을 실제 환경에 적용하여 실제 사용자가 느끼는 반응에 대해서도 분석할 필요가 있다.
향후, 본 논문에서 분석한 데이터를 폭소노미 분위기 태그를 이용한 검색 기초자료로 사용할 계획이다. 하지만 실제 시스템 환경에 적용하기 위해서는 보다 다양한 분석이 필요하다.
질의응답
핵심어
질문
논문에서 추출한 답변
유사어에 대한 문제점은 어떤 경우에 발생하는 문제점을 말하는가?
따라서 폭소노미 태그를 사용하여 컨텐츠를 검색할 경우 유사어에 대한 문제점이 발생하게 된다. 유사어에 대한 문제점은 평온한 음악과 잔잔한 음악과 같이 표현은 다르지만 의미적으로는 유사한 태그의 경우에 발생하는 문제점이다(문(2013)).
폭소노미는 누구에 의해 유지 관리되는가?
폭소노미는 사서나 운영자에 의해 관리되는 기존의 택소노미 (taxonomy)와는 달리 자발적 참여자들에 의해 협력적으로 유지 관리되는 분류 체계이다. 택소노미에서는 잘 구성된 고정된 분류체계를 이용하지만 폭소노미에서는 고정된 분류체계 없이 자유 분방한 형태로 분류 작업이 이루어진다.
단어 태그 대신에 내부적으로 수치 태그를 사용하는 방법이 제대로 동작하기 위해서는 어떤 작업이 선행되어야 하는가?
폭소노미 태그를 이용한 음악 검색 시에도 이러한 문제점이 발생하는데 이를 보완하기 위해 문(2013)의 연구에서는 단어 태그 대신에 내부적으로 수치 태그(AV 태그 : Arousal과 Valence 값으로 이루어진 태그)를 사용하는 방법을 제안하였다. 이 방법이 제대로 동작하기 위해서는 두 가지 선행 작업이 이루어져야 하는데, 그 첫 번째가 단어 태그를 수치 태그로 변환하는 작업이며 그 두 번째가 검색 대상인 음악을 수치 태그로 표현하는 작업이다. 첫 번째 작업에 대해서는 이전 연구를 통하여 그 유의성을 보였기 때문에 본 논문에서는 두 번째 작업에 대해서 그 유의성을 밝히고자 하였다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.