$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

분포유사도를 이용한 문헌클러스터링의 성능향상에 대한 연구
Improving the Performance of Document Clustering with Distributional Similarities 원문보기

정보관리학회지 = Journal of the Korean society for information management, v.24 no.4 = no.66, 2007년, pp.267 - 283  

이재윤 (경기대학교 인문대학 문헌정보학)

초록
AI-Helper 아이콘AI-Helper

이 연구에서는 분포 유사도를 문헌 클러스터링에 적용하여 전통적인 코사인 유사도 공식을 대체할 수 있는 가능성을 모색해보았다. 대표적인 분포 유사도인 KL 다이버전스 공식을 변형한 Jansen-Shannon 다이버전스, 대칭적 스큐 다이버전스, 최소스큐 다이버전스의 세 가지 공식을 문헌 벡터에 적용하는 방안을 고안하였다. 분포 유사도를 적용한 문헌 클러스터링 성능을 검증하기 위해서 세 실험 집단을 대상으로 두 가지 실험을 준비하여 실행하였다. 첫 번째 문헌클러스터링실험에서는 최소스큐다이버전스가 코사인 유사도 뿐만 아니라 다른 다이버전스공식의 성능도 확연히 앞서는 뛰어난 성능을 보였다. 두번째 실험에서는 피어슨 상관계수를 이용하여1차 유사도 행렬로부터2차 분포 유사도를 산출하여 문헌 클러스터링을 수행하였다. 실험결과는 2차 분포 유사도가 전반적으로더 좋은 문헌 클러스터링성능을 보이는 것으로 나타났다. 문헌클러스터링에서 처리 시간과 분류 성능을 함께 고려한다면 이 연구에서 제안한 최소 스큐 다이버전스 공식을 사용하고, 분류 성능만 고려할 경우에는 2차 분포 유사도 방식을 사용하는 것이 바람직하다고 판단된다.

Abstract AI-Helper 아이콘AI-Helper

In this study, measures of distributional similarity such as KL-divergence are applied to cluster documents instead of traditional cosine measure, which is the most prevalent vector similarity measure for document clustering. Three variations of KL-divergence are investigated; Jansen-Shannon diverge...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 따라서용어에 대해서 적용한 분포 유사도는 동일한 방식을 관점을 바꾸어 문헌에 대해서 적용해볼 수도 있다. 문헌 클러스터링에 분포 유사도를 적용하여 기존의 코사인 유사도 방식을 적용한 경우보다 높은 성능을얻는 것이 이 연구의첫 번째 목표이다.
  • 다이버전스 공식은 정보이론 분야에서 유래한 일종의 분포 유사도 공식으로서 최근 용어 클러스터링 분야에 성공적으로 적용되고 있다. 이 연구에서는 이와 같은 다이버전스 공식을 이용하여문헌 사이의 유사도를산출하는방안을 세 가지 고안한 다음, 이를 적용하여 문헌 클러스터링성능을 향상시킬수 있는지 여부를 모색해보았다. 또한 2차적인 분포 유사도라고할 수 있는 피어슨 상관계수 행렬로 문헌 클러스터링 실험을 수행하였다.
  • 이 연구에서는유사계수의적용 단계에 특히 집중하되, 전통적으로문헌 클러스터링에사용되어온 코사인계수(Salton & McGill 1983) 를 비롯한벡터유사도 방식을벗어나서다이버전스(divergence)를 비롯한 분포 유사도 방식을 적용하여 분류 성능을 개선하고자 한다.
  • 다만 2차 분포 유사도는 산출 시간이 추가되므로설사 성능이 좋더라도 검색 결과 문헌과 같은 소수의 문헌집단에 대해서 적용하는 것이 바람직하다. 이와 같이 2차 분포 유사도 산출 방식을 적용하여 문헌 클러스터링 성능을 향상시키는 것이 이 연구의 두 번째 목표이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
문헌 클러스터링은 어떤 기법인가? 문헌 클러스터링은각 문헌을표현하는자질 들을 비교하여 문헌간 유사성을 측정한 다음 비슷한 내용의 문헌들을동일한 집단에 속하도록 군집화하는 기법이다(정영미 2005). 최근까지 다양한 클러스터링 기법이 제안되어왔지만, 생성된 클러스터의 품질 면에서는 계층적 클러스터링모형이가장 뛰어난 것으로 알려져 있다.
클러스터링 모형의 단계는 어떻게 구성되는가? 최근까지 다양한 클러스터링 기법이 제안되어왔지만, 생성된 클러스터의 품질 면에서는 계층적 클러스터링모형이가장 뛰어난 것으로 알려져 있다. 클러스터링 모형은 대상 항목의 선정, 분류자질의 빈도행렬 작성, 유사계수의 적용, 클러스터 생성 기법의 적용 등 여러 단계로 구성된다. 각 단계마다 다양한 경우의 수가 있으므로 클러스터링결과도적용한 모형에 따라서 달라지게 된다(정영미, 이재윤2 0 0 1 ) .
클러스터링 모형의 각 단계마다 다양한 경우의 수가 있으므로 클러스터링 결과도 적용한 모형에 따라 어떻게 되는가? 클러스터링 모형은 대상 항목의 선정, 분류자질의 빈도행렬 작성, 유사계수의 적용, 클러스터 생성 기법의 적용 등 여러 단계로 구성된다. 각 단계마다 다양한 경우의 수가 있으므로 클러스터링결과도적용한 모형에 따라서 달라지게 된다(정영미, 이재윤2 0 0 1 ) .
질의응답 정보가 도움이 되었나요?

참고문헌 (17)

  1. 정영미. 2005. 정보검색연구. 서울: 구미무역(주) 출판부 

  2. 정영미, 이재윤. 2001. 지식 분류의 자동화를 위한 클러스터링 모형 연구. 정보관리학회지, 18(2): 203-230 

  3. Dagan, Ido, Lillian Lee, and Fernando Pereira. 1999'. Simialrity-based models of cooccurrence probabilities.' Machine Learning, 34(1-3): 43-69 

  4. Griffith, A., L. A. Robinson, and P. Willett. 1984. ' Hierarchic agglomerative clustering methods for automatic document classification.' Journal of Documentation, 40(3): 175- 205 

  5. Griffiths, A., H. C. Luckhurst, and P. Willett. 1986. 'Using inter document similarity information in document retrieval systems.' Journal of the American Society for Information Science, 37(1):3-11 

  6. Kullback, S., and R. A. Leibler. 1951'. On information and sufficiency.'Annals of Mathematical Statistics, 22(1): 79-86 

  7. Kullback, Solomon. 1968. Information Theory and Statistics, 2nd ed. New York: Dover Books 

  8. Lee, Lillian. 1999. 'Measures of distributional similarity.' Proceedings of the 37th Annual 

  9. Lee, Lillian. 2001'. On the effectiveness of the skew diverg ence for statistical language analysis.' Proceedings of the Eighth International Workshop on Artificial Intelligence and Statistics (AISTATS-2001), 65-72 

  10. Lee, Lillian, and Fernando Pereira. 1999.' Distrbiutional similarity models: Clustering vs. nearest neighbors.'Proceedings of the 37th Annual Meeting of the Association for Computational Linguistics, 33-40 

  11. Lin, Dekang. 1998'. Automati cretrieval and clustering of similar words,' Proceedings of the COLINGACL '98, 768-773 

  12. Lin, Jianhua. 1991'. Divergence measuers based on the Shannon entropy.' IEEE Transactions on Information Theory, 37(1): 145-151 

  13. Pereira, Fernando, Naftali Tishby, and Lillain Lee. 1993'. Distrbiutional clustering of English words.' Proceedings of the 31st Annual Meeting of the ACL, 183-190 

  14. Salton, Gerard, and Michael J. McGill. 1983. Introduction to Modern Information Retrieval. New York: McGraw Hill 

  15. Theodoridis, S., and K. Koutroumbas. 2003. Pattern Recognition. 2nd ed. Oxford, UK:Elsever 

  16. Weeds, J. E. 2003. Measures and Applications of Lexical Distributional Similarity. Ph. D. diss., University of Sussex 

  17. White, H. D., and B. C. Griffith. 1981. Author cocitation: aliterature measure of intellectual structure.' Journal of the American Society for Information Science, 32: 163- 171 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로