$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

정보검색 기술을 이용한 비지도 학습 기반 문서 분류 시스템 개발
Developing a Text Categorization System Based on Unsupervised Learning Using an Information Retrieval Technique 원문보기

정보과학회논문지. Journal of KIISE. 소프트웨어 및 응용, v.34 no.2, 2007년, pp.160 - 168  

노대욱 (연세대학교 정보통신공학부) ,  이수용 (연세대학교 정보통신공학부) ,  나동열 (연세대학교 정보통신공학부)

초록
AI-Helper 아이콘AI-Helper

문서분류기의 개발에 있어 지도학습기법을 이용할 경우 많은 양의 사람에 의한 범주 부착 말뭉치가 필요하다. 그러나 이의 구축은 많은 시간과 노력을 필요로 한다. 최근 이러한 범주 부착 말뭉치 대신 원시말뭉치와 범주마다 약간의 씨앗 정보를 이용하여 학습을 수행하여 문서분류기를 개발하는 방법론이 제시되었다. 본 논문에서는 이 방법론 하에서 다른 연구에서의 결과보다 좋은 성능을 나타내는 비지도 학습 기법을 소개한다. 본 논문에서 제시하는 기법의 특징은 씨앗 단어에서 출발하여 평균상호정보를 이용하여 다른 대표단어 및 그들의 가중치를 학습한 다음, 정보검색에서 많이 사용하는 기술을 이용하여 그 가중치를 갱신하는 것이다. 그리고 이 과정을 반복 수행하여 최종적으로 높은 성능의 시스템을 개발 할 수 있음을 제시하였다.

Abstract AI-Helper 아이콘AI-Helper

For developing a text classifier using supervised learning, a manually labeled corpus of large size is required. However, it takes a lot of time and human effort. Recently a research paradigm was proposed to use a raw corpus and a small amount of seed information instead of manually labeled corpus. ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 문서분류기의 개발을 위하여 원시말뭉치와 씨앗 정보만을 이용하는 준-비지도 학습 기법을제안하였다. 각 범주의 범주명을 구성하는 한 두 단어를씨앗 단어로 이용하여 해당 범주를 대표하는 단어들을부트스트래핑 기법으로 학습하고 그 단어들의 가중치를조정하여 범주를 대표하는 벡터들을 생성하였다.
  • 본 논문의 연구에서는 정보검색에서 각 문서가 벡터로 표현되는 것처럼 각 범주들을 문서와 같이 벡터로 가능한 한 정확하게 나타내고(이를 범주 대표 벡터라 함) 이 대표 벡터들을 사용하여 정보검색에서처럼 cosine 계수 등과 같은 비교 기법을 이용하여 문서를 분류하는 것이다. n리고 이를 이용하여 MLC를 생성한다.
  • 본 절에서는 비지도 학습의 두 단계 중 앞의 것인 스텝 1에서 수행하는 범주마다에 대한 대표 단어들 및 그들의 가중치를 학습하는 기법을 살펴본다. 대표 벡터를 구하기 위해 먼저 가중치가 0이 아닌 단어들 즉 대표단어들 및 그들의 가중치를 구해야 한다.
  • 있다. 이러한 최적의 시스템과 비교하여 우리의 방법에 의해 개발된 시스템이 어느 정도 성능을 보이는 지 알아 보는 것이 본 실험의 목적이다.
  • 이에 따라 본 논문에서는 새로운 비지도 학습기법을소개한다. 본 논문의 연구에서는 정보검색에서 각 문서가 벡터로 표현되는 것처럼 각 범주들을 문서와 같이 벡터로 가능한 한 정확하게 나타내고(이를 범주 대표 벡터라 함) 이 대표 벡터들을 사용하여 정보검색에서처럼 cosine 계수 등과 같은 비교 기법을 이용하여 문서를 분류하는 것이다.

가설 설정

  • 그렇다면 단어 X에 대하여 스텝 2에서 매우 낮은 가중치를 받은 사실을 이용할 수는 없을까? 만약 스텝 1 을 다시 한번 더 수행하도록 하고 그 과정에서 元가 스텝 2에서 매우 나쁜 가중치를 받은 사실을 고려하여 가능하면 다른 단어 보다 먼저 대표 단어로 학습되지 못하도록 한다면 X가 학습될 가능성을 낮출 수 있을 것이다. h 에폭의 스텝 1(즉 3.1 절에서 설명한 작업 단계)에서 특정 범주에 대하여 단어 X가 학습된다고 가정하자. 만약 X가 이 범주에 대해 좋지 않은 단어라면 같은 에폭의 스텝 2 단계(3.
  • 시스템은 또한 미리 정해진 범주를 가지고 있다고 가정한다. 각 범주는 범주 레이블로 나타내지나 순서화된범주 집합 C 안에서 이 범주 레이블이 차지하는 위치로나타낼 수도 있다(ICI는 전체 범주의 수) :
  • 이범주와 관련이 깊을 가능성이 많다. 즉 X 와 / 와의 관계를 고려할 때 y 가 더욱 중요할수록(즉 y 의 가중치가클수록), 그리고 X와 y 사이의 관련도가 클수록 X 의 범주 c에 대한 관련도도 커질 것이다. 위의 식 (9)는 이러한 생각을 반영한 식이다.
본문요약 정보가 도움이 되었나요?

참고문헌 (23)

  1. C. Manning and H. Schutze, 1999. Foundations of Statistical Natural Language Processing. The MIT Press 

  2. T. Joachims, 1998. Text categorization with support vector machines: learning with many relevant features. In Proc. of ECML '98, Pages 137-142 

  3. D. Lewis and W. Gale. 1994. A sequential algorithm for training text classifiers, In Proc. of SIGIR-94 

  4. A. Blum and T. Mitchell. 1998. Combining labeled and unlabeled data with co-training. In Proc. COLT-98 

  5. K.P. Nigam, A. McCallum, S. Thrun, and T. Mitchell. 1998. Learning to classify text from labeled and unlabeled documents. In Proc. of AAAI-98 

  6. A. A. Gliozzo, C. Strapparava, and I. Dagan. 2005. Investigating unsupervised learning for text categorization bootstrapping. In Proc. of HLT-2005, October. Pages 129-136 

  7. Y. Ko and J. Seo. 2004. Learning with unlabeled data for text categorization using bootstrapping and feature projection techniques. In Proc. of the ACL-04, Barcelona, Spain, July 

  8. B. Liu, X. Li, W.S. Lee, and P.S. Yu. 2004. Text classification by labeling words. In Proc. of AAAI-04, San Jose, July 

  9. G. Salton and M. McGill. 1983. Introduction to Modern Information Retrieval. McGraw-Hill 

  10. Y. Yang and J.P. Pederson. 1997. Feature selection in statistical learning of text categorization. In Proc. of ICML '97, Pages 412-420 

  11. A. McCallum and K. Nigam. 1999. Text classification by bootstrapping with keywords, EM and shrinkage. In ACL-99-Workshop on Unsupervised Learning in Natural Language Processing 

  12. S. Deerwester, S. Dumais, G. Furnas, T. Landauer, and R. Harshman. 1990. Indexing by latent semantic analysis. Journal of the American Society of Information Science 

  13. A. Dempster, N. M. Laird and D. Rubin. 1977. Maximum likelihood from incomplete data via the EM algorithm. J. of the Royal Stat. Society, B:39, Pages 1-38 

  14. R. Ghani. 2002. Combining labeled and unlabeled data for multiclass text categorization. In Proc. of ICML-02 

  15. A. Gliozzo, C. Strapparava, and I. Dagan. 2004. Unsupervised and supervised exploitation of semantic domains in lexical disambiguation,. Computer Speech and Language, 18:275-299 

  16. A.K. Jain and R.C. Dubes. 1988. Algorithms for Clustering Data. Engle-wood Cliffs, NJ: Prentice Hall 

  17. T. Joachims, 1999. Estimating the Generalization Performance of an SVM Efficiently. In Proc. of ICML' 2000, Pages 431-438 

  18. Y. Ko and J. Seo. 2000. Automatic text categorization by unsupervised learning. In Proc. of COLING 2000 

  19. A. McCallum and K. Nigam. 1998. A comparison of event models for naive Bayes text classification. In Proc. of AAAI-98 Workshop on Learning for Text Categorization 

  20. N. Slonim, N. Friedman, and N. Tishby, 2002. Unsupervised document classification using sequential information maximization, In Proc. of SIGIR '02, Pages 129-136 

  21. V. Vapnik. 1995. The nature of statistical learning theory 

  22. C. Burges, 1998. A Tutorial on Support Vector Machines for Pattern Recognition. Data Mining and Knowledge Discovery, vol. 2, no. 2 

  23. N., Cristianini J. Shawe-Taylor2000. An introduction to Support Vector and other kernel-based learning methods. Cambridge Univ. Press 

저자의 다른 논문 :

관련 콘텐츠

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로