$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

주제 균형 지능형 텍스트 요약 기법
Subject-Balanced Intelligent Text Summarization Scheme 원문보기

지능정보연구 = Journal of intelligence and information systems, v.25 no.2, 2019년, pp.141 - 166  

윤여일 (국민대학교 경영대학) ,  고은정 (국민대학교 비즈니스IT전문대학원) ,  김남규 (국민대학교 경영대학)

초록
AI-Helper 아이콘AI-Helper

최근 다양한 매체를 통해 생성되는 방대한 양의 텍스트 데이터를 효율적으로 관리 및 활용하기 위한 방안으로써 문서 요약에 대한 연구가 활발히 진행되고 있다. 특히 최근에는 기계 학습 및 인공 지능을 활용하여 객관적이고 효율적으로 요약문을 도출하기 위한 다양한 자동 요약 기법이(Automatic Summarization) 고안되고 있다. 하지만 현재까지 제안된 대부분의 텍스트 자동 요약 기법들은 원문에서 나타난 내용의 분포에 따라 요약문의 내용이 구성되는 방식을 따르며, 이와 같은 방식은 비중이 낮은 주제(Subject), 즉 원문 내에서 언급 빈도가 낮은 주제에 대한 내용이 요약문에 포함되기 어렵다는 한계를 갖고 있다. 본 논문에서는 이러한 한계를 극복하기 위해 저빈도 주제의 누락을 최소화하는 문서 자동 요약 기법을 제안한다. 구체적으로 본 연구에서는 (i) 원문에 포함된 다양한 주제를 식별하고 주제별 대표 용어를 선정한 뒤 워드 임베딩을 통해 주제별 용어 사전을 생성하고, (ii) 원문의 각 문장이 다양한 주제에 대응되는 정도를 파악하고, (iii) 문장을 주제별로 분할한 후 각 주제에 해당하는 문장들의 유사도를 계산한 뒤, (iv) 요약문 내 내용의 중복을 최소화하면서도 원문의 다양한 내용을 최대한 포함할 수 있는 자동적인 문서 요약 기법을 제시한다. 제안 방법론의 평가를 위해 TripAdvisor의 리뷰 50,000건으로부터 용어 사전을 구축하고, 리뷰 23,087건에 대한 요약 실험을 수행한 뒤 기존의 단순 빈도 기반의 요약문과 주제별 분포의 비교를 진행하였다. 실험 결과 제안 방법론에 따른 문서 자동 요약을 통해 원문 내각 주제의 균형을 유지하는 요약문을 도출할 수 있음을 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

Recently, channels like social media and SNS create enormous amount of data. In all kinds of data, portions of unstructured data which represented as text data has increased geometrically. But there are some difficulties to check all text data, so it is important to access those data rapidly and gra...

주제어

표/그림 (22)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구에서는 문서가 포함하는 다양한 주제를 정의하고, 각 주제와 관련된 내용을 균형있게요약하는 방안을 제시한다. 구체적으로 본 연구에서는 (i) 문서에 내포된 핵심 주제를 정의하고 각 주제에 해당하는 시드(Seed) 용어를 구성한 뒤, (ii) 워드 임베딩을 통해 주제별 용어 사전을 생성하고, (iii) 문장 간 유사도 및 각 문장의 주제별 대응도를 산출한 뒤, (iv) 요약문의 평가 지표인 완전성(Completeness)과 간결성(Succinctness)의 개념을 활용하여(Ko and Kim, 2018), 요약문 내 내용의 중복을 최소화하면서도 원문의 다양한 내용을 최대한 포함할 수 있는 문서 자동 요약기법을 제시한다.
  • 본 장에서는 문서가 내포한 다양한 주제를 식별하고, 각 주제와 관련된 내용을 균형있게 요약하는 요약문 도출 방법론을 간단한 예시와 함께 소개한다. 제안 방법론의 전체 개요는 [Figure3]과 같다
  • 본 절에서는 3장에서 소개한 제안 방법론의 검증을 위한 실험 환경과 데이터를 소개한다. 실험을 위해 여행 정보 사이트인 TripAdvisor로부터 리뷰를 수집하고, 이들 리뷰를 문장으로 분해하여 총 50,000건의 문장 집합을 구성하였다.
  • 본 절에서는 제안 방법론을 통해 도출한 요약문의 주제별 균형 정도를 평가하기 위한 분석을 수행한다. 구체적으로는 각 주제별 문장의 구성 비율을 비교하고자 하며, 각 주제별 문장 수의 표준 편차도 함께 비교한다.
  • 본 절에서는 주제별 문서 집합으로부터 주제별 요약문을 도출한 결과를 제시한다. 주제별 문장을 Sen2Vec을 이용해 문장 벡터로 변환하고, 벡터 간 코사인 유사도를 계산하여 문장의 유사도 행렬을 도출하였다.
  • 본 절에서는 호텔 리뷰가 내포한 다양한 주제를 확인하고, 이를 바탕으로 주제별 용어 사전을 구축한 결과를 제시한다. 우선 호텔 리뷰가 내포한 주제를 파악하기 위해 사전 구축용 리뷰 데이터로부터 20개의 토픽을 도출하고, 각 토픽별 주요 키워드를 확인하였다.
  • 본 연구의 기여는 다음과 같다. 우선 본 연구는 낮은 빈도로 인해 소외될 수 있는 주제도 요약문에 포함시킬 수 있는 자동 요약 기법을 새롭게 제안하였으며, 이는 본 연구의 학술적 기여로 인정받을 수있다. 또한 이를 위해 완전성과 간결성이 높은 요약문을 생성하는 기법을 구체적으로 제시한 점도 새로운 시도로 인정받을 수 있을 것이다.
  • 원문에 포함된 내용 중 최대한 다양한 주제를 포함하면서 요약문 내 문장 간의 내용 중복을 최소화하기 위해, 본 연구에서는 요약문 평가의 지표로 최근 발표된 개념인 완전성(Completeness)와 간결성(Succinctness)에 기반을 두어 문서 요약을 수행한다(Ko and Kim, 2018). 완전성은 요약문이 원문의 내용을 최대한 누락없이 포함해야 한다는 성질이고, 간결성은 요약문 내용의 중복이 최소가 되야 한다는 성질이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
텍스트 마이닝은 어떤 분야인가? 텍스트 마이닝(Text Mining)은 기존의 데이터마이닝의 다양한 기법을 텍스트 데이터에 접목한 분야로써, 텍스트 데이터로부터 알려지지 않은 새로운 사실을 발견하고 이를 통해 통찰을 도출하는 분야로(Tan, 1999) 정의된다. 텍스트 마이닝을 수행하기 위해선 텍스트 데이터의 수집과 분할, 정제와 같은 전처리 과정이 필요하며, 분석을 위해 자연어 형태의 텍스트를 정형화된 형태로 바꾸는 구조화의 단계가 선행되어야 한다.
문서 요약이란 무엇인가? 문서 요약은 하나 이상의 문서로부터 중요한 정보를 찾아내고 해당 정보를 포함하는 짧은 문서로 축소하는 과정이라고 정의할 수 있으며(Eduard, 2015), 이렇게 도출된 요약문은 원문이 지닌 정보를 최대한 반영하여 정보의 손실을 최소화하면서도 객관적으로 전달해야 한다. 이에 따라 사람의 주관이 개입하지 않는 자동 요약에 대한 연구가 주목을 받아 활발히 이루어지고있다(Nenkova, 2012).
Word2Vec은 CBOW(Continuous Bag of Words)와 Skip-Gram 두 가지 알고리즘을 활용하는데, 이들은 각각 어떤 알고리즘인가? 2013), CBOW(Continuous Bag of Words)와 Skip-Gram 두 가지 알고리즘을 활용하여 용어의 벡터화를 수행한다. CBOW는 대상 용어를 기준으로 주위에 등장하는 용어들에 대한 벡터를 도출하는 학습 모델이고, Skip-Gram 모델은 대상 용어와 인접하게 위치한 용어들을 바탕으로 대상 용어에 대한 벡터를 도출한다. Word2Vec은 기존의 임베딩 모델이 시도하지 않았던 개별 용어 관점의 구조화를 진행하였다는 점에 모델의 독창성을 인정받아 다양한 분야에서 활용되고있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (33)

  1. Bingham, E. and H. Mannila, "Random projection in dimesionality reduction: applications to image and text," Proceedings of the seventh ACM SIGKDD international conference on Knowledge discovery and data mining, (2001), 245-250. 

  2. Chen, Y. and M. Bansal, "Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting," Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, (2018), 675-686. 

  3. Chorpa, S., M. Auli and A. Rush, "Abstractive Sentence Summarization with Attentive Recurrent Neural Networks," Proceedings of North American Chapter of the Association for Computational Linguistics: Human Language Technologies, (2016), 93-98. 

  4. Eduard, H., and C. Lin, "Automated text summarization and the SUMMARIST system," Proceedings of a workshop, (1998), 197-214. 

  5. Eduard, H., The Oxford Handbook of Computational Linguistics 2nd edition, Oxford University Press, Oxford, 2015. 

  6. Erk, K. and S. Pado, "A structured vector space model for word meaning in context," Proceedings of the Conference on Empirical Methods in Natural Language Processing, (2008), 897-906. 

  7. Gao, J., Y. He, X. Zhang and Y. Xia, "Duplicate Short Text Detection Based on Word2Vec," 2017 8th IEEE International Conference on Software Engineering and Service Science, (2017), 33-38. 

  8. Goldstein, J., M. Kantrowitz, V. Mittal and J. Carbonell, "Summarizing text documents: sentence selection and evaluation metrics," Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval, (1999), 121-128. 

  9. Gong, Y. and X. Liu, "Generic text summarization using relevance measure and latent semantic analysis," Proceedings of the 24th annual international ACM SIGIR conference on Research and development in information retrieval, (2001), 19-25. 

  10. Gupta, V. and G. Lehal, "A Survey of Text Summarization Extractive Techniques," JOURNAL OF EMERGING TECHNOLOGIES IN WEB INTELLIGENCE, Vol.2, No.3(2010), 258-268. 

  11. Joel, L. N., A. Alex and C, Kaestner, "Automatic Text Summarization Using a Machine Learning Approach," Brazilian Symposium on Artificial Intelligence, (2002), 205-215. 

  12. Kageback, M., O. Mogren, N. Tahmasebi and D. Dubhashi, "Extractive Summarization using Continuous Vector Space Models," Proceedings of the 2nd Workshop on Continuous Vector Space Models and their Compositionality, (2014), 31-39. 

  13. Kim, J., J. Kim and D. Hwang, "Korean Text Summarization Using an Aggregate Similarity," Proceedings of the fifth international workshop on on Information retrieval with Asian languages, (2000), 111-118. 

  14. Ko, E. and N. Kim, "Automatic Quality Evaluation with Completeness and Succinctness for Text Summarization," Journal of Intelligence and Information Systems, Vol.24, No.2(2018), 125-148. 

  15. Li, W., X. Xiao, Y. Lyu and Y. Wang, "Improving Neural Abstractive Document Summarization with Structural Regularization," Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, (2018), 4078-4097. 

  16. Marco, B., D. Georgiana and K. German, "Don't count, predict! A Systematic comparison of context-counting vs. context-predicting semantic vectors," Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, (2014), 238-247. 

  17. Mikolov, T., I. Sutskever, K. Chen, G. Corrado and J. Dean, "Distributed representations of words and phrases and their compositionality," Proceedings of the 26th International Conference on Neural Information Processing Systems, Vol.2, (2013), 3111-3119. 

  18. Mittal, N., B. Agarwal, H. Mantri, R. Goyal and M. Jain, "Extractive Text Summarization," International Journal of Current Engineering and Technology, Vol.4, No.2(2014), 870-872. 

  19. Mohamed, A. F. and R. Fuji, "GA, MR, FFNN, Pnn and GMM based models for automatic text summarization," Computer Speech & Language, Vol.23, (2009), 126-144. 

  20. Nallapati, R., B. Zhou, C. Santos, C. Gulcehre and B. Xiang, "Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond," Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning, (2016), 280-290. 

  21. Nenkova, A. and K. Mckewon, "A Survey of Text Summarization Techniques," Mining Text Data, (2012), 43-76. 

  22. Omer, L., Y. Goldberg and I. Dagan, "Improving Distributional Similarity with Lessons Learned from Word Embeddings," Transactions of the Association for Computational Linguistics, Vol.3, (2015), 211-225. 

  23. Rachit, A. and B. Ravindran "Latent Dirichlet Allocation and Singular Value Decomposition Based Multi-document Summarization," 2008 8th IEEE International Conference on Data Mining, (2008), 713-718. 

  24. Ramiz, M. A., "A new sentence similarity measure and sentence based extractive technique for automatic text summarization," Expert Systems with Applications, Vol.36, (2009), 7764-7772. 

  25. Salton, G., A. Wong and C. S. Yang, "A Vector Space Model for Automatic Indexing," Communications of the ACM, Vol.18, No.11(1975), 613-620. 

  26. Singhal, A., "Modern Information Retrieval: A Brief Overview," Bulletin of the IEEE Computer Society Technical Committee on Data Engineering, (2001), 35-43. 

  27. Sonawane, S., A. Ghotkar and S. Hinge, "Context-Based Multi-document Summarization," Contemporary Advances in Innovative and Applicable Information Technology, (2018), 153-165. 

  28. Tan, A. "Text Mining: The state of the art and the challenges," Proceedings of the Pacific Asia Conf on Knowledge Discovery and Data Mining PAKDD'99 workshop on Knowledge Discovery from Advanced Databases, (1999), 65-70. 

  29. Wan, X. and J. Yang, "Multi-document summarization using cluster-based link analysis," Proceedings of the 31st annual international ACM SIGIR conference on Research and development in information retrieval, (2008), 299-306. 

  30. Wen, Z., T. Yoshida and X. Tang, "A comparative study of TF*IDF, LSI and multi-words for text classification," Expert Systems with Applications, Vol.38, No.3(2011), 2758-2765. 

  31. Yeh, J. Y., H. Ke and W. Yang, "iSpreadRank: Ranking sentences for extraction-based summarization using feature weight propagation in the sentence similarity network," Expert Systems with Applications, Vol.35, (2008), 1451-1462. 

  32. Zhang, F., J. Yao and R. Yan, "On the Abstractiveness of Neural Document Summarization," Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, (2018), 785-790. 

  33. Zhang, P. and C. Li, "Automatic text summarization based on sentences clustering and extraction," 2009 2nd IEEE International Conference on Computer Science and Information Technology, (2009), 167-170. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로