지식베이스 확장을 위한 멀티소스 비정형 문서에서의 정보 추출 시스템의 개발 Development of Information Extraction System from Multi Source Unstructured Documents for Knowledge Base Expansion원문보기
지식베이스를 구축하는 작업은 도메인 전문가가 온톨로지스키마를 이해한 뒤, 직접 지식을 정제하는 수작업이 요구되는 만큼 비용이 많이 드는 활동이다. 이에, 도메인 전문가 없이 다양한 웹 환경으로부터 질의에 대한 답변 정보를 추출하기 위한 자동화된 시스템의 연구개발의 필요성이 제기되고 있다. 기존의 정보 추출 관련 연구들은 웹에 존재하는 다양한 형태의 문서 중 학습데이터와 상이한 형태의 문서에서는 정보를 효과적으로 추출하기 어렵다는 한계점이 존재한다. 또한, 기계 독해와 관련된 연구들은 문서에 정답이 있는 경우를 가정하고 질의에 대한 답변정보를 추출하는 경우로서, 문서의 정답포함 여부를 보장할 수 없는 실제 웹의 비정형 문서로부터의 정보추출에서는 낮은 성능을 보인다는 한계점이 존재한다. 본 연구에서는 지식베이스 확장을 위하여 웹에 존재하는 멀티소스 비정형 문서로부터 질의에 대한 정보를 추출하기 위한 시스템의 개발 방법론을 제안하고자 한다. 본 연구에서 제안한 방법론은 "주어(Subject)-서술어(Predicate)"로 구분된 질의에 대하여 위키피디아, 네이버 백과사전, 네이버 뉴스 3개 웹 소스로부터 수집된 비정형 문서로부터 관련 정보를 추출하며, 제안된 방법론을 적용한 시스템의 성능평가를 위하여, Wu and Weld(2007)의 모델을 베이스라인 모델로 선정하여 성능을 비교분석 하였다. 연구결과 제안된 모델이 베이스라인 모델에 비해, 위키피디아, 네이버 백과사전, 네이버 뉴스 등 다양한 형태의 문서에서 정보를 효과적으로 추출하는 강건한 모델임을 입증하였다. 본 연구의 결과는 현업 지식베이스 관리자에게 지식베이스 확장을 위한 웹에서 질의에 대한 답변정보를 추출하기 위한 시스템 개발의 지침서로서 실무적인 시사점을 제공함과 동시에, 추후 다양한 형태의 질의응답 시스템 및 정보추출 연구로의 확장에 기여할 수 있을 것으로 기대한다.
지식베이스를 구축하는 작업은 도메인 전문가가 온톨로지 스키마를 이해한 뒤, 직접 지식을 정제하는 수작업이 요구되는 만큼 비용이 많이 드는 활동이다. 이에, 도메인 전문가 없이 다양한 웹 환경으로부터 질의에 대한 답변 정보를 추출하기 위한 자동화된 시스템의 연구개발의 필요성이 제기되고 있다. 기존의 정보 추출 관련 연구들은 웹에 존재하는 다양한 형태의 문서 중 학습데이터와 상이한 형태의 문서에서는 정보를 효과적으로 추출하기 어렵다는 한계점이 존재한다. 또한, 기계 독해와 관련된 연구들은 문서에 정답이 있는 경우를 가정하고 질의에 대한 답변정보를 추출하는 경우로서, 문서의 정답포함 여부를 보장할 수 없는 실제 웹의 비정형 문서로부터의 정보추출에서는 낮은 성능을 보인다는 한계점이 존재한다. 본 연구에서는 지식베이스 확장을 위하여 웹에 존재하는 멀티소스 비정형 문서로부터 질의에 대한 정보를 추출하기 위한 시스템의 개발 방법론을 제안하고자 한다. 본 연구에서 제안한 방법론은 "주어(Subject)-서술어(Predicate)"로 구분된 질의에 대하여 위키피디아, 네이버 백과사전, 네이버 뉴스 3개 웹 소스로부터 수집된 비정형 문서로부터 관련 정보를 추출하며, 제안된 방법론을 적용한 시스템의 성능평가를 위하여, Wu and Weld(2007)의 모델을 베이스라인 모델로 선정하여 성능을 비교분석 하였다. 연구결과 제안된 모델이 베이스라인 모델에 비해, 위키피디아, 네이버 백과사전, 네이버 뉴스 등 다양한 형태의 문서에서 정보를 효과적으로 추출하는 강건한 모델임을 입증하였다. 본 연구의 결과는 현업 지식베이스 관리자에게 지식베이스 확장을 위한 웹에서 질의에 대한 답변정보를 추출하기 위한 시스템 개발의 지침서로서 실무적인 시사점을 제공함과 동시에, 추후 다양한 형태의 질의응답 시스템 및 정보추출 연구로의 확장에 기여할 수 있을 것으로 기대한다.
In this paper, we propose a methodology to extract answer information about queries from various types of unstructured documents collected from multi-sources existing on web in order to expand knowledge base. The proposed methodology is divided into the following steps. 1) Collect relevant documents...
In this paper, we propose a methodology to extract answer information about queries from various types of unstructured documents collected from multi-sources existing on web in order to expand knowledge base. The proposed methodology is divided into the following steps. 1) Collect relevant documents from Wikipedia, Naver encyclopedia, and Naver news sources for "subject-predicate" separated queries and classify the proper documents. 2) Determine whether the sentence is suitable for extracting information and derive the confidence. 3) Based on the predicate feature, extract the information in the proper sentence and derive the overall confidence of the information extraction result. In order to evaluate the performance of the information extraction system, we selected 400 queries from the artificial intelligence speaker of SK-Telecom. Compared with the baseline model, it is confirmed that it shows higher performance index than the existing model. The contribution of this study is that we develop a sequence tagging model based on bi-directional LSTM-CRF using the predicate feature of the query, with this we developed a robust model that can maintain high recall performance even in various types of unstructured documents collected from multiple sources. The problem of information extraction for knowledge base extension should take into account heterogeneous characteristics of source-specific document types. The proposed methodology proved to extract information effectively from various types of unstructured documents compared to the baseline model. There is a limitation in previous research that the performance is poor when extracting information about the document type that is different from the training data. In addition, this study can prevent unnecessary information extraction attempts from the documents that do not include the answer information through the process for predicting the suitability of information extraction of documents and sentences before the information extraction step. It is meaningful that we provided a method that precision performance can be maintained even in actual web environment. The information extraction problem for the knowledge base expansion has the characteristic that it can not guarantee whether the document includes the correct answer because it is aimed at the unstructured document existing in the real web. When the question answering is performed on a real web, previous machine reading comprehension studies has a limitation that it shows a low level of precision because it frequently attempts to extract an answer even in a document in which there is no correct answer. The policy that predicts the suitability of document and sentence information extraction is meaningful in that it contributes to maintaining the performance of information extraction even in real web environment. The limitations of this study and future research directions are as follows. First, it is a problem related to data preprocessing. In this study, the unit of knowledge extraction is classified through the morphological analysis based on the open source Konlpy python package, and the information extraction result can be improperly performed because morphological analysis is not performed properly. To enhance the performance of information extraction results, it is necessary to develop an advanced morpheme analyzer. Second, it is a problem of entity ambiguity. The information extraction system of this study can not distinguish the same name that has different intention. If several people with the same name appear in the news, the system may not extract information about the intended query. In future research, it is necessary to take measures to identify the person with the same name. Third, it is a problem of evaluation query data. In this study, we selected 400 of user queries collected from SK Telecom 's interactive artificial intelligent speaker to evaluate the performance of the information extraction system. n this
In this paper, we propose a methodology to extract answer information about queries from various types of unstructured documents collected from multi-sources existing on web in order to expand knowledge base. The proposed methodology is divided into the following steps. 1) Collect relevant documents from Wikipedia, Naver encyclopedia, and Naver news sources for "subject-predicate" separated queries and classify the proper documents. 2) Determine whether the sentence is suitable for extracting information and derive the confidence. 3) Based on the predicate feature, extract the information in the proper sentence and derive the overall confidence of the information extraction result. In order to evaluate the performance of the information extraction system, we selected 400 queries from the artificial intelligence speaker of SK-Telecom. Compared with the baseline model, it is confirmed that it shows higher performance index than the existing model. The contribution of this study is that we develop a sequence tagging model based on bi-directional LSTM-CRF using the predicate feature of the query, with this we developed a robust model that can maintain high recall performance even in various types of unstructured documents collected from multiple sources. The problem of information extraction for knowledge base extension should take into account heterogeneous characteristics of source-specific document types. The proposed methodology proved to extract information effectively from various types of unstructured documents compared to the baseline model. There is a limitation in previous research that the performance is poor when extracting information about the document type that is different from the training data. In addition, this study can prevent unnecessary information extraction attempts from the documents that do not include the answer information through the process for predicting the suitability of information extraction of documents and sentences before the information extraction step. It is meaningful that we provided a method that precision performance can be maintained even in actual web environment. The information extraction problem for the knowledge base expansion has the characteristic that it can not guarantee whether the document includes the correct answer because it is aimed at the unstructured document existing in the real web. When the question answering is performed on a real web, previous machine reading comprehension studies has a limitation that it shows a low level of precision because it frequently attempts to extract an answer even in a document in which there is no correct answer. The policy that predicts the suitability of document and sentence information extraction is meaningful in that it contributes to maintaining the performance of information extraction even in real web environment. The limitations of this study and future research directions are as follows. First, it is a problem related to data preprocessing. In this study, the unit of knowledge extraction is classified through the morphological analysis based on the open source Konlpy python package, and the information extraction result can be improperly performed because morphological analysis is not performed properly. To enhance the performance of information extraction results, it is necessary to develop an advanced morpheme analyzer. Second, it is a problem of entity ambiguity. The information extraction system of this study can not distinguish the same name that has different intention. If several people with the same name appear in the news, the system may not extract information about the intended query. In future research, it is necessary to take measures to identify the person with the same name. Third, it is a problem of evaluation query data. In this study, we selected 400 of user queries collected from SK Telecom 's interactive artificial intelligent speaker to evaluate the performance of the information extraction system. n this
지식베이스는 질의응답 시스템에 사용되는 요소로서, 사용자의 질의에 대한 답변지식을 저장, 탐색하는 기능을 수행하기 위한 기술로 인공지능 분야의 중요한 연구과제로 여겨지고 있다. 이러한 지식베이스를 구축하는 작업은 특정 도메인 전문가가 직접 지식을 정제하는 수작업이 요구되므로 비용이 많이 드는 활동이며(Khot et al.
기계독해의 한계점은?
이러한 기계독해 관련 선행연구들은 주로 문서 안에 정답이 존재함을 가정하고, 질의에 대한 문서 안의 정답 위치를 찾아내는 end-to-end 인공신경망 모델에 대한 연구로서, 문서 및 문장 안의 정답 포함 여부를 판단하는 절차가 부재하다. 따라서, 웹에 존재하는 비정졍 문서를 대상으로 기계독해 선행연구를 적용할 경우, 정답이 존재하지 않는 문서에서도 정보를 추출하고자 하는 시도가 빈번하게 발생하기 때문에 낮은 수준의 성능을 보인다는 한계점이 존재한다. 따라서, 지식베이스 확장을 위하여 실제 웹에 존재하는 비정형 문서로부터 관련 정보의 포함여부에 대한 종합적인 신뢰성을 고려한 정보 추출 시스템의 연구개발이 필요한 상황이다.
기계독해의 특징은?
또한 기계독해는 질의응답의 데이터 단위가문서이기 때문에, 학습 문서와 이질적인 형태의 문서에서는 낮은 질의응답 성능을 보이게 된다. 하지만, 지식베이스 확장을 위한 정보 추출 문제는 실제 웹에 존재하는 다양한 비정형 문서를 정보 추출의 대상으로 하고 있기 때문에, 도메인별 문서의 형태가 이질적인 특성이 존재한다.
참고문헌 (18)
Ahn, S., "Deep Learning Architectures and Applications", Journal of Intelligence and Information Systems, Vol.22, No.2(2018), 127-142.
Banko, M., M. J. Cafarella, S. Soderland, M. Broadhead, O. Etzioni, "Open information extraction from the web." IJCAI. Vol. 7, (2007), 2670-2676.
Eikvil, L, "Information extraction from world wide web-a survey.", Technical Report 945, Norwegian Computing Center, 1999.
Etzioni, O., M. Cafarella, and D. Downey, "Web-scale information extraction in knowitall:(preliminary results)." Proceedings of the 13th international conference on World Wide Web. ACM, (2004), 100-110.
Gaizauskas, R., and Y. Wilks, "Information extraction: Beyond document retrieval.", Journal of documentation, Vol 54, No.1 (1998), 70-105.
Hermann, K., et al. "Teaching machines to read and comprehend." Advances in Neural Information Processing Systems, (2015), 1693-1701.
Huang, Z., W. Xu, and K. Yu, "Bidirectional LSTM-CRF models for sequence tagging." arXiv preprint, (2015).
JIN, S., H. Jang, W. KIM, "Improving Bidirectional LSTM-CRF model Of Sequence Tagging by using Ontology knowledge based feature", Journal of Intelligence and Information Systems, Vol.24, No.1(2018), 253-267).
Khot, T., A. Sabharwal, and P. Clark, "Answering complex questions using open information extraction." arXiv preprint, (2017).
Kim, Y. "Convolutional neural networks for sentence classification." arXiv preprint, (2014).
Park, E.L., and Cho. S, "KoNLPy: Korean natural language processing in Python." Proceedings of the 26th Annual Conference on Human & Cognitive Language Technology, (2014). 133-136.
Park, H., M. Song, K. Shin, " Sentiment Analysis of Korean Reviews Using CNN: Focusing on Morpheme Embedding", Journal of Intelligence and Information Systems, Vol.24, No.2(2018), 59-83.
Qiu , Lin., H. Zhou, Y. Q, W. Zhang, S. Li, S. Rong, D. Ru, L. Qian, W. Tu, Y. Yu, "QA4IE: A Question Answering based Framework for Information Extraction." arXiv preprint, (2018).
Rajpurkar, P., J. Zhang, K. Lopyrev, P. Liang, "Squad: 100,000+ questions for machine comprehension of text." arXiv preprint, (2016).
Seo, M., A. Kembhavi, A. Farhadi, H. Hajishirzi, "Bidirectional attention flow for machine comprehension." arXiv preprint, (2016).
Wang, W., N. Yang, F. Wei, B. Chang, M. Zhou, "Gated Self-matching networks for reading comprehension and question answering." Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, (2017). 189-198.
Wang, S., and J. Jiang, "Machine comprehension using match-lstm and answer pointer." arXiv preprint, (2016).
Wu, F., and D. S. Weld, "Autonomously semantifying wikipedia." Proceedings of the sixteenth ACM conference on Conference on information and knowledge management, ACM, (2007), 41-50.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.