$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

초록
AI-Helper 아이콘AI-Helper

빅데이터 분석을 위해 활용되는 데이터로는 뉴스, 블로그, SNS, 논문, 특허 그리고 센서로부터 수집된 데이터 등 매우 다양한 유형의 데이터가 있다. 특히, 신뢰성 있는 데이터를 실시간 제공하는 웹 문서의 활용이 점차 확산되고 있다. 그리고 빅데이터의 활용이 다양한 분야로 점차 확산되고 웹 데이터가 매년 기하급수적으로 증가하면서 웹 문서를 자동으로 수집하는 웹 크롤러의 중요성이 더욱 커지고 있다. 하지만, 기존 크롤러들은 일부 사이트에서 수집된 웹 문서에 포함된 URL만을 기반으로 웹 문서를 수집하기 때문에 사이트 전체 웹 문서를 수집할 수 없는 문제를 가진다. 또한, 수집된 웹 문서에 대한 정보를 효율적으로 관리하지 못하기 때문에 중복된 웹 문서를 수집하는 문제를 가진다. 그래서 본 논문에서는 웹 사이트의 RSS와 Google Search API를 통해 기존 웹 크롤러의 문제를 해결하고 RMI와 NIO을 활용해 서버와 클라이언트간 네트워크 연결을 최소화해 빠른 크롤링 기능을 제공하는 분산형 웹 크롤러를 제안한다. 또한, 제안하는 웹 크롤러는 웹 문서를 구성하는 태그들에 대한 키워드 유사도 비교를 통해, 분석에 활용되는 중요 콘텐츠만을 자동 추출하는 기능을 제공한다. 마지막으로, 기존 웹 크롤러와 제안하는 크롤러의 성능 평가 결과를 통해 제안하는 웹 크롤러의 우수성을 입증한다.

Abstract AI-Helper 아이콘AI-Helper

Data types used for big-data analysis are very widely, such as news, blog, SNS, papers, patents, sensed data, and etc. Particularly, the utilization of web documents offering reliable data in real time is increasing gradually. And web crawlers that collect web documents automatically have grown in i...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 RMI(Remote Method Invocation)와 NIO(New Input/Output) 기반의 분산형 웹 크롤러를 제안한다. 제안하는 웹 크롤러는 웹 사이트의 RSS(Rich Site Summary)[11]와 Google Search API[12]를 통해 시드를 수집함으로써 특정 웹 사이트의 전체 데이터를 수집할 수 있는 기능 제공과 Overlapped Crawl 문제를 해결했다.
  • 본 논문에서는 특정 사이트의 전체 웹 문서를 효율적으로 수집할 수 있는 RMI와 NIO 기반 분산형 웹 크롤러를 제안했다. 또한, 웹 문서의 중요 콘텐츠를 나타내는 태그에 대한 키워드 유사도 비교를 통해 중요 콘텐츠를 자동 추출하는 콘텐츠 추출기를 지원한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
웹 크롤러는 어떤 기술인가? 웹 크롤러(Web Crawler)는 방대한 웹 문서를 제공하는 웹에서 특정 사이트의 웹 문서를 자동으로 수집하는 기술을 말한다[8][9]. 특히, 빅데이터의 활용이 다양한 분야로 점차 확산되고 웹 데이터가 매년 기하급수적으로 증가하면서 웹 크롤러의 중요성은 더욱 커지고 있다.
웹 문서로부터 본문을 추출하기 위해 가장 많이 사용되는 방법은 무엇을 이용한 기법인가? 웹 문서로부터 본문을 추출하기 위해 가장 많이 사용되는 방법은 DOM 트리를 기반으로 웹 문서의 구조적 특징을 이용하는 기법이 있다. 대표적인 기법으로는 VIPS[16]가 있다.
기존의 웹 크롤러가 가진 문제점은 무엇인가? 그리고 빅데이터의 활용이 다양한 분야로 점차 확산되고 웹 데이터가 매년 기하급수적으로 증가하면서 웹 문서를 자동으로 수집하는 웹 크롤러의 중요성이 더욱 커지고 있다. 하지만, 기존 크롤러들은 일부 사이트에서 수집된 웹 문서에 포함된 URL만을 기반으로 웹 문서를 수집하기 때문에 사이트 전체 웹 문서를 수집할 수 없는 문제를 가진다. 또한, 수집된 웹 문서에 대한 정보를 효율적으로 관리하지 못하기 때문에 중복된 웹 문서를 수집하는 문제를 가진다. 그래서 본 논문에서는 웹 사이트의 RSS와 Google Search API를 통해 기존 웹 크롤러의 문제를 해결하고 RMI와 NIO을 활용해 서버와 클라이언트간 네트워크 연결을 최소화해 빠른 크롤링 기능을 제공하는 분산형 웹 크롤러를 제안한다.
질의응답 정보가 도움이 되었나요?

참고문헌 (22)

  1. 성원경, 이상환, 정한민, 박경석, 이승우, 김선태, 황미녕, 조민희, 과학기술 빅데이터 추진과제 발굴 및 활용 극대화를 위한 추진전략 마련 기획연구, 교육과학기술부, 2013. 

  2. 김정숙, "빅 데이터 활용과 관련기술 고찰", 한국콘텐츠학회논문지, 제10권, 제1호, pp.34-40, 2012. 

  3. http://www.1000genomes.org 

  4. http://www.smartinsight.co.kr 

  5. http://www.energy.gov 

  6. M. K. Lee, S. W. Lee, J. Y. Kim, D. M. Seo, P. K. Ki, H. M. Jung, J. H. Lee, T. H. Kim, H. K. Koo, and W. K. Sung, "InSciTe Advanced: Strategic Decision-Making Support Service based on Technology Opportunity Discovery Model," J. of Information An International Interdiscipli- nary, Vol.16, No.1(B), pp.639-698, 2013. 

  7. 이진희, 김태홍, 이승우, 김평, 이미경, 서동민, 김진형, 정한민, "정보 가치 향상을 위한 정보 분석 기술의 테크놀로지 인텔리전스 적용", 정보과학회논문지 : 컴퓨팅의 실제 및 레터, 제18권, 제2호, pp.153-157, 2012. 

  8. http://en.wikipedia.org/wiki/Web_crawler 

  9. 김영광, 이원구, 윤화묵, 신성호, 이민호, "웹 자원 아카이빙을 위한 웹 크롤러 연구 개발", 한국콘텐츠학회논문지, 제11권, 제9호, pp.9-16, 2011. 

  10. J. H. Cho and H. G. Molina, "Parallel Crawlers," In Proc. of International World Wide Web Confe- rence, pp.124-135, 2002. 

  11. http://en.wikipedia.org/wiki/RSS 

  12. https://developers.google.com/custom-search 

  13. J. H. Cho, H. G. Molina, and L. Page, "Efficient Crawling through URL Ordering," J. of Computer Networks and ISDN Systems, Vol.30, pp.161-171, 1998. 

  14. A. Heydon and M. Najork, "Mercator: A Scalable Extensible Web Crawler," In Proc. of International World Wide Web Conference, pp.219-229, 1999. 

  15. 김진일, 권유진, 김성렬, 박근수, "그래프 탐색 기법을 이용한 효율적인 웹 크롤링 알고리즘", 한국정보과학회 가을학술발표논문집, 제35권, 제2호, pp.299-300, 2008. 

  16. D. Cai, S. Yu, J. R. Wen, and W. Y. Ma, "VIPS: a Vision-based Page Segmentation Algorithm," Microsoft Technical Report, 2003. 

  17. 송문원, 김우승, 김명원, "텍스트 블록 주변의 문맥을 이용한 HTML 문서 본문 추출", 정보과학회논문지 : 소프트웨어 및 응용, 제40권, 제3호, pp.155-163, 2013. 

  18. C. Kohlschutter, P. Fankhauser, and W. Nejdl, "Boilerplate Detection using Shallow Text Features," In Proc. of ACM International Conference on Web Search and Data Mining, pp.441-450, 2010. 

  19. 방승준, 안진호, "소켓 및 RMI 기반 자바 메시지 전달 시스템의 구현 및 성능평가", 한국 인터넷정보학회지, 제8권, 제5호, pp.11-20, 2007. 

  20. http://www.cnet.com 

  21. http://www.infoworld.com 

  22. http://www.computerworld.com 

저자의 다른 논문 :

관련 콘텐츠

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로