$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

빅데이터 분석 기반의 정보 검색을 위한 웹 크롤러 서비스 구현
Web Crawler Service Implementation for Information Retrieval based on Big Data Analysis 원문보기

디지털콘텐츠학회 논문지 = Journal of Digital Contents Society, v.18 no.5, 2017년, pp.933 - 942  

김희숙 (전남대학교 공과대학 전자컴퓨터공학부) ,  한나 (전남대학교 공과대학 전자컴퓨터공학부) ,  임숙자 (한국폴리텍대학 광주캠퍼스 광고디자인학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 대학생 및 취업준비생의 대외활동, 공모전, 장학금에 대한 효율적인 정보 수집을 위한 웹 크롤러 서비스 방식을 제안한다. 제안된 웹 크롤러 서비스는 빠른 속도로 크롤링하면서 중복해서 크롤링되는 문제를 회피하기 위하여 Jsoup 트리 분석과 Json 형식의 데이터 전송 방식을 이용하였다. 24시간 동안 관련 정보를 수집한 결과 100%의 정확도로 웹 크롤러 서비스가 실행되고 있음을 확인할 수 있었다. 향후 제안된 웹 크롤러 서비스를 적용할 수 있는 웹 페이지 범위를 확대하여 다양한 웹 사이트에 동시에 적용할 수 있도록 개선하면 웹 크롤러 서비스의 양적 내용을 보충할 수 있을 것으로 기대한다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, we propose a web crawler service method for collecting information efficiently about college students and job-seeker's external activities, competition, and scholarship. The proposed web crawler service uses Jsoup tree analysis and Json format data transmission method to avoid problem...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • Jung의 연구에서는 서버-클라이언트 환경으로 크롤링하는 분산 웹 크롤러 모델을 제시하였다[15]. RMI(Remote Method Invocation)와 NIO(New Input/Output) 기반의 분산 웹 크롤러를 제안하여 중복 수집에 대한 문제를 해결하고자 하였다. 그러나 수집 속도에 한계가 있고 동적 웹 페이지에 대한 접근이 미흡한 실정이다.
  • 본 논문에서는 대학생 및 취업준비생에게 필요한 대외활동, 공모전, 장학금에 관한 빅데이터를 기반으로 Jsoup 트리분석과 Json 전송 방식을 이용하여 중복해서 크롤링되는 문제를 해결하면서 정보 검색에 소요되는 시간과 노력을 최소화할 수 있는 분산형 웹 크롤러 서비스를 구현하는 방식을 소개한다.
  • 본 논문에서는 대학생 및 취업준비생을 위해 대외활동, 공모전, 장학금 이렇게 3가지 분야에 관한 웹 크롤러 서비스에서 제공되는 웹 페이지를 PHP 처리 기능이 있는 웹 서버에서 해당 html 코드를 인식하도록 하여 생성하는 방식으로 구현된다. 제안된 웹 크롤러 서비스는 다음과 같이 크게 5가지 기능으로 구분된다.
  • 본 논문에서는 대학생 및 취업준비생의 대외활동, 공모전, 장학금에 대한 효율적인 정보 수집을 위한 웹 크롤러 서비스 방식을 제안하였다. 제안한 대학생 및 취업준비생들을 위한 웹 크롤러 서비스는 빠른 속도로 크롤링하면서 중복해서 크롤링되는 문제를 회피하기 위하여 Jsoup 트리 분석과 Json을 이용한 전송 방식을 이용하였다.
  • 본 논문에서는 웹 크롤러 구현 시 크롤링 시간을 최소화하면서 중복해서 크롤링되는 문제를 회피하기 위하여 자바 (Java)에서 제공하는 Jsoup 트리 분석과 Json(JavaScript Object Notation)을 이용한 분산형 웹 크롤러를 구현하고자한다. 제안된 웹 크롤러는 대외활동, 공모전, 장학금 등의 정보를 놓치지 않기 위해서 웹사이트에서 원하는 조건에 맞는 검색을 수시로 시도하고 있는 대학생 및 취업준비생에게 정보 검색에 소요되는 시간과 노력을 최소화할 수 있는 웹 크롤러 서비스를 제공하는데 목적이 있다.
  • 본 논문에서는 한 곳의 특정 사이트에 대하여 일정기간 동안 웹 페이지를 크롤링하는 방식으로 웹 크롤러 서비스를 설계하고 구현하였다. 향후 제안된 웹 크롤러 서비스를 적용할 수 있는 웹 페이지 범위를 확대하여 다양한 웹 사이트에 동시에 적용하여 양적 정보를 보충할 수 있는 연구가 필요하다.
  • 본 논문에서는 웹 크롤러 구현 시 크롤링 시간을 최소화하면서 중복해서 크롤링되는 문제를 회피하기 위하여 자바 (Java)에서 제공하는 Jsoup 트리 분석과 Json(JavaScript Object Notation)을 이용한 분산형 웹 크롤러를 구현하고자한다. 제안된 웹 크롤러는 대외활동, 공모전, 장학금 등의 정보를 놓치지 않기 위해서 웹사이트에서 원하는 조건에 맞는 검색을 수시로 시도하고 있는 대학생 및 취업준비생에게 정보 검색에 소요되는 시간과 노력을 최소화할 수 있는 웹 크롤러 서비스를 제공하는데 목적이 있다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
빅데이터의 크기는 무엇을 의미하는가? 빅데이터(Big Data)는 정치, 경제, 사회, 문화, 과학 기술 등 전 영역에 걸쳐서 사회와 인류에게 가치 있는 정보를 제공할 수 있으며 그 중요성이 부각되고 있다. 빅데이터의 크기는 통상적으로 사용되는 데이터 수집, 관리 및 처리 소프트웨어의 수용 한계를 넘어서는 규모를 의미한다[1]. 인터넷에 기반을 두고 있는 웹(Web)은 다양한 종류의 거대한 데이터들이 구성된 개방형 집합체이며 접근은 용이하지만 제공되는 데이터는 비계층적이고 이질적인 형태로 복잡하게 구성되어 있다.
빅데이터의 3V가 의미하는 것은 무엇인가? 빅데이터는 3V(Volume, Velocity, Variety)의 구성 요소를 갖는다. 크기(Volume)는 페타/엑사/제타 수준의 데이터 집합의 양을 의미하고, 속도(Velocity)는 데이터의 생산, 처리, 수집, 분석 등의 일련의 과정들의 속도가 실시간으로 이루어짐을 의미하며 다양성(Variety)은 전통적인 정형데이터와 사진,동영상, 센싱 데이터 등 구조화 되지 않은 비정형데이터를 포괄한다[2].
웹 크롤러란 무엇인가? 웹 크롤러는 인터넷 상에 존재하는 방대한 양의 빅데이터 문서들을 추적하여 필요한 정보를 수집하는 것을 의미한다[11]. 그림 1은 웹 크롤링시 큐를 이용한 스케줄 및 멀티쓰레드 방식으로 일반형 웹 크롤러 방법에 대해 보여준다.
질의응답 정보가 도움이 되었나요?

참고문헌 (17)

  1. Chris Snijders, Uwe Matzat and Ulf-Dietrich Reips, "'Big Data': Big Gaps of Knowledge," International Journal of Internet Science, Vol. 7, No. 1, pp. 1-5, 2012. 

  2. S. Y. Bang, H. D. Ha and C. J. Kim, "A Study on BigData-based Software Architecture Design for Utilizing Public Open Data," Journal of Korean Institute of Information Technology, Vol. 13, No. 10, pp. 99-107, Oct. 2015. 

  3. S. G. Lee, S. Y. Lee and J. C. Kim, "Design of a Platform for Collecting and Analyzing Agricultural Big Data," Journal of Digital Contents Society, Vol. 18, No. 1, pp. 149-158, Feb. 2017. 

  4. W. S. Cho and J. E. Lee and C. H. Choi, "Refresh Cycle Optimization for Web Crawlers," The Journal of the Korea Contents Association, Vol. 13, No. 6, pp. 30-39, 2013. 

  5. K. S. Park, J. H. Choi, J. B. Kim and J. W. Park, "Design and Implementation of a Search Engine based on Apache Spark," Journal of the Korea Institute of Information and Communication Engineering, Vol. 21, No. 1, pp. 17-28, January 2017. 

  6. D. M. Seo and H. M. Juung, "Intelligent Web Crawler for Supporting Big Data Analysis Services," The Journal of the Korea Contents Association, Vol. 13, No. 12, pp. 575-584, 2013. 

  7. J. Y. Kim, D. H. Han and J. M. Kim, "Impact of Diverse Document-evaluation Measure-based Searching Methods in Big Data Search Accuracy," The Journal of the Korea Information Science Society, Vol. 44, No. 5, pp. 553-558, May 2017. 

  8. Leskovec, Jure, Anand Rajaraman, and Jeffrey David Ullman, Mining of massive datasets, Cambridge University Press, 2014. 

  9. Russell, Stuart Jonathan, et al., Artificial intelligence: a modern approach, Vol. 2, Upper Saddle River: Prentice hall, 2003. 

  10. Hyafil, Laurent and Ronald L. Rivest, "Constructing optimal binary decision trees is NP-complete," Information Processing Letters 5.1, pp. 15-17, 1976. 

  11. S. J. Kim, "A Comparative Study on Models of Web-based Information Seeking Behavior," Journal of the Korean Society for Infromation Management, Vol. 21, No. 2, pp. 211-233, June 2004. 

  12. M. L. Vidal, A. S. da Silva, E. S. de Moura, and J. M. B. Cavalcanti, "GoGetIt!: a tool for generating structure-driven web crawlers," In Proc. 15th international conference on World Wide Web, pp.1011-1012, 2006. 

  13. Pycon. Web Scraper in 30 Minutes [Online]. Available: https://www.pycon.kr/2014/program/15. 

  14. H. C. Kim and S. H. Chae. "Design and Implementation of a High Performance Web Crawler," Journal of Digital Contents Society, Vol. 4, No. 2, pp.127-137, December. 2003. 

  15. D. M. Seo and H. M. Jung. "Intelligent Web Crawler for Supporting Big Data Analysis Services," The Journal of the Korea Contents Association, Vol. 13, No. 12, pp.575-584, December. 2013. 

  16. D. Cai, S. Yu, J. R. Wen and W. Y. Ma, "VIPS: a Vision-based Page Segmentation Algorithm," Microsoft Technical Report, 2003. 

  17. C. Kohlschutter, P. Fankhauser, and W. Nejdl, "Boilerplate Detection using Shallow Text Features," In Proc. of ACM International Conference on Web Search and Data Mining, pp.441-450, 2010. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로