$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 왕복시간(Round Trip Time)을 고려한 고성능 웹크롤러 설계
Design of a High-Performance Web Crawler Considering the Round Trip Time 원문보기

한국정보처리학회 2004년도 춘계학술발표대회, 2004 May 14, 2004년, pp.601 - 604  

정춘호 (부산대학교 전자계산학과) ,  조현태 (부산대학교 컴퓨터공학과) ,  백윤주 (부산대학교 컴퓨터공학과)

초록
AI-Helper 아이콘AI-Helper

인터넷과 정보기술의 급속적인 발전으로 수천 또는 수억에 달하는 방대하고 다양한 정보들이 웹 상에서 존재하게 되었다. 이러한 다양한 정보들 중에서 이용자가 원하는 정보를 제공하기 위해 다양한 검색시스템들이 개발되었다. 웹 크롤러는 검색시스템의 중요한 부분 중의 하나로, 웹 서버를 순회하며 각 페이지에 있는 수많은 정보를 수집하는 프로그램이다. 본 논문에서는 웹 크롤러의 기본요건 중의 하나인 빠른 수집속도를 보장하기 위해 RTT(Round Trip Time) Scheduling 기법을 적용한 URL 스케줄러를 제시하고, 이러한 RTT Scheduling 기법을 이용한 웹 크롤러를 설계한다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 먼저 각각의 URL 에 우선순위를 부여하여 신뢰성 있는 정보 수집을 할 수 있고, 문서 수집 시 각각의 호스트에 대한 RTT 를 반영함으로써 문서 수집 속도의 향상을 이룰 수 있다. 그리고 다른 시스템과 달리 관리자의 개입을 많이 필요로 하는 크롤러에 명령어상태와 웹에서 작동할 수 있는 인터페이스를 제공하여, 크롤러의 관리에 있어서의 많은 편리성을 제공하도록 한다
  • 크롤러는 제안된 스케줄링 정책에 의해 각 URL 에 우선 순위를 부여하여 보다 신뢰성 있는 정보를 수집 가능하게 하고, 여러 개의 큐를 두어 특정 호스트로의 부하 집중을 1 차 분산시키고, 각 호스트로의 접근 시간 기록을 유지 반영함으로써 크롤러로 인한 호스트의 네트워크 부하를 2 차 분산 시키는 효과를 기대할 수 있다. 또한 웹 호스트로의 왕복시간을 스케줄링에 반영하여 좀더 신속하게 정보수집을 가능하도록 하였다. 웹을 통한 인터페이스를 제공함으로써 쉽게 크롤러를 제어할 수 있도록 한다.
  • 그리고 로봇 배제 표준과 로봇 설계시에 지켜야 할 원칙을 따름으로써 크롤러를 작동시키는데 사회적, 기술적으로 문제가 발생될 수 있는 소지를 제거한다. 또한 효율적인 스케줄링 정책을 채택한다. 먼저 각각의 URL 에 우선순위를 부여하여 신뢰성 있는 정보 수집을 할 수 있고, 문서 수집 시 각각의 호스트에 대한 RTT 를 반영함으로써 문서 수집 속도의 향상을 이룰 수 있다.
  • RTT 는 송신단이 데이터를 전송하여 해당 전송에 대한 응답을 받을 때까지의 소요된 시간을 나타낸다. 본 논문에서는 RTT 를 고려한 URL 스케줄링을 제안한다. 인터넷 상의 수많은 웹 호스트들로의 RTT 가 상이 하기 때문에 이를 고려하여 RTT 가 짧은 호스트의 URL 에 가중치를 주어 URL 스케줄링을 한다.
  • 본 논문에서는 웹 크롤러의 문서 수집 속도를 향상시키기 위해 크롤러가 웹 서버에 접근할 때의 timestamp 와 웹 서버로부터의 응답이 도착할 때의 timestamp 를 이용하여 각 웹 서버의 round trip time 를 고려한 URL Scheduling 기법을 제시하고, 이 기법을 이용한 웹 크롤러를 설계한다.
  • 웹에 산재해 있는 다양한 정보들을 효율적으로 수집하기 위해 웹 크롤러를 이용한 많은 검색 시스템들이 제시되고 있다. 본 논문에서는 제한된 시스템 하에서 신속하게 신뢰성 있는 정보들을 수집하기 위한 스케줄링 정책을 제시하고, 이를 이용한 웹 크롤러를 설계하였다.
  • 이러한 politeness 문제를 해결하기 위해 본 논문은 속도를 고려한 우선순위 기반의 URL 스케줄러를 제안한다. 이것은 URL 들의 우선순위를 부여하는 prioritizer, FIFO 큐, host-to-queue 테이블, 각 FIFO 큐로의 핸들을 포함하는 힙 구조의 우선순위 큐, 그리고 ‘strong politeness guarantee’를 위한 부분으로 구성된다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
웹 검색 시스템이 웹 크롤러를 사용하는 이유는? 웹 검색 시스템은 자신이 보유한 다양한 정보들 중에 이용자의 질의에 적합한 문서들을 보여준다. 웹 검색 시스템이 정보를 보유하기 위해서 웹 크롤러를 사용한다. 웹 크롤러는 자동적으로 웹의 하이퍼텍스트 구조를 따라다니며 문서를 수집하고, 재귀적으로 그 문서에 참조되는 다른 문서를 수집하는 식으로 동작되는 프로그램이다[1].
웹 크롤러는 어떤 파일을 확인하여 로봇 배제 규약을 분석한 후에 URL 에 해당하는 HTML 문서를 다운로드하는가? 웹 크롤러의 기본 동작 알고리즘을 살펴보면 먼저 최초 수집하고자 하는 seed URL 을 이용하여 해당 웹 서버에 접근한다. 웹 서버의 robots.txt 파일을 확인하여 로봇 배제 규약을 분석한 후에 URL 에 해당하는 HTML 문서를 다운로드 한다. 수집된 문서의 중복 체크 후, 문서내의 URL 을 추출해서 URL DB 에 저장하고, 다운 받은 문서는 문서 DB 에 저장하는 과정을 반복 수행한다.
웹 크롤러는 정보검색 이 외에 어떤 목적으로도 사용 가능한가? 웹 크롤러는 자동적으로 웹의 하이퍼텍스트 구조를 따라다니며 문서를 수집하고, 재귀적으로 그 문서에 참조되는 다른 문서를 수집하는 식으로 동작되는 프로그램이다[1]. 웹 크롤러는 정보검색 이외에도 전 세계의 웹 서버가 몇 개인지 등을 조사하기 위한 통계 분석 목적, 웹 서버 운영시 데드링크 확인, 수정 등을 통한 유지 보수 목적, 어떤 홈페이지내의 문서를 전부 가져오는 미러링 목적이나, 그 외 여러 가지 복합적인 목적으로도 사용이 가능하다. 
질의응답 정보가 도움이 되었나요?
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로