최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기방송공학회지 = Korea society broadcast engineers magazine, v.19 no.4, 2014년, pp.50 - 59
최성우 (KBS) , 한성희 (KBS) , 정병희 (KBS)
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
하둡의 주요 구성 요소는 무엇인가? | 하둡은 오픈소스 빅데이터 분산처리기술 프로젝트이며 실제 페이스북, 트위터, 이베이, 야후 등 많은 업체들이 채택하여 사용하고 있다. 하둡의 주요 구성 요소는 대용량 파일을 안전하게 저장하고 처리하기 위한 하둡 분산 파일 시스템(HDFS, Hadoop Distributed File System)과 하둡 기반의 데이터 베이스인 HBase, 그리고 많은 양의 데이터를 병렬로 처리하는 어플리케이션을 쉽게 작성할 수 있도록 해주는 Java 기반의 소프트웨어 프레임워크인 하둡 맵리듀스(Map Reduce)가 있다[5]. | |
콘텐츠 추천 알고리듬이 실제 시스템에서 운용을 하기는 굉장히 까다로운 이유는? | 콘텐츠 추천 알고리듬은 위와 같이 설계되었지만 실제 시스템에서 운용을 하기는 굉장히 까다롭다. 협업 필터링 기법의 특성상 콘텐츠 수와 유저의 수가 늘어날수록 연산량이 급격하게 늘어나는데 일반적인 데이터 처리 솔루션으로는 이것을 감당할 수 없기 때문이다. 따라서 최근 중요성이 커지고 있는 빅데이터 처리 기법이 도입되어야 본 시스템을 상용화 수준으로 구동할 수 있다. | |
하둡의 주요 구성 요소는 각각 어떤 일을 수행하는가? | HDFS에서 모든 파일은 블록 단위로 저장되며 하나의 파일은 여러 개의 블록으로 나뉘어진다. 또한 각 블록은 안정성을 위해 장애를 대비하여 여러 개의 복제본을 가지고 있다. 파일과 블록의 매핑이나 네임스페이스 등의 정보는 모두 네임 노드(Name-node)에서 관리된다. 데이터의 병렬처리뿐만 아니라 안정성도 높아야 하기 때문에 장비의 고장이 일반적인 상황으로 여겨져서 고가의 장비 대신 여러 대의 저가 장비로 시스템이 이루어진다. HBase는 데이터의 물리적 저장소로 HDFS를 사용하여 데이터베이스(DB)의 역할을 수행한다. Map Reduce는 본래 구글에서 개발한 병렬 데이터 처리 기법으로 연결된 여러 노드 PC들로 대용량 데이터를 병렬 처리 할 수 있는 방법을 제공하는데 이것을 Java 오픈소스로 구현한 것이 Hadoop Map Reduce이다[7]. |
오수영, 오연희, 한성희, 김희정, "사용자 소비이력기반 방송 콘텐츠 추천 시스템", 방송공학회 논문지, 제 17권 1호, 2012.1
한성희, 오연희, 김희정, "VOD 서비스 플랫폼에서 협력 필터링을 이용한 TV 프로그램 개인화 추천", 방송공학회 논문지, 제18권 제1호, 2013.1
Davidson, James, et al. "The YouTube video recommendation system." Proceedings of the fourth ACM conference on Recommender systems. ACM, 2010.
Zhao, Xiaojian, et al. "Personalized video recommendation based on viewing history with the study on YouTube." Proceedings of the 4th International Conference on Internet Multimedia Computing and Service. ACM, 2012.
조성우. "Big Data 시대의 기술." KT 종합기술원,?(2011): 5-7.
http://aws.amazon.com/
http://hadoop.apache.org/
※ AI-Helper는 부적절한 답변을 할 수 있습니다.