$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

협업 필터링 기반의 콘텐츠 추천 시스템과 빅데이터 처리 솔루션을 이용한 상용화 개발 방향
Content recommendation system based on the collaborative filtering and big-data solutions for its commercialization 원문보기

방송공학회지 = Korea society broadcast engineers magazine, v.19 no.4, 2014년, pp.50 - 59  

최성우 (KBS) ,  한성희 (KBS) ,  정병희 (KBS)

초록
AI-Helper 아이콘AI-Helper

사용자들이 미디어를 접하는 디바이스 환경이 다양화되고 그 속에서 접할 수 있는 콘텐츠의 양은 많아졌다. 특히 급속도로 발전한 모바일 환경에서 사용자들은 개인화된 기기를 사용하여 콘텐츠를 소비하고 주변 사용자들과 경험을 공유한다. 콘텐츠 제공 서비스에서는 이러한 개인의 콘텐츠 소비 이력 및 SNS 관계에서 발생한 데이터를 분석하여 활용함으로써 콘텐츠 소비를 활성화하고자 한다. KBS에서도 이러한 동향에 맞추어 방송콘텐츠 추천검색 연구와 실시간 TV캡처 및 소셜 공유 연구를 진행하였으며, 그 과정에서 많은 양의 데이터를 효율적으로 처리하기 위한 방법의 필요성을 절감하게 되었다. 데이터 분석이 필요한 두 과제에서 진행한 내용을 기술하고 대용량 데이터 처리기법을 활용하여 상용화 서비스를 구축할 계획을 소개한다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 고에서는 방대한 콘텐츠를 사용자의 취향에 맞게 추천하기 위한 콘텐츠 추천 시스템을 소개하였다. 사용자들이 이용 가능한 콘텐츠의 수는 현저하게 증가하고 있고 이를 이용하는 사용자의 시간은 한정되어 있으므로 사용자에게 필요한 맞춤형 콘텐츠를 추천하는 알고리듬은 어떤 콘텐츠 서비스에서나 필수적이게 되었다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
하둡의 주요 구성 요소는 무엇인가? 하둡은 오픈소스 빅데이터 분산처리기술 프로젝트이며 실제 페이스북, 트위터, 이베이, 야후 등 많은 업체들이 채택하여 사용하고 있다. 하둡의 주요 구성 요소는 대용량 파일을 안전하게 저장하고 처리하기 위한 하둡 분산 파일 시스템(HDFS, Hadoop Distributed File System)과 하둡 기반의 데이터 베이스인 HBase, 그리고 많은 양의 데이터를 병렬로 처리하는 어플리케이션을 쉽게 작성할 수 있도록 해주는 Java 기반의 소프트웨어 프레임워크인 하둡 맵리듀스(Map Reduce)가 있다[5].
콘텐츠 추천 알고리듬이 실제 시스템에서 운용을 하기는 굉장히 까다로운 이유는? 콘텐츠 추천 알고리듬은 위와 같이 설계되었지만 실제 시스템에서 운용을 하기는 굉장히 까다롭다. 협업 필터링 기법의 특성상 콘텐츠 수와 유저의 수가 늘어날수록 연산량이 급격하게 늘어나는데 일반적인 데이터 처리 솔루션으로는 이것을 감당할 수 없기 때문이다. 따라서 최근 중요성이 커지고 있는 빅데이터 처리 기법이 도입되어야 본 시스템을 상용화 수준으로 구동할 수 있다.
하둡의 주요 구성 요소는 각각 어떤 일을 수행하는가? HDFS에서 모든 파일은 블록 단위로 저장되며 하나의 파일은 여러 개의 블록으로 나뉘어진다. 또한 각 블록은 안정성을 위해 장애를 대비하여 여러 개의 복제본을 가지고 있다. 파일과 블록의 매핑이나 네임스페이스 등의 정보는 모두 네임 노드(Name-node)에서 관리된다. 데이터의 병렬처리뿐만 아니라 안정성도 높아야 하기 때문에 장비의 고장이 일반적인 상황으로 여겨져서 고가의 장비 대신 여러 대의 저가 장비로 시스템이 이루어진다. HBase는 데이터의 물리적 저장소로 HDFS를 사용하여 데이터베이스(DB)의 역할을 수행한다. Map Reduce는 본래 구글에서 개발한 병렬 데이터 처리 기법으로 연결된 여러 노드 PC들로 대용량 데이터를 병렬 처리 할 수 있는 방법을 제공하는데 이것을 Java 오픈소스로 구현한 것이 Hadoop Map Reduce이다[7].
질의응답 정보가 도움이 되었나요?

참고문헌 (7)

  1. 오수영, 오연희, 한성희, 김희정, "사용자 소비이력기반 방송 콘텐츠 추천 시스템", 방송공학회 논문지, 제 17권 1호, 2012.1 

  2. 한성희, 오연희, 김희정, "VOD 서비스 플랫폼에서 협력 필터링을 이용한 TV 프로그램 개인화 추천", 방송공학회 논문지, 제18권 제1호, 2013.1 

  3. Davidson, James, et al. "The YouTube video recommendation system." Proceedings of the fourth ACM conference on Recommender systems. ACM, 2010. 

  4. Zhao, Xiaojian, et al. "Personalized video recommendation based on viewing history with the study on YouTube." Proceedings of the 4th International Conference on Internet Multimedia Computing and Service. ACM, 2012. 

  5. 조성우. "Big Data 시대의 기술." KT 종합기술원,?(2011): 5-7. 

  6. http://aws.amazon.com/ 

  7. http://hadoop.apache.org/ 

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로