사물 인터넷(Internet of Things, IoT)은 각종 사물을 인터넷에 연결하여 센서와 통신 기능을 내장하고 이를 통해 서비스를 제공받는 기술이다. 이러한 사물 인터넷 기술을 활용한 서비스 중 하나인 스마트홈은 자동화를 지원하는 개인 주택을 말한다. 스마트홈 환경에서 사용자는 여러 가지 기기를 통해 다양한 컨텐츠와 서비스를 제공받을 수 있는데 수많은 데이터가 발생하는 사물 인터넷의 특성 상 ...
사물 인터넷(Internet of Things, IoT)은 각종 사물을 인터넷에 연결하여 센서와 통신 기능을 내장하고 이를 통해 서비스를 제공받는 기술이다. 이러한 사물 인터넷 기술을 활용한 서비스 중 하나인 스마트홈은 자동화를 지원하는 개인 주택을 말한다. 스마트홈 환경에서 사용자는 여러 가지 기기를 통해 다양한 컨텐츠와 서비스를 제공받을 수 있는데 수많은 데이터가 발생하는 사물 인터넷의 특성 상 클라우드 컴퓨팅과 같은 중앙 집중형 시스템은 병목 현상과 같은 문제점을 야기할 수 있다. 따라서 스마트홈 환경에서는 사용자에게 제공되는 서비스의 지연시간을 줄이고 불필요한 데이터의 요청과 응답을 줄여 에너지 효율성을 높이고 트래픽 로드를 감소시키는 것이 중요하다. 본 논문은 네트워크 처리량 향상, 트래픽 로드의 감소, 서비스 지연시간 감소와 에너지 효율성 향상과 같은 캐싱아키텍처에 대한 요구사항을 분석하여 스마트홈을 위한 엣지 컴퓨팅 기반 사용자 중심 캐싱 아키텍처를 제안한다. 제안하는 아키텍처는 엣지 계층에서 컨텐츠 프리패칭을 이용하여 사용자가 이용할 가능성이 있는 컨텐츠를 미리 데이터베이스에 저장할 수 있다. 또한 제안하는 아키텍처는 기존 스마트홈 기술보다 서비스 지연시간을 줄이고 트래픽 로드를 감소시킬 수 있어 빠른 컨텐츠 제공이 가능하다. 이 아키텍처의 구성에서 캐시 데이터베이스의 배치를 위해 LFRU 알고리즘을 이용하여 가장 자주 이용하지 않는 컨텐츠를 교체한다. 또한, 캐시 데이터베이스의 저장 여부를 결정하기 위해 FP-TREE를 이용한 FP-GROWTH 알고리즘을 이용한다. 제안하는 아키텍처를 통해 캐시 데이터베이스에 사용자가 자주 찾는 빈도수 높은 컨텐츠를 저장하고 빈도수가 더 높은 컨텐츠로 계속해서 저장이 이루어짐으로써 사용자와 가장 근접한 영역에서 가장 자주 찾는 컨텐츠의 쉬운 사용이 가능하다. 이는 네트워크 트래픽을 줄임으로써 트래픽 로드를 줄이고 불필요한 통신을 하지 않기 때문에 에너지 효율성이 증가할 수 있고, 네트워크 처리량을 개선시킬 수 있다 또한, 제안하는 아키텍처를 통해 구체적인 서비스 시나리오를 표출하여 해당 연구의 실용 가능성을 제시한다.
사물 인터넷(Internet of Things, IoT)은 각종 사물을 인터넷에 연결하여 센서와 통신 기능을 내장하고 이를 통해 서비스를 제공받는 기술이다. 이러한 사물 인터넷 기술을 활용한 서비스 중 하나인 스마트홈은 자동화를 지원하는 개인 주택을 말한다. 스마트홈 환경에서 사용자는 여러 가지 기기를 통해 다양한 컨텐츠와 서비스를 제공받을 수 있는데 수많은 데이터가 발생하는 사물 인터넷의 특성 상 클라우드 컴퓨팅과 같은 중앙 집중형 시스템은 병목 현상과 같은 문제점을 야기할 수 있다. 따라서 스마트홈 환경에서는 사용자에게 제공되는 서비스의 지연시간을 줄이고 불필요한 데이터의 요청과 응답을 줄여 에너지 효율성을 높이고 트래픽 로드를 감소시키는 것이 중요하다. 본 논문은 네트워크 처리량 향상, 트래픽 로드의 감소, 서비스 지연시간 감소와 에너지 효율성 향상과 같은 캐싱 아키텍처에 대한 요구사항을 분석하여 스마트홈을 위한 엣지 컴퓨팅 기반 사용자 중심 캐싱 아키텍처를 제안한다. 제안하는 아키텍처는 엣지 계층에서 컨텐츠 프리패칭을 이용하여 사용자가 이용할 가능성이 있는 컨텐츠를 미리 데이터베이스에 저장할 수 있다. 또한 제안하는 아키텍처는 기존 스마트홈 기술보다 서비스 지연시간을 줄이고 트래픽 로드를 감소시킬 수 있어 빠른 컨텐츠 제공이 가능하다. 이 아키텍처의 구성에서 캐시 데이터베이스의 배치를 위해 LFRU 알고리즘을 이용하여 가장 자주 이용하지 않는 컨텐츠를 교체한다. 또한, 캐시 데이터베이스의 저장 여부를 결정하기 위해 FP-TREE를 이용한 FP-GROWTH 알고리즘을 이용한다. 제안하는 아키텍처를 통해 캐시 데이터베이스에 사용자가 자주 찾는 빈도수 높은 컨텐츠를 저장하고 빈도수가 더 높은 컨텐츠로 계속해서 저장이 이루어짐으로써 사용자와 가장 근접한 영역에서 가장 자주 찾는 컨텐츠의 쉬운 사용이 가능하다. 이는 네트워크 트래픽을 줄임으로써 트래픽 로드를 줄이고 불필요한 통신을 하지 않기 때문에 에너지 효율성이 증가할 수 있고, 네트워크 처리량을 개선시킬 수 있다 또한, 제안하는 아키텍처를 통해 구체적인 서비스 시나리오를 표출하여 해당 연구의 실용 가능성을 제시한다.
Internet of Things (IoT) is a technology that connects sensors and communication functions to various objects. That means a technology for connecting various objects through wireless communication. Smart Home, one of the technologies of Internet of Things, refers to a private house that supports aut...
Internet of Things (IoT) is a technology that connects sensors and communication functions to various objects. That means a technology for connecting various objects through wireless communication. Smart Home, one of the technologies of Internet of Things, refers to a private house that supports automation. In a smart home environment, a user can receive various contents and services through various devices. A centralized system such as cloud computing may cause problems such as a bottleneck due to the characteristics of the Internet of Things. Therefore, in a smart home environment, it is important to reduce the latency of services provided to users and reduce unnecessary data requests and responses to improve energy efficiency and reduce traffic load. This paper proposes a user - centric caching architecture based on edge computing for smart home by analyzing requirements for caching architecture such as improving network throughput, reducing traffic load, reducing service latency and improving energy efficiency. The proposed architecture can prefetch content in the edge layer and store it in the database in advance. In addition, the proposed architecture can reduce service latency and traffic load more than existing smart home technology, thus enabling rapid contents provisioning. In this architecture's configuration, the LFRU algorithm is used to replace the least frequently used content for placement of the cache database. In addition, FP-GROWTH algorithm using FP-TREE is used to determine whether to store the cache database. The proposed architecture allows users to easily find the most frequently accessed content in the area closest to the user by storing frequent content frequently found in the cache database and continuously storing the content with higher frequency. This reduces network traffic, reduces traffic load, and improves energy efficiency and improves network throughput by eliminating unnecessary communications. In addition, through the proposed architecture, we show specific service scenarios and present the feasibility of the research.
Internet of Things (IoT) is a technology that connects sensors and communication functions to various objects. That means a technology for connecting various objects through wireless communication. Smart Home, one of the technologies of Internet of Things, refers to a private house that supports automation. In a smart home environment, a user can receive various contents and services through various devices. A centralized system such as cloud computing may cause problems such as a bottleneck due to the characteristics of the Internet of Things. Therefore, in a smart home environment, it is important to reduce the latency of services provided to users and reduce unnecessary data requests and responses to improve energy efficiency and reduce traffic load. This paper proposes a user - centric caching architecture based on edge computing for smart home by analyzing requirements for caching architecture such as improving network throughput, reducing traffic load, reducing service latency and improving energy efficiency. The proposed architecture can prefetch content in the edge layer and store it in the database in advance. In addition, the proposed architecture can reduce service latency and traffic load more than existing smart home technology, thus enabling rapid contents provisioning. In this architecture's configuration, the LFRU algorithm is used to replace the least frequently used content for placement of the cache database. In addition, FP-GROWTH algorithm using FP-TREE is used to determine whether to store the cache database. The proposed architecture allows users to easily find the most frequently accessed content in the area closest to the user by storing frequent content frequently found in the cache database and continuously storing the content with higher frequency. This reduces network traffic, reduces traffic load, and improves energy efficiency and improves network throughput by eliminating unnecessary communications. In addition, through the proposed architecture, we show specific service scenarios and present the feasibility of the research.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.