[학위논문]Deep reinforcement learning based energy management system of smart home with rooftop PV system, energy storage system, electric vehicle and home appliances원문보기
본 논문에서는 계층적 심층강화학습심층강화학습(DRL) 기법을 가 정용 에너지 관리 시스템시스템(HEMS)에 적용하여 에너지저장장치에너지저장장치(ESS)와 전기자동차전기자동차(EV)를 포함한 분산에너지자원분산에너지자원(DER)이 포함된 스마트가정의 가정용 에너지 관리 시스템을 제안한다제안한다. 기존의 Q-leaning과 같은 이산적인강화학습과 다르게 이 논문에서 제안하는 ...
본 논문에서는 계층적 심층강화학습심층강화학습(DRL) 기법을 가 정용 에너지 관리 시스템시스템(HEMS)에 적용하여 에너지저장장치에너지저장장치(ESS)와 전기자동차전기자동차(EV)를 포함한 분산에너지자원분산에너지자원(DER)이 포함된 스마트가정의 가정용 에너지 관리 시스템을 제안한다제안한다. 기존의 Q-leaning과 같은 이산적인강화학습과 다르게 이 논문에서 제안하는 알고리즘은 Actor-Critic기법 기반의 연속적인 환경에서의 에너지 사용을 관리하는 시스템이다. 스마트홈에서 사용되는 가전기기들과 분산에너지자원들의 충전 및 방전의 최적화된 작동을 스케쥴링 하기 위해서 2개의 단계로 이루어진 심층강화학습 구조가 제안되었다제안되었다. 본 논문에선 세탁기세탁기, 에어컨, 태양광발전시스템태양광발전시스템, 에너지저장장치 그리고 전기자동차가 포함된 단일 스마트가정이 time-of-use 전기요금제를 사용한다는 가정하에 시뮬레이션이 이루어졌다이루어졌다. 논문에서 언급되는 다양한 시뮬레이션 상황들은 다양한 상황의 날씨날씨, 요일 그리고 전기자동차의 초기 잔여에너지량여에너지량(SOE)에 따라 나뉘어져 진행되었다진행되었다.
본 논문에서는 계층적 심층강화학습심층강화학습(DRL) 기법을 가 정용 에너지 관리 시스템시스템(HEMS)에 적용하여 에너지저장장치에너지저장장치(ESS)와 전기자동차전기자동차(EV)를 포함한 분산에너지자원분산에너지자원(DER)이 포함된 스마트가정의 가정용 에너지 관리 시스템을 제안한다제안한다. 기존의 Q-leaning과 같은 이산적인강화학습과 다르게 이 논문에서 제안하는 알고리즘은 Actor-Critic기법 기반의 연속적인 환경에서의 에너지 사용을 관리하는 시스템이다. 스마트홈에서 사용되는 가전기기들과 분산에너지자원들의 충전 및 방전의 최적화된 작동을 스케쥴링 하기 위해서 2개의 단계로 이루어진 심층강화학습 구조가 제안되었다제안되었다. 본 논문에선 세탁기세탁기, 에어컨, 태양광발전시스템태양광발전시스템, 에너지저장장치 그리고 전기자동차가 포함된 단일 스마트가정이 time-of-use 전기요금제를 사용한다는 가정하에 시뮬레이션이 이루어졌다이루어졌다. 논문에서 언급되는 다양한 시뮬레이션 상황들은 다양한 상황의 날씨날씨, 요일 그리고 전기자동차의 초기 잔여에너지량여에너지량(SOE)에 따라 나뉘어져 진행되었다진행되었다.
This study suggests a hierarchical deep reinforcement learning (DRL) approach for the managing the scheduling of appliances of smart households and distributed energy resources (DERs) including an electric vehicle (EV) and an energy storage system (ESS). Compared to traditional model-based optimizat...
This study suggests a hierarchical deep reinforcement learning (DRL) approach for the managing the scheduling of appliances of smart households and distributed energy resources (DERs) including an electric vehicle (EV) and an energy storage system (ESS). Compared to traditional model-based optimization methods and conventional discrete action managing reinforcement learning methods(i.e. Q-Learning, Deep-Q-Network), the novelty of the suggested study is that the total cost of electricity usage is reduced compared to model based optimization approach and energy consumptions of appliances of household and energy charging/discharging of DERs are scheduled in a continuous action controlling DRL structure using an actor-critic method. To ensure this end, a hierarchical two-level DRL structure is suggested where scheduling of consumptions of home appliance and charging/discharging scheduling are operated in separately. Energy consumptions of home appliances are scheduled in first level and charging/discharging schedules of ESS and EV are scheduled in second level using the optimized scheduling solution from the first level in accordance with the preferences and environmental factors consumer faced. A simulation research is performed in a single household with a washing machine, an air conditioner, an ESS, an EV and a rooftop solar PV system under time-of-use pricing method. Numerical results under different kinds of weather conditions, type of day in a week, and consumer’s driving patterns when using EV are researched the effect of the suggested approach according to total cost of electricity usage, consumer’s private environments and preference, and state of energy of the EV and ESS.
This study suggests a hierarchical deep reinforcement learning (DRL) approach for the managing the scheduling of appliances of smart households and distributed energy resources (DERs) including an electric vehicle (EV) and an energy storage system (ESS). Compared to traditional model-based optimization methods and conventional discrete action managing reinforcement learning methods(i.e. Q-Learning, Deep-Q-Network), the novelty of the suggested study is that the total cost of electricity usage is reduced compared to model based optimization approach and energy consumptions of appliances of household and energy charging/discharging of DERs are scheduled in a continuous action controlling DRL structure using an actor-critic method. To ensure this end, a hierarchical two-level DRL structure is suggested where scheduling of consumptions of home appliance and charging/discharging scheduling are operated in separately. Energy consumptions of home appliances are scheduled in first level and charging/discharging schedules of ESS and EV are scheduled in second level using the optimized scheduling solution from the first level in accordance with the preferences and environmental factors consumer faced. A simulation research is performed in a single household with a washing machine, an air conditioner, an ESS, an EV and a rooftop solar PV system under time-of-use pricing method. Numerical results under different kinds of weather conditions, type of day in a week, and consumer’s driving patterns when using EV are researched the effect of the suggested approach according to total cost of electricity usage, consumer’s private environments and preference, and state of energy of the EV and ESS.
Keyword
#Home Energy Management System (HEMS) artificial neural network (ANN) deep reinforcement learning (DRL) smart home appliance energy storage system (ESS) electric vehicle (EV) 가정용에너지관리시스템 (HEMS) 분산에너지자원(DER) 강화학습(RL) 심층강화학습(DRL) 에너지저장장치 (ESS) 전기자동차 (EV)
학위논문 정보
저자
이상윤
학위수여기관
중앙대학교 대학원
학위구분
국내석사
학과
전자전기공학과 전기에너지 전공
지도교수
최대현
발행연도
2020
총페이지
vi, 60장
키워드
Home Energy Management System (HEMS) artificial neural network (ANN) deep reinforcement learning (DRL) smart home appliance energy storage system (ESS) electric vehicle (EV) 가정용에너지관리시스템 (HEMS) 분산에너지자원(DER) 강화학습(RL) 심층강화학습(DRL) 에너지저장장치 (ESS) 전기자동차 (EV)
※ AI-Helper는 부적절한 답변을 할 수 있습니다.