데이터 센터의 에너지 효율성, 성능척도 안정성, 그리고 고품질 서비스를 위한 컴퓨팅 자원 관리 Resource management in data centers for energy-efficiency, time-stable performance, and quality-of-service원문보기
조용규
(Pohang University of Science and Technology
Department of Industrial and Management Engineering
국내박사)
본 학위 논문에서는 데이터 센터의 에너지 효율성, 성능 척도 안정성, 그리고 서비스 품질 달성을 위한 컴퓨팅 자원 관리 문제를 확정적 및 확률적인 수리 모형들로 나타내고, 각각의 주제에 대해 유용한 결론을 도출한다.
첫 번째 연구 주제에서는 혼합 정수 계획법 모형을 활용하여 데이터 센터에서 쓰이는 세 가지 운영 방식들(서버 ...
본 학위 논문에서는 데이터 센터의 에너지 효율성, 성능 척도 안정성, 그리고 서비스 품질 달성을 위한 컴퓨팅 자원 관리 문제를 확정적 및 확률적인 수리 모형들로 나타내고, 각각의 주제에 대해 유용한 결론을 도출한다.
첫 번째 연구 주제에서는 혼합 정수 계획법 모형을 활용하여 데이터 센터에서 쓰이는 세 가지 운영 방식들(서버 클러스터링, Power on/off, Bang-bang control)의 에너지 효율을 평가하였다. 가장 이상적인 운영을 가정한 하나의 모형을 사용하여 서로 다른 운영 방식들의 에너지 효율에 대해 결론을 내린 기존 연구와 달리, 본 연구에서는 각각의 운영 방식을 반영할 수 있는 제약식을 원래 모형에 추가한 후, 다양한 트래픽 패턴에 대해 실험을 수행하였다. 그 결과, 서버 클러스터링과 Power on/off 운영 방식은 가장 이상적인 운영 방식과 비교해서도 충분히 에너지 효율적일 수 있다는 결론을 도출하였다.
두 번째 연구 주제에서는 데이터 센터의 각 서버를 시간에 종속적인 도착률 함수와 연속적으로 조절이 가능한 서비스율 함수를 갖는 G(t)/G(t)/1/PS 대기 행렬로 모형화한 후, 해당 시스템의 안정 상태 가상 응답 시간을 원하는 값으로 정상(定常)화 할 수 있는 서비스율 함수(DM 및 SR)를 유도하였다. G(t)/G(t)/1/PS 대기 행렬은 마코프 성질이 없을 뿐 아니라, 비정상성 및 프로세서 공유 정책 등의 복잡한 특성 때문에 그 성능 척도에 대한 정확한 분석 결과가 알려진 바 없기 때문에 두 가지 근사 이론(pointwise stationary approximation, heavy-traffic approximation)을 결합한 분석 결과를 활용하였다. 다양한 도착 및 작업량 분포에 대해 시뮬레이션을 수행한 결과, 목표 응답시간이 짧을 때에는 SR이, 길 때에는 DM이 효과적이라는 결론을 내릴 수 있었다.
세 번째 연구 주제에서는 데이터 센터를 프로세서 공유 대기 행렬들의 네트워크로 모형화한 후, 각 서버에서의 응답 시간 제약 조건을 만족시키면서도 에너지 효율적으로 서비스를 제공하기 위한 실시간 운영 방식을 제안하였다. 불확실성이 많은 데이터 트래픽에 효과적으로 대응하기 위해서, 각 서버들이 처리 중인 일감들의 도착 시간 및 잔여 작업량의 정보를 실시간으로 활용할 수 있는 상황을 가정하였다. 그 실시간 정보와 서버 전력 소모 함수의 볼록성(convexity)에 기반하여, 일감들을 최대한 기한에 맞게 처리하는 서버 속도 조절 방식(earliness minimization)과 현재 전력 소모율이 가장 낮은 서버로 일감을 할당하는 작업량 분배 방식(join-the-minimum-power)을 결합한 데이터 센터 운영 방식을 제시하였다. 가상의 데이터 센터를 시뮬레이션하여 제시된 운영 방식의 성능을 평가한 결과, 응답 시간 제약 조건을 잘 만족시키는 것을 확인하였고, 적은 양의 정보를 활용한 기존 알고리즘에 비해 50% 가량의 에너지 효율 향상을 얻을 수 있었다.
본 학위 논문에서는 데이터 센터의 에너지 효율성, 성능 척도 안정성, 그리고 서비스 품질 달성을 위한 컴퓨팅 자원 관리 문제를 확정적 및 확률적인 수리 모형들로 나타내고, 각각의 주제에 대해 유용한 결론을 도출한다.
첫 번째 연구 주제에서는 혼합 정수 계획법 모형을 활용하여 데이터 센터에서 쓰이는 세 가지 운영 방식들(서버 클러스터링, Power on/off, Bang-bang control)의 에너지 효율을 평가하였다. 가장 이상적인 운영을 가정한 하나의 모형을 사용하여 서로 다른 운영 방식들의 에너지 효율에 대해 결론을 내린 기존 연구와 달리, 본 연구에서는 각각의 운영 방식을 반영할 수 있는 제약식을 원래 모형에 추가한 후, 다양한 트래픽 패턴에 대해 실험을 수행하였다. 그 결과, 서버 클러스터링과 Power on/off 운영 방식은 가장 이상적인 운영 방식과 비교해서도 충분히 에너지 효율적일 수 있다는 결론을 도출하였다.
두 번째 연구 주제에서는 데이터 센터의 각 서버를 시간에 종속적인 도착률 함수와 연속적으로 조절이 가능한 서비스율 함수를 갖는 G(t)/G(t)/1/PS 대기 행렬로 모형화한 후, 해당 시스템의 안정 상태 가상 응답 시간을 원하는 값으로 정상(定常)화 할 수 있는 서비스율 함수(DM 및 SR)를 유도하였다. G(t)/G(t)/1/PS 대기 행렬은 마코프 성질이 없을 뿐 아니라, 비정상성 및 프로세서 공유 정책 등의 복잡한 특성 때문에 그 성능 척도에 대한 정확한 분석 결과가 알려진 바 없기 때문에 두 가지 근사 이론(pointwise stationary approximation, heavy-traffic approximation)을 결합한 분석 결과를 활용하였다. 다양한 도착 및 작업량 분포에 대해 시뮬레이션을 수행한 결과, 목표 응답시간이 짧을 때에는 SR이, 길 때에는 DM이 효과적이라는 결론을 내릴 수 있었다.
세 번째 연구 주제에서는 데이터 센터를 프로세서 공유 대기 행렬들의 네트워크로 모형화한 후, 각 서버에서의 응답 시간 제약 조건을 만족시키면서도 에너지 효율적으로 서비스를 제공하기 위한 실시간 운영 방식을 제안하였다. 불확실성이 많은 데이터 트래픽에 효과적으로 대응하기 위해서, 각 서버들이 처리 중인 일감들의 도착 시간 및 잔여 작업량의 정보를 실시간으로 활용할 수 있는 상황을 가정하였다. 그 실시간 정보와 서버 전력 소모 함수의 볼록성(convexity)에 기반하여, 일감들을 최대한 기한에 맞게 처리하는 서버 속도 조절 방식(earliness minimization)과 현재 전력 소모율이 가장 낮은 서버로 일감을 할당하는 작업량 분배 방식(join-the-minimum-power)을 결합한 데이터 센터 운영 방식을 제시하였다. 가상의 데이터 센터를 시뮬레이션하여 제시된 운영 방식의 성능을 평가한 결과, 응답 시간 제약 조건을 잘 만족시키는 것을 확인하였고, 적은 양의 정보를 활용한 기존 알고리즘에 비해 50% 가량의 에너지 효율 향상을 얻을 수 있었다.
In recent decades, the amount of data traffic has increased significantly mainly due to everyday internet usage alongside with the prevalence of mobile devices and cutting-edge data-intensive technologies. As many information and communication technology (ICT) services started to adopt cloud computi...
In recent decades, the amount of data traffic has increased significantly mainly due to everyday internet usage alongside with the prevalence of mobile devices and cutting-edge data-intensive technologies. As many information and communication technology (ICT) services started to adopt cloud computing paradigm, the supporting infrastructures, representatively data centers, have become the inevitable solution for handling the serious amount of data traffic. Accordingly, global ICT enterprises have started to operate large-scale data centers, not only to support their own services but to supply computing and networking resources for other companies.
In this dissertation, we focus on the three aspects of the resource management in data centers: energy-efficiency, time-stable performance, and quality-of-service (QoS). In the first topic, we evaluate the energy efficiency of data center operating practices based on a mixed integer program that firstly unified four different technologies (virtualization, dynamic voltage frequency scaling, power on/off, workload routing). Second, we pursue the performance stabilization of servers in data centers based on a queueing theoretic analysis. To reflect the time-varying and non-exponential property of real-world data traffic, we model each server as a queueing system with a nonstationary non-Poisson arrival process and a generally distributed service requirement. In the third topic, we model the data center as a parallel network of processor sharing queues and define the desired QoS as a set of response time-related constraints. Then, we propose a heuristic QoS-aware and energy-efficient speed scaling and load balancing strategy that uses real-time information.
In recent decades, the amount of data traffic has increased significantly mainly due to everyday internet usage alongside with the prevalence of mobile devices and cutting-edge data-intensive technologies. As many information and communication technology (ICT) services started to adopt cloud computing paradigm, the supporting infrastructures, representatively data centers, have become the inevitable solution for handling the serious amount of data traffic. Accordingly, global ICT enterprises have started to operate large-scale data centers, not only to support their own services but to supply computing and networking resources for other companies.
In this dissertation, we focus on the three aspects of the resource management in data centers: energy-efficiency, time-stable performance, and quality-of-service (QoS). In the first topic, we evaluate the energy efficiency of data center operating practices based on a mixed integer program that firstly unified four different technologies (virtualization, dynamic voltage frequency scaling, power on/off, workload routing). Second, we pursue the performance stabilization of servers in data centers based on a queueing theoretic analysis. To reflect the time-varying and non-exponential property of real-world data traffic, we model each server as a queueing system with a nonstationary non-Poisson arrival process and a generally distributed service requirement. In the third topic, we model the data center as a parallel network of processor sharing queues and define the desired QoS as a set of response time-related constraints. Then, we propose a heuristic QoS-aware and energy-efficient speed scaling and load balancing strategy that uses real-time information.
학위논문 정보
저자
조용규
학위수여기관
Pohang University of Science and Technology
학위구분
국내박사
학과
Department of Industrial and Management Engineering
※ AI-Helper는 부적절한 답변을 할 수 있습니다.