《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 解決方案 > 數(shù)據(jù)中心節(jié)能算法研究綜述

數(shù)據(jù)中心節(jié)能算法研究綜述

2012-07-02
作者:劉 永1,王新華1,2,王 朕1,王 碩1
來源:來源:微型機與應(yīng)用2012年第7期

摘  要: 介紹了在數(shù)據(jù)中心服務(wù)器的硬件層、操作系統(tǒng)層、應(yīng)用程序?qū)右约凹簩有掠楷F(xiàn)的節(jié)能技術(shù)及算法,給出了數(shù)據(jù)中心節(jié)能的其他研究問題,最后介紹了研究熱點以及未來所面臨的挑戰(zhàn)。
關(guān)鍵詞: 節(jié)能數(shù)據(jù)中心;節(jié)能算法;節(jié)能計算及網(wǎng)絡(luò)

 傳統(tǒng)的數(shù)據(jù)中心總是集中于服務(wù)器等計算系統(tǒng)性能上的提高,忽略了電能的消耗和CO2的排放,這不僅造成數(shù)據(jù)中心運營成本的日益加重,還給周邊環(huán)境帶來了嚴(yán)重的溫室效應(yīng)。目前,數(shù)據(jù)中心節(jié)能因素已受到研究人員和運營商的廣泛關(guān)注,亞馬遜網(wǎng)站估計亞馬遜數(shù)據(jù)中心服務(wù)器的購買和運營成本占到了數(shù)據(jù)中心總成本的53%,而用電成本則占到了42%?;萜蘸蛧H正常運行時間學(xué)會根據(jù)最近的“數(shù)據(jù)中心用電預(yù)測報告”預(yù)測指出:服務(wù)器和網(wǎng)絡(luò)設(shè)備在現(xiàn)有用電基礎(chǔ)上還可以節(jié)約20%的電能,并且還會使相應(yīng)的制冷設(shè)備減少30%的能耗。
 無論是服務(wù)器、網(wǎng)絡(luò)設(shè)備,還是制冷、用電設(shè)備,其用電量都會對各個數(shù)據(jù)中心的電能消耗帶來影響。因此,要保證數(shù)據(jù)中心節(jié)能,就要想辦法減少這些設(shè)備的用電水平,以降低整個數(shù)據(jù)中心的電能消耗。
1 節(jié)能技術(shù)算法介紹
1.1 硬件層節(jié)能技術(shù)

 在服務(wù)器硬件節(jié)能方面采用最廣泛的技術(shù)是CPU的動態(tài)電壓/主頻升降技術(shù)DVFS(Dynamic Voltage and Frequency Scaling)。該技術(shù)允許CPU的時鐘頻率自動調(diào)整,同時CPU的電壓值也會根據(jù)CPU的利用情況自動變化,從而達(dá)到節(jié)能的目的。
 目前針對DVFS技術(shù)降低電能消耗的算法主要有:基于時間間隔算法、進(jìn)程算法和進(jìn)程間算法?;跁r間間隔算法主要是通過CPU在過去一段時間的利用率來預(yù)測CPU將來的利用率,并適當(dāng)調(diào)整CPU的電壓和主頻。進(jìn)程算法則利用了程序結(jié)構(gòu)信息來調(diào)整處理任務(wù)的CPU主頻和電壓。而進(jìn)程間算法對運行在系統(tǒng)中的任務(wù)區(qū)別對待,不同的任務(wù)其CPU處理速度不同。
 雖然DVFS技術(shù)原理看似很簡單,但在實際應(yīng)用時可能會產(chǎn)生很多問題:(1)由于現(xiàn)代CPU架構(gòu)的復(fù)雜性,例如:預(yù)測滿足應(yīng)用程序性能需求的CPU時鐘頻率是必需的,而許多CPU采用了通道技術(shù)或多級緩存技術(shù),這對實現(xiàn)DVFS技術(shù)增加了難度;(2)有研究表明,CPU的電能消耗和電壓值之間也不是簡單的平方關(guān)系,即Ecpu≠V2cpu,其中,Ecpu是CPU消耗的電能,V2cpu是CPU的電壓值。參考文獻(xiàn)[1]中指出:一個CPU芯片的不同部件可能需要多個不同的電壓,即使其中一個部件的電壓值降低,但CPU芯片總的電壓消耗還是由較大的供電電壓決定,并且應(yīng)用程序的執(zhí)行時間通常與CPU的主頻成反比,而采用了DVFS技術(shù)后,就不再是簡單的反比關(guān)系;(3)目前許多數(shù)據(jù)中心都采用了虛擬化技術(shù),尤其是云計算數(shù)據(jù)中心更是以虛擬化技術(shù)為基礎(chǔ),而DVFS技術(shù)如果不加修改,是不能直接用于虛擬化環(huán)境的。因此,盡管采用DVFS技術(shù)可能會節(jié)省電能,但鑒于上述各種原因,要想通過DVFS技術(shù)達(dá)到節(jié)能的目的還有很長的路要走。
1.2 操作系統(tǒng)層節(jié)能管理
 目前在操作系統(tǒng)層上的節(jié)能管理主要有:Pallipadi研究組的Ondemand Governor系統(tǒng)[2]、Zeng研究組的ECOsystem系統(tǒng)[3]、Rajkumar研究組的Linux/RK內(nèi)核[4]等。本文分別介紹這三種系統(tǒng)。
1.2.1 Ondemand Governor系統(tǒng)
 Ondemand Governor系統(tǒng)是一個嵌入到Linux操作系統(tǒng)內(nèi)核的電源管理器(稱為按需管理器)。該管理器實時地監(jiān)控 CPU的利用率,根據(jù)當(dāng)前應(yīng)用程序的CPU利用率自動調(diào)節(jié)CPU的主頻和供電電壓。按需管理器參數(shù)一般默認(rèn)設(shè)置為與CPU利用率的80%相對應(yīng)的主頻和供電電壓值。
 目前按需管理器已經(jīng)能夠被應(yīng)用到對稱處理器系統(tǒng)和多核多線程的CPU架構(gòu)中。但按需處理器存在一個缺點:即以集中的模式取樣系統(tǒng)中所有CPU的利用率,這種方式增加了系統(tǒng)在時間上的開銷??朔@一缺點一個有效的方法是:并行地對CPU利用率取樣,減少在CPU利用率取樣時間上的開銷。
1.2.2 ECOsystem系統(tǒng)
 ECOsystm系統(tǒng)是專門用于蓄電池設(shè)備的電能管理系統(tǒng),它是通過修改Linux操作系統(tǒng)的內(nèi)核得到的。Zeng等人在設(shè)計這一系統(tǒng)時不僅考慮了服務(wù)器硬件資源所消耗的電能,還考慮了應(yīng)用程序運行時消耗電能的情況。為了計算硬件設(shè)備和應(yīng)用程序消耗的電能,Zeng等人引進(jìn)了一個叫做currentcy的電能消耗單位,它是一段時間內(nèi)消耗的電能值。當(dāng)用戶向ECOsystem系統(tǒng)提供了蓄電池的供電時間以及所要運行應(yīng)用程序的優(yōu)先級時,ECOsystem系統(tǒng)就會計算它們消耗的currentcy值,從而把計算出的currentcy分配給要運行的應(yīng)用程序和硬件設(shè)備。當(dāng)應(yīng)用程序消耗的電能超過了分配給它的currentcy時,該應(yīng)用程序?qū)⑼V惯\行。
1.2.3 Linux/RK內(nèi)核
 Rajkumar研究組[4]針對使用了DVFS技術(shù)的服務(wù)器系統(tǒng)提出了一些節(jié)能算法,并修改了Linux操作系統(tǒng)的內(nèi)核。他們把修改后的內(nèi)核稱為Linux/Resource內(nèi)核,即Linux/RK。Linux/RK在保證應(yīng)用程序運行隔離性的同時,還減少了應(yīng)用程序的電量消耗。
 Linux/RK包括系統(tǒng)時鐘頻率分配Sys-Clock(SystemClock Frequency Assignment)、單調(diào)優(yōu)先級時鐘頻率分配PM-Clock(Priority-Monotonic Clock Frequency Assignment)、優(yōu)化時鐘頻率分配Opt-Clock(Optimal Clock Frequency Assignment)、動態(tài)單調(diào)優(yōu)先級時鐘頻率分配DPM-Clock(Dynamic PM-Clock)4種節(jié)能算法。Linux/RK會根據(jù)CPU電壓/主頻變化的開銷等自動選擇這4種算法。實驗表明,Sys-Clock、PM-Clock以及DPM-Clock算法能節(jié)約大約50%的電量。

 


1.3 應(yīng)用程序?qū)庸?jié)能
 除了在硬件層、操作系統(tǒng)層設(shè)計方法節(jié)能外,還可以通過設(shè)計出優(yōu)化的應(yīng)用程序來節(jié)能。這是因為設(shè)計差的應(yīng)用程序運行時不僅性能會很低,還會消耗大量的電能。但目前還沒有一個統(tǒng)一的標(biāo)準(zhǔn)評價一個應(yīng)用程序是否節(jié)能,而Tiwari認(rèn)為程序執(zhí)行越快,電能消耗就越少。因此,在開發(fā)應(yīng)用程序時,應(yīng)該遵循軟件工程設(shè)計的原則,盡量縮短程序的代碼行數(shù),優(yōu)化代碼結(jié)構(gòu),從而提高應(yīng)用程序執(zhí)行的速度,以達(dá)到節(jié)能的目的。
1.4 集群層節(jié)能算法
 集群層節(jié)能算法有多種分類方式。以DVFS技術(shù)為參照,可以將集群劃分為DVFS技術(shù)集群和非DVFS技術(shù)的集群;以虛擬化技術(shù)為標(biāo)準(zhǔn),將集群分為虛擬化集群和非虛擬化集群。本文主要根據(jù)集群是否采用了虛擬化技術(shù)進(jìn)行分類,介紹目前出現(xiàn)的節(jié)能算法。
1.4.1 非虛擬化集群層節(jié)能算法
 非虛擬化集群節(jié)能的主要思想是把服務(wù)整合到少量的服務(wù)器上,以提高單個服務(wù)器的資源利用率,并關(guān)閉多余的服務(wù)器,從而節(jié)約整個集群的電能。這里介紹幾個具有代表性的非虛擬化集群節(jié)能算法的案例。
 Elnozahy等人[5]研究了同構(gòu)集群上運行單個Web服務(wù)的電能消耗和服務(wù)性能間的平衡問題,使用了DVFS技術(shù),并提出了獨立電壓縮放IVS(Independent Voltage Scaling)、協(xié)調(diào)電壓縮放CVS(Coordinated Voltage Scaling)、組合協(xié)調(diào)策略CCP(Coordinated Combined Policy)等3種算法用于CPU主頻和電壓的彈性擴展。其中,組合協(xié)調(diào)策略提供了一個決定CPU主頻閾值的數(shù)學(xué)模型,它根據(jù)Web服務(wù)預(yù)期的響應(yīng)時間設(shè)置CPU的主頻,該策略能夠決定運行Web服務(wù)的服務(wù)器數(shù)量,關(guān)閉多余的服務(wù)器,從而達(dá)到節(jié)能的目的。
Garg等人[6]研究了高性能計算應(yīng)用程序在地理上分布的云數(shù)據(jù)中心上的調(diào)度問題。數(shù)據(jù)中心因為地理位置、設(shè)計和資源管理系統(tǒng)不同,其電力成本、CO2排放率以及負(fù)載也不同。為此,提出了5種算法。其中貪婪最小化碳排放量算法GMCE(Greedy Minimum Carbon Emission)、最小化碳排放算法MCEMCE(Minimum-Carbon-Emission-Minimum-Carbon-Emission)保證選擇的數(shù)據(jù)中心是CO2排放最少的數(shù)據(jù)中心。貪婪最大利潤算法GMP(Greedy Maximum Profit)、最大利潤算法MPMP(Maximum-Profit-Maximum-Profit)保證選擇的數(shù)據(jù)中心是最省電的數(shù)據(jù)中心。最小化碳排放以及最大利潤化算法MCEMP(Minimizing Carbon Emission and Maximizing Profit)保證選擇的數(shù)據(jù)中心既能節(jié)能又能減少CO2的排放。
 Pinheiro等人[7]提出了一種同構(gòu)集群的管理技術(shù),該技術(shù)在保證QoS的同時,能使同構(gòu)集群的電能消耗最少;使用吞吐量和應(yīng)用程序的執(zhí)行時間作為QoS的約束條件。算法中的master節(jié)點周期性地監(jiān)視集群的負(fù)載情況,在保證應(yīng)用程序QoS的同時,決定哪些節(jié)點打開或關(guān)閉,從而使電能的消耗最小。該算法也存在一定的缺點,因為集群的管理由單個的master節(jié)點執(zhí)行,因此很容易造成單點失效,并且該算法一次只能添加或關(guān)閉一個節(jié)點,對激增的用戶服務(wù)請求會造成很大的延遲,不適合大規(guī)模的集群環(huán)境。
1.4.2 虛擬化集群層節(jié)能算法
 虛擬化集群因為使用了虛擬化技術(shù),因此其節(jié)能算法涉及到虛擬機的調(diào)度問題。虛擬化集群節(jié)能算法的主要思想是把虛擬化了的服務(wù),即將虛擬機整合到少量的物理服務(wù)器上,關(guān)閉多余的物理服務(wù)器,以達(dá)到集群節(jié)能的目的。
 Kusic等人[8]研究了虛擬化Web集群系統(tǒng)中電能和性能之間的均衡問題,所提出的系統(tǒng)控制器SC(System Controller)使用了限制預(yù)控制LLC(Limited Lookahead Control)策略,根據(jù)當(dāng)前的Web請求負(fù)載,部署用于處理Web請求的虛擬機,在保證違反服務(wù)等級協(xié)議SLA(Service Level Agree)最小數(shù)量的同時,使得電能消耗最少。為了節(jié)能,還提出了開關(guān)主機和虛擬機的時間和電能成本模型,并使用人工神經(jīng)網(wǎng)絡(luò)來提高系統(tǒng)性能。實驗結(jié)果顯示使用LLC的服務(wù)器集群可以節(jié)省大約26%的電能,并且只有1.6%的服務(wù)等級協(xié)議違反率。但由于所提出的節(jié)能模型的復(fù)雜性,在15個主機構(gòu)成的集群上控制器的執(zhí)行時間長達(dá)30 min,因此所提出的系統(tǒng)控制器不適合大規(guī)模的集群環(huán)境。
 Vinh等人[9]也提出了一個類似的用于云計算數(shù)據(jù)中心的調(diào)度器。該調(diào)度器使用了4個算法:預(yù)測算法、開關(guān)算法、任務(wù)調(diào)度算法和評估算法。預(yù)測算法使用了基于歷史負(fù)載需求的神經(jīng)預(yù)測器來預(yù)測負(fù)載的未來需求。開關(guān)算法根據(jù)預(yù)測結(jié)果動態(tài)地調(diào)度服務(wù)器的分配,關(guān)閉不需要的服務(wù)器以達(dá)到節(jié)能的目的,任務(wù)調(diào)度算法負(fù)責(zé)把請求分配到運行的服務(wù)器上。評估算法則在執(zhí)行過程中尋找一個合適的訓(xùn)練周期,實驗使用了ClarkNet和NASA作為負(fù)載。結(jié)果顯示將動態(tài)訓(xùn)練和增加20%的服務(wù)器相結(jié)合效果最好,在ClarkNet負(fù)載上當(dāng)丟棄率為0.02%時,節(jié)能49.8%。在NASA負(fù)載上當(dāng)丟棄率僅為0.16%時,節(jié)能55.4%。
 Buyya等人[10]提出了云數(shù)據(jù)中心虛擬機的動態(tài)節(jié)能分配,把虛擬機的分配分為兩步:第一步,接收新的部署虛擬機請求,并使用改進(jìn)的最適合降序MBFD(Modification of the Best Fit Decreasing)算法把虛擬機放置到主機上;第二步,用單閾值ST(Single Threshold)等算法選擇要遷移的虛擬機,并使用MBFD算法把遷移的虛擬機分配到其他主機上。實驗結(jié)果表明,虛擬機的動態(tài)分配不僅提供了可靠的QoS,還使得電能的消耗最小。
 Song等人[11]研究了虛擬化數(shù)據(jù)中心環(huán)境下應(yīng)用程序的資源分配問題,把資源調(diào)度劃為應(yīng)用程序調(diào)度、本地調(diào)度、全局調(diào)度三個層次。應(yīng)用程序調(diào)度器把應(yīng)用程序分配到虛擬機上,本地調(diào)度器根據(jù)應(yīng)用程序的優(yōu)先級把CPU等硬件資源分配給虛擬機,全局調(diào)度器控制CPU等硬件資源的分配。此外,還提出了一個線形編程模型和分配算法,該算法在虛擬機運行過程中,不需要虛擬機的動態(tài)遷移,應(yīng)用程序有明確的優(yōu)先級,適合用于企業(yè)計算環(huán)境。
1.4.3 根據(jù)DVFS技術(shù)分類的節(jié)能算法
 集群節(jié)能算法除上述的分類外,還可以按照是否采用了DVFS技術(shù)進(jìn)行分類。表1給出了按照算法是否采用DVFS技術(shù)分類的參考文獻(xiàn)。

2 數(shù)據(jù)中心節(jié)能的其他研究問題
 當(dāng)前數(shù)據(jù)中心的節(jié)能除了服務(wù)器節(jié)能占了很大比例以外,制冷設(shè)備、網(wǎng)絡(luò)設(shè)備等也要注重節(jié)能。根據(jù)亞馬遜網(wǎng)站估計其數(shù)據(jù)中心電能消耗比例為IT設(shè)備(服務(wù)器設(shè)備,網(wǎng)絡(luò)設(shè)備)占53%,制冷設(shè)備占23%,電源設(shè)備占19%,其他設(shè)備占5%。
2.1 制冷設(shè)備節(jié)能
 為了降低數(shù)據(jù)中心制冷設(shè)備的運營成本,首先要選擇合適的制冷設(shè)備。通常數(shù)據(jù)中心都會選擇機房專用精密空調(diào)作為制冷設(shè)備,因為這不僅考慮溫度的降低,還要考慮環(huán)境的濕度、潔凈度、控制管理等相關(guān)因素,并且機房專用精密空調(diào)具有連續(xù)運行能力強、使用壽命長的特點。
    其次,還要進(jìn)行合理的機柜布局。通常將高功率設(shè)備和高密度設(shè)備均分在每個機柜內(nèi),以避免造成數(shù)據(jù)中心的熱點和冷卻的難點,這可以大大降低制冷設(shè)備的運行費用和購買費用。
2.2 網(wǎng)絡(luò)設(shè)備節(jié)能
 數(shù)據(jù)中心除了考慮制冷設(shè)備消耗的電能外,也要考慮網(wǎng)絡(luò)設(shè)備的電能消耗。根據(jù)統(tǒng)計,網(wǎng)絡(luò)設(shè)備消耗的電能占到數(shù)據(jù)中心總消耗電能的20%~30%,并且隨著服務(wù)器節(jié)能技術(shù)的發(fā)展,其耗能所占的比重還會繼續(xù)上升。目前在網(wǎng)絡(luò)設(shè)備節(jié)能方面也已經(jīng)開展了很多工作。
 Gupta[15]等人提出了節(jié)約連接到因特網(wǎng)上的網(wǎng)絡(luò)設(shè)備的電能消耗,并在局域網(wǎng)上驗證了節(jié)能的可行性,而且提出了有效的調(diào)度算法使得網(wǎng)絡(luò)設(shè)備的空閑部件進(jìn)入睡眠以節(jié)約電能。Nedevschi[16]和Christensen[17]研究了網(wǎng)絡(luò)設(shè)備的電源管理,通過網(wǎng)絡(luò)設(shè)備睡眠和速率適配使得網(wǎng)絡(luò)設(shè)備在網(wǎng)絡(luò)空閑或低負(fù)載時節(jié)省電能。威斯康辛-麥迪遜大學(xué)和思科公司在網(wǎng)絡(luò)和協(xié)議的設(shè)計及配置中把節(jié)能作為一個主要目標(biāo),并使用整體優(yōu)化技術(shù)來優(yōu)化網(wǎng)絡(luò)設(shè)備的電能消耗。Shang Yunfei[18]在高密度的數(shù)據(jù)中心網(wǎng)絡(luò)路由方面提出了節(jié)能的路由算法,首先建立了一個節(jié)能路由模型,并用0-1背包問題證明所提出的模型是一個NP問題,然后提出一個路由算法來解決節(jié)能問題。實驗結(jié)果表明,該算法對于網(wǎng)絡(luò)設(shè)備的節(jié)能很有效,尤其在網(wǎng)絡(luò)負(fù)載低的時候節(jié)能效果更明顯。
2.3 電源設(shè)備節(jié)能
 目前,數(shù)據(jù)中心的電源配置PDU(Power Distribution Unit)方案有多種:機架安裝電源配置方案、集中式電源配置方案、使用靜態(tài)轉(zhuǎn)換開關(guān)STS(Static Transform Switch)的冗余電源配置方案、使用機架式自動轉(zhuǎn)換開關(guān)ATS(Automatic Transform Switch)的負(fù)載冗余電源配置方案等。應(yīng)該根據(jù)數(shù)據(jù)中心的規(guī)模、支持電源設(shè)備的類型以及選擇方案的預(yù)算等選擇合適的電源配置方案,以達(dá)到節(jié)約電能和節(jié)省費用的目的。表2給出了常用數(shù)據(jù)中心機房電源配置方案對比表。

3 數(shù)據(jù)中心節(jié)能的研究熱點和挑戰(zhàn)
3.1 研究熱點
3.1.1 虛擬機整合

 參考文獻(xiàn)[10]提出了有效的虛擬化數(shù)據(jù)中心的資源管理策略。該策略在保證QoS的同時,利用虛擬機遷移技術(shù)不斷把虛擬機整合到少量服務(wù)器,關(guān)閉多余的服務(wù)器來減少電能消耗。參考文獻(xiàn)[19]根據(jù)當(dāng)前CPU等硬件資源利用率、虛擬機網(wǎng)絡(luò)拓?fù)湟约胺?wù)器的熱狀態(tài),通過整合虛擬機減少電能消耗。參考文獻(xiàn)[20]建立了CPU電能消耗模型,并使用單閾值策略和雙閾值策略選擇遷移的虛擬機,把虛擬機整合到少量服務(wù)器上來節(jié)約電能。參考文獻(xiàn)[21]提出了基于自適應(yīng)利用率閾值的虛擬機動態(tài)整合算法,它不僅保證了服務(wù)等級協(xié)議SLA(Service Level Agreement),還節(jié)省了大量電能。參考文獻(xiàn)[8]提出的系統(tǒng)控制器使用了限制預(yù)控制,根據(jù)當(dāng)前的Web請求負(fù)載,部署用于處理Web請求的虛擬機,在保證SLA的同時,使得電能消耗最少。
3.1.2 網(wǎng)絡(luò)路由
 參考文獻(xiàn)[18]在密集型數(shù)據(jù)中心中建立了一個節(jié)能路由模型,并提出一個路由算法來解決網(wǎng)絡(luò)節(jié)能問題。參考文獻(xiàn)[22]提出了一個路由算法,在保證網(wǎng)絡(luò)全連接以及鏈路最大利用率的同時,關(guān)閉不用的網(wǎng)絡(luò)節(jié)點,使網(wǎng)絡(luò)電能消耗最小。參考文獻(xiàn)[23]考慮了網(wǎng)絡(luò)通信設(shè)備的電能消耗,提出了電能剖面感知路由算法(Energy Profile Aware Routing),實驗結(jié)果表明能節(jié)省35%的電能。參考文獻(xiàn)[24]使用電能剖面概念(Energy Porfile)獲得網(wǎng)絡(luò)設(shè)備電能消耗特征,并提出了基于Dijkstra的節(jié)能路由算法(Dijkstra-based Power Aware Routing Alogorithm,DPRA)。參考文獻(xiàn)[25]提出了“活動窗口管理的擁塞控制技術(shù)”并結(jié)合提出的節(jié)能服務(wù)調(diào)諧處理算法來控制因特網(wǎng)服務(wù)運營商ISP(Internet Service Providers)網(wǎng)絡(luò)上訪問節(jié)點的電能消耗,實驗表明在保證QoS和互聯(lián)網(wǎng)流量的同時,能節(jié)省70%的電能。參考文獻(xiàn)[26]基于認(rèn)知包網(wǎng)絡(luò)CPN(Cognitive Packet Network)的路由協(xié)議[27]提出了節(jié)能路由協(xié)議EARP(Energy-Aware Routing Protocol),在保證QoS的同時使得包網(wǎng)絡(luò)中每條路由消耗的電能最少。參考文獻(xiàn)[28]使用了G-網(wǎng)絡(luò)(G-network)中的控制能力理論,在包網(wǎng)絡(luò)的電能消耗和QoS之間建立數(shù)學(xué)模型,使用網(wǎng)絡(luò)路由器和網(wǎng)絡(luò)鏈路驅(qū)動設(shè)備電能消耗特征,使得提出的算法能夠在QoS和網(wǎng)絡(luò)電能消耗之間取得平衡。
3.1.3 網(wǎng)絡(luò)信息復(fù)制和分發(fā)設(shè)計
 數(shù)據(jù)中心中運行的應(yīng)用程序很多用于信息分發(fā),無論是移動設(shè)備用戶還是Web 2.0用戶,用戶數(shù)量越來越多,并且這些用戶分享大量的網(wǎng)絡(luò)信息。但網(wǎng)絡(luò)信息的快速、可靠分發(fā)需要對數(shù)據(jù)中心投入大量的硬件資源,并需要支付維持硬件設(shè)備運行的成本。目前,網(wǎng)絡(luò)傳輸數(shù)據(jù)基本上基于協(xié)議棧中遠(yuǎn)程訪問和復(fù)制功能等協(xié)議,其利潤很難隨著硬件設(shè)備的升級而提升。當(dāng)數(shù)據(jù)中心成為發(fā)布和訪問網(wǎng)絡(luò)信息的巨大平臺時(例如云計算數(shù)據(jù)中心),在網(wǎng)絡(luò)上傳輸?shù)臄?shù)據(jù)量將大幅度增加,此時需要設(shè)計新的網(wǎng)絡(luò)內(nèi)容復(fù)制和分發(fā)策略,來保證網(wǎng)絡(luò)內(nèi)容的計算、存儲、網(wǎng)絡(luò)傳輸和電能消耗、服務(wù)質(zhì)量之間的均衡。
3.2 面臨的挑戰(zhàn)
 除了上述研究熱點以外,當(dāng)前數(shù)據(jù)中心還有許多問題有待研究,尤其是云計算的提出,給數(shù)據(jù)中心節(jié)能帶來了更多的機遇和挑戰(zhàn)。
本文對當(dāng)前數(shù)據(jù)中心中常用的節(jié)能技術(shù)以及算法進(jìn)行分析,并介紹了數(shù)據(jù)中心中網(wǎng)絡(luò)設(shè)備、制冷設(shè)備、電源設(shè)備等節(jié)能方法。隨著節(jié)能減排以及降低成本的迫切要求,越來越多的數(shù)據(jù)中心將采用虛擬化技術(shù),虛擬化技術(shù)是云計算的重要技術(shù)之一。
 當(dāng)前虛擬化數(shù)據(jù)中心節(jié)能還存在很多問題,例如虛擬服務(wù)器本身的節(jié)能管理等。隨著研究的深入,現(xiàn)階段的研究者越來越關(guān)注通過利用虛擬機調(diào)度,關(guān)閉多余的服務(wù)器來節(jié)省整個集群消耗的電能或者提出節(jié)能的網(wǎng)絡(luò)路由算法,關(guān)閉多余的網(wǎng)絡(luò)設(shè)備來節(jié)省整個網(wǎng)絡(luò)消耗的電能。
參考文獻(xiàn)
[1] KATACHALAM V V, FRANZM. Power reduction techniques for microprocessor systems [J].ACM Computing Surveys(CSUR),2005,37(3): 195-237.
[2] PALLIPADI V, STARIKOVSKIY A. The ondemand governor[C]. Proceedings of the Linux Symposium. Canada: LS 2006:658-672.
[3] ZENG H, ELLIS C S, LEBECK A R. A Vahdat. ECOSystem: managing energy as a first class operating system resource[J]. ACM SIGPLAN Notices,2002,37(10) :123-132.
[4] RAJKUMAR R, JUVVA K, MOLANO A, et al. Resource kernels: A resource-centric approach to real-time and multimedia systems[C]. Readings in multimedia computing and networking. San Jose/CA: ACADEMIC PRESS, 2001:476-490.
[5] ELNOZAHY E, KISTLER M, RAJAMONY R. Energy-Efficient server clusters[J]. Power-Aware Computer Systemspp. 2003,2325:179-197.
[6] GARG S K, YEO C S, ANANDASIVAM A, et al. Environment-conscious scheduling of HPC applications on distributed cloud-oriented data centers[J]. Journal of Parallel and Distributed Computing, 2010,71(6):732-749.
[7] PINHEIRO E, BIANCHINI R, CARRERA E V, et al. Load balancing and unbalancing for power and performance in cluster-based systems[C]. Proceedings of the Workshop on Compilers and Operating Systems for Low Power. Barcelona:COLP 01, 2001:182-195.
[8] KUSIC D, KEPHART J O, HANSON J E, et al. Power and performance management of virtualized computing environments via lookahead control, cluster computing[J].Cluster Computing, 2009, 12(1): 1-15.
[9] VINH T, SATO Y, INOGUCHI Y. A Prediction-Based Green Scheduler for Datacenters in Clouds [EB/OL]. [2011-02-23]. http://ino-www.jaist.ac.jp/members/duytvt/IEICE2011.pdf.
[10] BELOGLAZOV A, BUYYA R. Energy efficient allocation of virtual machine in cloud data centers[C]. 2010 10th IEEE/ACM International Conference on Cluster, Cloud and Grid Computing. Washington DC:IEEE Computer Society, 2010:577-578.
[11] SONG Y, WANG H, LI Y, et al. Multi-tiered on-demand resource scheduling for VM-Based data center[C]. Proceedings of the 9th IEEE/ACM International Symposium on Cluster Computing and the Grid. Washington:IEEE Computer Society Press, 2009:148-155.
[12] SRIKANTAIAH S, KANSAL A, Zhao Feng. Energy-aware consolidation for cloud computing[C]. Proceedings of the 2008 conference on Power aware computing and systems.California: USENIX Association Berkeley, 2008:10-10.
[13] CHASE J S, ANDERSON D C, THAKAR P N, et al. Managing energy and server resources in hosting centers [C]. Proceedings of the 18th ACM Symposium on Operating Systems Principles. New York: ACM New York, 2001: 103–116.
[14] GMACH D, ROLIA J, CHERKASOVAL, et al. Resource pool management: reactive versus proactive or let’s be friends [J]. Computer Networks, 2009, 53(7):2905-2922.
[15] GUPTA M, SINGH S. Using low-power modes for energy conservation in ethernet LANs[C]. Proceedings of 26th IEEE International Conference on Computer. Anchorage: IEEE, 2007: 2451-2455.
[16] NEDEVSCHI S, POPA L, IANNACCONE G, et al. Reducing network energy consumption via sleeping and rate-adaptation[C]. Proceedings of the 5th USENIX Symposium on Networked Systems Design and Implementation.  California:USENIX Association Berkeley, 2008:323-336.
[17] CHRISTENSEN K, NORDMAN B, BROWN R. Power management in networked devices[J]. Computer,37(8):91-93.
[18] Shang Yunfei, Li Dan, Xu Mingwei. Green routing in data center network: modeling and algorithm Design [EB/OL].[2011-03-25].http://www.asiafi.net/meeting/2010/summerschool/ p/asiafi2010s-final2.pdf.
[19] BELOGLZOV A, BUYYA R. Energy efficient resource management in virtualized cloud data centers[C]. Proceedings of the 10th IEEE/ACM International Conference on Cluster, Cloud and Grid Computing. Melbourne: IEEE, 2010:826-831.
[20] BELOGLZOV A, ABAWAJY J, BUYYA R. Energy-aware resource allocation heuristics for efficient management of data centers for cloud computing[EB/OL]. [2011-03-20].http://beloglazov.info/papers/2010-energy-aware-fgcs.pdf.
[21] BELOGLZOV A, BUYYA R. Adaptive threshold-based approach for energy-efficient consolidation of virtual machines in cloud data centers[C]. Proceedings of the 8th International Workshop on Middleware for Grids, Clouds and e-Science. New York:ACM, 2010.
[22] CHIARAVIGLIO L, MELLIA M, NERI F. Energy-aware networks: reducing power consumption by switching off network elements[EB/OL]. [2011-04-20]. http://cloudbus.org/papers/AdaptiveVMCloud-MGC2010.pdf.
[23] RESTREPO J C, GRUBER C G, MACHUCA C M. Energy profile aware routing[C]. IEEE International Conference on Communications Workshops(2009). Dresden: IEEE, 2009:1-5.
[24] GARROPPO R G, GIORADANO S, NENCIONI G, et al. Energy aware routing based on energy characterization of devices: solutions and analysis[EB/OL]. [2011-03-30]. http://networking.disi.unitn.it /cavalese2011/papers/51.pdf.
[25] PANARELLO C, LOMBARDO A, SCHEMBRA G. Energy saving and network performance: a trade-off approach[C]. Proceedings of the 1st International Conference on Energy-Efficient Computing and Networking. New York: ACM, 2010:41-50.
[26] MAHMOODI T. Energy-aware routing in the cognitive packet network[J]. Performance Evaluation, 2011, 68(4):338-346.
[27] GELENBE E. Cognitive Packet network[P]. U.S: Patent 6804201, 2004-04-11.
[28] GELENBE E, MORFOPOULOU C. Routing and G-Networks to qptimise energy and quality of service in packet networks[J]. Lecture Notes of the Institute for Computing Sciences, Social Informatics and Telecommunications Engineering, 2011, 54(4): 163-173.
 

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。