數據中心能耗問題一直是諸多IT部門所頭疼的問題之一,對于IDC行業來說,這更關乎企業的盈利,在綠色環保的大背景下,節能越來越成為諸多具有社會責任感的企業所重點關注的問題。IBM中國系統中心作為IBM在亞太地區唯一的綠色數據中心,其PUE值在幾年時間內就從原來的1.7以上降至現在最低的1.25,其究竟是怎樣做到的呢?在IBM智慧的數據中心開放日中,其向我們開啟了綠色節能的大門。
▲IBM 全球數據中心項目總監Allan Hoeft
IBM中國系統中心位于北京市海淀區上地東北旺中關村軟件園內,是IBM全球五大數據中心之一,也是亞太區最大的數據中心,也是唯一的綠色數據中心(IBM認為PUE在1.5以下才符合綠色數據中心的標準)。在這個數據中心內幾乎囊括了IBM所有知名的高端硬件產品,如IBM System z大型機Z196、基于Power處理器的小型機,基于英特爾X86架構的服務器,IBM高端存儲系統XIV以及IBM DS8800存儲系統等。
據IBM全球數據中心項目總監Allan Hoeft先生介紹,IBM全球數據中心能夠幫助客戶做一些性能、指標和概念模型的測試。IBM中國系統中心是IBM公司在亞太地區唯一擁有Z大機的數據中心,也是唯一能夠提供Z大機性能指標測試的數據中心。并且通過IBM數據中心還可為用戶展示IBM最新的解決方案和最新發布的產品。
影響數據中心PUE值的因素
PUE值是衡量數據中心能效的標準,如PUE值為2的話,那就意味著有一般的電力是花費在IT設備上的,另一半則消耗在非IT設備上,如散熱、UPS等。PUE的數值越小,代表數據中心的能效越高。Allan Hoeft先生認為,一般而言,數據中心能效(即PUE值)會受到自然條件(Free Cooling)和數據中心等級的影響。
IBM根據全球不同的地理氣候條件,將Free Cooling分為8個等級,1為最熱,8為最冷的北極地區,北京的自然條件跟美國紐約類似,其等級大約在4到5之間。通過Free Cooling的作用對數據中心進行散熱,在不消耗或者少消耗電力的情況下,可給數據中心能效帶來不同程度的提升。
除了Free Cooling對數據中心的能效有影響之外,數據中心本身的安全等級也會對數據中心能效產生影響。安全等級越高,代表數據中心內冗余設備就越多,其消耗的電力自然而然會隨之上漲,對數據中心效率產生的影響也就越大。
上圖顯示為,Free Cooling和數據中心等級共同作用下對數據中心能效的影響。在不同的自然條件下,數據中心等級的不同,其能效也有一個理論值。即無論采用何種方式,其實際PUE值不可能超過這個理論值。例如在北京或紐約的環境下,Allan Hoeft認為IBM數據中心的PUE能夠控制在1.35或1.35一下,而對于新建數據中心,PUE值可能有5-10%之間的浮動,在1.38左右;對于改造的數據中心可能PUE值會稍高一些,其PUE值大概會高出20%左右。
IBM綠色數據中心節能措施
一般來說,大型數據中心,尤其是IDC行業,都可以通過優化PUE值來達到提高數據中心效率,降低能耗以節省成本的目的。優化PUE值則有利用Free Cooling和采用技術手段兩種方法。如IBM在美國靠近紐約的Poughkeepsie數據中心,通過直接使用河水來進行數據中心冷卻,并輔以必要的技術手段,使得其PUE值降到了1.19。類似的例子還有如IBM印度的Bangalore數據中心通過大量利用太陽能技術來降低電力的消耗。技術手段則包括IBM的熱交換水冷背板、冷熱通道遏制系統等等。而作為IBM亞太地區唯一的綠色數據中心,IBM中國系統中心采用的節能技術相信能夠給諸多中國數據中心帶來很好的借鑒意義,下面我們就來簡要瀏覽一下。
降低IT設備本身的能耗
要對數據中心能效進行優化,首要就要知道能量都消耗在哪些地方。上圖是IBM在智慧的數據中心開放日活動中展示的一張圖片,通過上圖我們可以看到數據中心的電力大多消耗在了UPS和散熱等非IT設備之上(55%),真正用于IT設備的耗電大約在45%左右。而在這之中,處理器只消耗了IT設備耗電的30%,即使這樣,處理器大部分情況下仍是處于閑置,真正應用到業務的耗電只占小的一部分。這張圖的目的在于揭示,在每個環節,不管是從硬件設計、服務器整體設計、機房設計還是系統管理方面都有很大的空間來幫助數據中心提高能效。
在IT設備節電方面,IBM有著豐富經驗和產品,例如Power 7服務器,其可在業務不繁忙的時候進行節電,并有多種節電模式可供選擇,例如偏向性能的節電,偏向能效的節電等。并且通過與其他技術相結合,在服務器節能方面,一臺普通的Power服務器可以代替40多臺X86服務器,由此可見,不管是在空間、好點、管理還是軟件費用上都有較大的提升。
除了在硬件方面,IBM還在軟件方面做了大量的功課,例如IBM中國系統中心所應用到的一個叫動態能耗管理軟件的產品,其可以通過對業務繁忙度進行分析,在業務不繁忙的時候,自動將CPU的頻率、風扇的轉速、所有硬盤的轉速以及IUC卡的耗電等都降下去,在保證業務不受影響的情況下達到節電的目的。據IBM中國系統中心葉華介紹,中國系統中心內的大部分Power 7服務器可以達到20-30%的節能效果,這在大型數據中心內將起到很好的節能效果。
熱交換水冷背板——解決數據中心熱點
數據中心熱點是數據中心內較為常見的現象,由于機房內只能設施或者IT設備放置的位置或者布局不適宜(比如冷熱通道設計不合理),或者某些高耗電、高能耗、高散熱量的設備放到了同一個區域,就會出現熱點。在這種情況下,通過降低整個機房的溫度來解決熱點問題明顯是不適宜的,那么在這種情況下就需要一些特殊的技術。
首先我們需要將這些熱點找出來。例如IBM中國系統中心內就采用的MMT(移動測量技術),通過這個技術可以做到實時的3D熱量分析圖,允許管理員在電腦面前實時監控機房內的熱量變化。并且通過這項技術還可分析能耗損失在哪些地方,耗電都用于哪些IT設備之上。
在找到熱點之后,如果是因為某臺設備的由于耗電量大、散熱量大造成的熱點的話,就可以采用IBM的熱交換水冷背板來解決這一熱點。熱交換水冷背板內部全部采用無縫空心鋼管,當冷水流過背板中的鋼管直接將這個設備產生的熱量帶走,以達到消除熱點的目的。
氣流遏制系統
這個概念現在說的很多,其實其原理很簡單。傳統觀念認為機房的溫度應該越低越好,甚至每個地方的溫度都應該很低,但經過美國采暖工業協會及專家測試發現,只有IT設備的入口溫度才是衡量數據中心溫度的最為重要的指標,而不用擔心其他諸如排風溫度等。而氣流遏制系統就是將冷空氣和熱空氣分別隔離,來保證冷熱空氣不會混合,提供給IT設備最安全、最有效的環境。
氣流遏制系統示意圖。在IBM中國系統中心內,X86集群服務器采用背靠背擺放,中間通道采用密封設計,這就使得產生的熱量不會外溢,影響整個機房溫度。并且,中間密封熱通道的溫度明顯要高于整個機房溫度,但卻并并影響服務器性能
當然,數據中心內的節能措施遠遠多于上述所介紹的這些技術或者解決方案,例如在IBM中國系統中心參觀過程之中,其中還涉及到下送風系統、施耐德公司去年發布的英飛集成系統、模塊化UPS電源等等。葉華也表示,在IBM中國系統中心之內還涉及諸多別的解決方案,例如數據中心監控、機房環境問題以及資產的管理、系統軟件、網絡管理等諸多解決方案。正是這些解決方案共同作用,才使得IBM中國系統中心在能效方面有顯著提升,綠色數據中心不僅僅是某一項或者幾項技術作用的結果,而是諸多項技術和解決方案共同作用的結果。
新聞熱點
疑難解答