打造綠色節能機房 從氣流管理開始下手 智慧應用 影音
工研院
DForum0515

打造綠色節能機房 從氣流管理開始下手

GreenIT部落格版主 胡哲寧
GreenIT部落格版主 胡哲寧

根據美國環境保署於2007年的報告指出,2006年美國各種資訊產業或商業、政府機構所使用之資料中心的耗能,已經成長至2000年時的2倍,而能源大用戶各類建築電力消費量(EUI)的統計分析也顯示,這其中以電信機房、網路機房最高,平均單位面積年耗電量比第三名的百貨公司足足超過2倍以上。國內知名的Green IT部落格版主胡哲寧說,為了鼓勵企業導入機房節能技術,並了解自已在節能方面的成效,Green Gird協會針對「資訊機房能源使用合理化」,訂定了電源使用效率PUE(Power Usage Effectiveness)耗能指標,使用300RT以上中央空調冰水主機系統的資訊機房,只要PUE值達到1.52以下,即可取得申請LEED綠色機房的基本門檻。

胡哲寧表示,以台灣目前的電價、機房用電與平均PUE值來估算,我們假設某一機房環境每年用電成本大約原本需要新台幣3,758,040元,PUE值為2.2。但若能將其PUE值降至1.8時,則每年機房電費可減少為3,074,760;PUE值為1.4,每年機房電腦為2,3919,480元。每年分別可節省電費新台幣683,280元及1,366,560元,顯見投資綠色機房的成本效益極高。

胡哲寧指出,根據PUE的計算公式,當非IT設備用電量不變時,若能有效提高IT設備的用電量時,PUE會降低;反之亦然。由於目前機房用電量較高的設備除了伺服器之外,就當屬空調設施,因此如果能夠改善機房的氣流與散熱狀況以節省空調用電,即能使其PUE值大幅下降。

Intel的2020 Data Center實驗同樣也證明了這一點─在同樣區分冷熱通道、故意存在氣流洩漏、將空調製冷與風速調至最大,並以8個機櫃裝設174台伺服器的機房環境設定條件下,Intel僅採取了封住洩漏、調整冷通道出風量至足夠滿足每一機櫃設備的散熱需求,以及將冷熱風徹底隔離等3 項步驟,該機房PUE值便由原1.8逐步減少至1.55與1.48。接下來再採用如調高冷凍水溫度、己用EC變頻送風、提高空調送風溫度…等改善措施,PUE的降幅均不高。由此可知,IT人員若能先由做好機房的「氣流管理」與解決其「冷熱混風」的問題開始下手,對於立即改善機房PUE值會有相當大的幫助。

不過要做好氣流管理,機房管理人員必需要先做好事先的氣流環境預備,建立良好的冷熱通道,在機櫃未安裝設備的地方裝上檔板,將非冷通道不必要的開孔予以密封,並且對機櫃後方及高架地板下方的線纜進行整理,以避免阻礙空氣流通或讓氣流意外通往錯誤的方向。

此外,胡哲寧說,機房管理人員也要了解與氣流管理有關的標準 (如TIA-942的內容),隨時掌握每個機櫃設備的耗電量、入口溫度,空調的製冷、風量及效率等資訊,而且更重要的是:健全自己的心態,千萬不要以為氣流管理是很困難的工作,因而害怕有所改變。像是採取冷熱氣流徹底隔離、依照實際設備散熱需求建置空調、將機櫃設備入口處設為ASHRAE所建議的攝氏27度、讓空調出風溫度接於設備入口溫度,以及儘量使用自然冷卻等方式,都對改善氣流管理效果很有幫助。

特別要注意的是:絕對要防堵任何可能導致冷熱氣流混合的洩漏。胡哲寧表示,這很容易產生局部熱點,並讓回風溫度因混風而縮小其溫差,使得管理人員必須再調低溫度、增加製冷耗能、調整空調機組以低負載方式運轉,最後導致機房空調整體效率不佳」此時機房人員或可選擇採用將冷卻系統移至機櫃邊,藉以縮短送風和回風路徑;在機櫃後方背板加裝水冷式散熱片以過濾熱風;封閉機櫃前的冷通道或機櫃後的熱通道;安裝煙囪連連接機櫃頂部及天花板等措施,對現行資訊機房冷熱隔離方式進行改善。

不過胡哲寧也指出,每一個方案都各自有其優缺點,如冷通道封閉雖能確保設備進風溫度及應用在高熱密度環境,但因為把整個機房都當成熱通道,使得環境的溫度會偏高,一旦空調因各式原因而無法運轉時,伺服器發生當機的可能性會提高許多。

最後還是要機房人員依照其空間、成本/效益、機房穩定性、施工困難度、管理難易度等層面評估各式方案的優缺點,仔細思考之後再視其需求予以選擇。而除了氣流管理之外,胡哲寧還舉出一些改善方向,像是進行動態PUE量測,以便即時了解能源消耗/機房能源性能及效率等環境狀況;依據ASHRAE的建議,調高冷通道溫度,降低冰水系統的能耗;建置變頻冰水主機、變頻泵、變頻風扇、變頻冷卻水塔;避免超量設計及主機台數的規劃;儘可能地使用模組化及高效率的變壓器(98%以上)及UPS系統(95%以上);加強房內部的線路管理,以及將實體伺服器進行整併與虛擬化等,可供有心朝往綠色機房發展的企業參考。