中文简体版   English   星期五 ,7月 17日, 2020 (台北)
登入  申請試用  MY DIGITIMES236
 
科技產業報訂閱
order

建置冷熱通道 提升機房能效

  • DIGITIMES企劃

企業欲降低機房能耗、使PUE顯著下滑,無疑需要對症下藥,優先瞄準機房內部的能耗大戶下手整頓;而一向佔機房總體能耗逾四成、甚至五成的空調系統,顯然就是頭號標的。

曾經有人估算,以一座IT設備用電量達100kW、PUE數值為2.5的資訊機房,則其非IT設備耗電量為150kW,總用電量為250kW,等於每小時需耗用250度電力,一年總耗電2,190,000度;若以台電每度電價新台幣3元作為計算基礎,則該機房一年電費高達新台幣657萬元。

實施冷熱通道隔離、甚至封閉,堪稱是提升資訊機房冷卻與能源效率的捷徑,最具立竿見影之效。來源Hetzner Online

沿用上述假設,如果該機房的IT設備用電量100kW不變,但PUE降為1.5,情況會變得如何?則其非IT設備耗電量減為50kW,總用電量減為150kW,等於每小時總用電量只剩150度,一年累計總用電量亦減至1,314,000度,而電費順勢降至新台幣394.2萬元,較原本大減四成之譜;前後改善幅度之大,肯定讓企業主眼睛為之發亮。

可以肯定,該企業內部不管是MIS、總務甚或其他職能人士,誰只要能獻策讓PUE從2.5降至1.5,他必定是企業主眼中的大紅人,日後可望加官晉爵。

不可諱言,PUE從2.5邁向1.5,就絕對數值來看,不過是少了1,看似沒什麼大不了,但要想有效實現,卻不是那麼簡單。以舉世聞名的Google為例,不僅費心部署高效率設備、確保冷熱通道分離,更採用諸如蒸發式冷卻水塔等獨特裝置,在資料中心的選址方面更是煞費苦心,儘可能落腳在寒冷的氣候區,再輔以自然冷卻系統的幫襯,才讓PUE降至令人稱奇的1.3以下水準。

反觀台灣企業,不僅身處亞熱帶,又未必有足夠的財力、人力、技術、知識,能與Google之類的巨擘等量齊觀,要做到1.5水平,雖然未必不行,但肯定不輕鬆。

然而不論難易,降低PUE,已是企業高階主管、機房管理者的共同願景與使命,絕非虛晃一招,既然如此,就得朝著最能立竿見影的面向切入;在此前提下,把矛頭指向耗電佔比高的空調系統,肯定錯不了。

但企業意欲朝向空調系統出手節能,不免有機房管理者為之擔憂,只因論及空調系統功耗的減少,不外是幾種做法。第一是按照ASHRAE建議,將冷通道溫度予以調高,如出風口溫度調高至攝氏22?23度、甚至高過25度皆可,如此才有助於降低冰水系統的能源消耗。

但問題是,對於企業來說,固然需要以節能為念,但不能矯枉過正導致IT資產損毀,明明伺服器供應商或SI都不建議將出風口溫度設於20度以上,否則容易有跳機疑慮,企業何苦冒險犯難?

第二種做法,便是採用諸如變頻冰水主機、變頻泵、變頻風扇、變頻冷卻水塔等變頻空調系統;但問題是,針對上述各個項目,企業目前都有相對應的「非變頻」傳統機種,它們的節能效率或許較為遜色,但當初都是大把白花花的鈔票買進的,現在又非老朽不堪運轉,如今要管理者送上企劃書,建議老闆將它們一個個全換,再砸下大錢引進新設備,又得耗時多年才可能回收投資,如此提案,機房管理者實在難以啟齒。

第三種做法,與上述做法有些類似,都是需要花一筆大錢買進新設備,只不過標的物變成了自然冷卻系統;機房管理者通常不是氣象專家,再加上台灣一年四季溫差還算不小,究竟採用水側自然冷卻的效益高?抑或空氣側自然冷卻的效益高?實在沒有太大把握,與其硬著頭皮寫下恐有破綻的企劃書,倒不如不要蹚渾水為宜。

其實擁有前述想法的機房管理者,姑且無論其心中疑慮,是否真有幾分道理,但可以確定,他們忽略了眼下最不需耗費成本,而且快速見效的改善措施,那便是建立冷熱通道,藉此減少混風、避免熱點發生。

建立冷熱通道  無需以大空調對抗小熱點

畢竟企業機房最亟欲解決的疑難雜症,並不是整間機房都很熱,而是一些局部熱點,依照傳統做法,企業並未善盡冷熱通道隔離,等於是利用整間機房來實施冷卻,為的只是解決一小撮的熱點,到頭來只能把空調溫度降低,殊不知設定的溫度愈低,效率就愈差,耗電量也愈大,最後還不見得有效處理掉哪些熱點。

有專家建議,最簡單的冷熱通道建置方式,無需在兩通道之間費心隔離,甚至無需建立冷通道,只要在每台機櫃背後安裝集風管,藉以集中熱風,再送進空調系統實施冷卻,再運用塑膠片隔離出熱通道、並增加一個出口,即大功告成;如此做法,雖有部署風管需要施工之缺點,但由於方法簡便、快速見效,因此頗獲SI或用戶喜好,尤其在於運算密度較高的機房,採納此一做法的可能性愈大。

另一種方式,聽起來也不難,做起來卻頗有阻礙,那就是調整機櫃的擺設座向,將原本前後各排背對面的一致擺設方式,變成面對面、背對背的兩兩相對型態,如此一來,鄰近兩排正面相對的機櫃之間,就形成了冷通道。

相對而言,鄰近兩排背面相對的機櫃之間,即是熱通道,僅需將冷空氣送進冷通道,至於熱通道所產生的熱氣,將由天花板上方的回風口排出,藉由空調單元機組CRAC冷卻再循環,不致再流向冷通道造成混風,更可避免過往前後排機櫃吸入風溫不均、因而產生散熱不佳甚或過熱當機之現象。

有一個在業界流傳的真實案例,早在10年前,某位在東部的電信機房,空間面積不算大,卻動用了駭人聽聞的1,100噸空調負載,更離譜的是,即便如此,溫度還是降不下來,每月至少燒掉一片機板,更耗費可觀電費支出,業主眼見事態嚴重,於是急忙向專業技師求助。

結果技師靠著計算流體力學(Computational Fluid Dynamics;CFD)軟體,將原本紊亂不堪的氣流流場,調整至順暢的狀態,再順道於回風口加裝風機,如此一來,等於是區隔出冷熱通道,進而減少混風、消滅熱點,不僅讓業主無需再花大錢追加冷氣噸數,反倒將空氣負載退縮至300噸加300噸(旨在交替運轉)格局,便使機房溫度低於以往,從此再也未曾發生機板燒毀事故,且足足省下40%電費,可謂一舉數得,短期投資報酬率高得嚇人。

但前面提到,諸如這般調整機櫃擺設、優化氣流管理的做法,縱使看似簡單、也無需額外安裝過多設備,但仍有施行上的阻礙,不知所指為何?答案揭曉,即是業主或機房管理者唯恐調整機櫃擺設位置,因而導致一段時間必須停機,勢將衝擊IT應用服務的正常運行,因此寧可繼續忍受高能耗、或再多花時間商討對策,仍不傾向採取此一措施。

也有人認為,上述冷熱通道之所以隔離,僅是利用機櫃體積,控制了冷熱循環的流動方向而已,並未把混風的路徑給完全堵死,只因機房仍是一個對流空間,難保若干熱空氣不會藉由任何縫隙繞過機櫃,再與冷空氣混合;因此最好的方式便是「封閉」,冷通道封閉也可、通道封閉也行,總之才能徹底杜絕一絲一毫的冷熱混風現象。

例如若干資料中心,一方面運用條狀PVC塑膠垂簾以封閉冷通道,二方面則於機櫃上方再利用壓克力板加以隔絕,即是值得參考的冷通道封閉做法。此對於位在頂樓或西曬位置、不適合採行熱通道封閉的機房,無疑相當適用。