機房設計有一套 建置標準需知曉 智慧應用 影音
工研院
Event

機房設計有一套 建置標準需知曉

魔力門部落格版主ZMAN指出,當前資料中心的演進,是從一開始大型主機的集中式架構,進展到主從式Client-Server及分散式運算的分散式架構,再到當前以服務為導向的虛擬化架構,並由此帶動整合、虛擬化及自動化的需求。服務導向式資料中心的架構,主要由底層的實體層(包括冷卻、電力、纜線及空間)、其上層為運算、儲存及I/O網路所構成的IT基礎設施,再上層為服務及邏輯,最上層則為服務導向的應用及服務。

隨著當前伺服器年成長率達12%,儲存複合年增率達40~70%,能源支出增長為IT預算的近3成,導致資料中心空間及電力設施的品質及可用性急速下降。Gartner即曾指出,在未來3年內,有5成大型組織會面臨能源年支出高於伺服器年預算的窘境。

魔力門部落格版主 ZMAN。

魔力門部落格版主 ZMAN。

資料中心虛擬化已成為不可抵擋的潮流,這點可從各大企業紛紛展開資料中心的整併風潮看出。例如惠普(HP)將旗下85個資料中心整併為6個大型中心,阿爾卡特(Alcatel)也從25個合併至6個,DHL則從8個整併為1個。

面對資料中心的基礎設施,各設施的標準絕對是管理人員必須仔細鑽研的功課。例如冷卻方面的ASHRAE、ITE接地的IEEE 1100,電力方面還有國家電氣法規(National Electrical Code;NEC),此外還有一系列的TIA/EIA標準,其中568為銅纜?光纜方面標準、606牽涉管理、空間走道的569、外線工程的758-A。針對資料中心基礎設施,必須關注的重點莫過於「ANSI/TIA-942資料中心電信基礎設施標準」 (Telecommunication Infrastructure Standard for Data Centers),該標準第1版早在2005年即正式對外發布,也是針對資料中心所發布的第1個標準。

資料中心有3大關鍵指標,分別為可靠性(Reliability)、可服務性(Serviceability)、可用性(Availability),評斷可靠性的準則為平均故障間隔時間(Mean Time Between Failures;MTBF),可服務性為平均維護時間(Mean Time to Repair;MTTR),至於可用性的評斷方法,同時包括MTBF及MTTR。由這3個指標衍生出資料中心的4個層級(Tier 1-Tier 4),以做為評估資料中心3大指標表現之依據。

就散熱而言,當前機房散熱方式是從每機架2kW的Room Cooling,進展到每機架8kW的Row Cooling,再到每機架20kW的Cabinet Cooling。TIA-942對於冷熱通道有極為明確的定義,其中規定熱通道位於機櫃後方,冷通道在機櫃前方,2個通道地板皆可抬高,冷熱通道的邊界是以機櫃前後對準地板邊緣為準。

在空調方面,需注意吸頂式冷氣,其密度要高,但每台機櫃電力卻不高;水冷主機密度要高,每機櫃電力也高;至於機櫃冷氣,密度不高,每機櫃電力也不高。所以機房空調規劃需與系統機櫃熱源相整合。

櫃對櫃布線的演進,大致從非結構化布線,進展到結構化布線架構。針對結構化布線,目前採用的有模組式CAT6A布線系統、模組式光纖布線系統。在區域布線(Zone Cabling)方面,大致分成輕鋼架上方、櫃頂梯架旁及高架地板下3種,輕鋼架上方之散熱管理提升了空氣流動性,以提高散熱,適合高溫負荷開關應用的PoE設備;櫃頂梯架旁則特別適用於需增加更多空間於機架或機櫃位上的數據中心或電信室;高架地板下的特點,在於無須安裝任何額外組件,本體機箱外殼即可形成高架地板之底座。

再就機房的共同地接網(CBN)來說,就TIA-942建議,每間隔1個高架地板腳柱需有接地主線通過,亦即120cm×120cm的接地網,同時需機械性接合(不建議火泥熔接),而高架地板下的接地主線,最好採用線徑14~30平方公厘的裸銅線,建議採30平方公厘,如此才可達到5歐姆的接地阻抗目標。