何露
摘要:從風(fēng)起云涌的云計(jì)算、到撲面而來的大數(shù)據(jù),再到無處不在的移動互聯(lián)網(wǎng)應(yīng)用,傳統(tǒng)IDC數(shù)據(jù)中心需即時處理的業(yè)務(wù)量及數(shù)據(jù)量正以指數(shù)級速度增長。如何應(yīng)對新時代需求,為保障原有機(jī)房建設(shè)投資,充分發(fā)揮現(xiàn)有資源利用率,對傳統(tǒng)lDC數(shù)據(jù)中心進(jìn)行改造已成為亟待解決的問題。本文就根據(jù)IT設(shè)備特性及l(fā)DC機(jī)房配套特點(diǎn),對傳統(tǒng)IDC數(shù)據(jù)中心基礎(chǔ)設(shè)施改造關(guān)鍵點(diǎn),包括機(jī)房電源、空調(diào)及承重等行闡述及分析。
關(guān)鍵詞:X86服務(wù)器;磁盤陣列;UPS;HVDC
以往國內(nèi)三大電信運(yùn)營商為保障業(yè)務(wù)系統(tǒng)的穩(wěn)定性及高效業(yè)務(wù)處理能力,使用Unix服務(wù)器比重較高,導(dǎo)致建設(shè)、使用成本一直保持在高位(包括:采購成本、設(shè)備能耗、維護(hù)成本及機(jī)房配套建設(shè),等),且Unix服務(wù)器的RISC架構(gòu)非標(biāo)準(zhǔn)化,導(dǎo)致集中管理困難,不同品牌設(shè)備之間無法實(shí)現(xiàn)共享,水平擴(kuò)展能力有限的弊端日益凸顯。
1 IT 硬件設(shè)備比對及選型
隨著X86服務(wù)器的處理性能及可靠性不斷提升,X86服務(wù)器替代Unix服務(wù)器的時代已經(jīng)來臨。目前單臺X86服務(wù)器可達(dá)150萬~200萬tpmc的處理能力,完全可與中、低端Unix服務(wù)器媲美,且可靠性升已至99.72%,再輔以云計(jì)算、集群技術(shù),可靠性甚至超過小型機(jī);此外,X86服務(wù)器的軟件支持環(huán)境和兼容性相比架構(gòu)較為封閉的小型機(jī)更具優(yōu)勢。因此目前處理能力小于120萬tpmc的中低端小型機(jī)已逐漸被X86服務(wù)器直接替代,而高端小型機(jī)目前主要部署重要業(yè)務(wù)數(shù)據(jù)庫,如計(jì)費(fèi)、客戶信息管理,等,也可逐漸通過X86服務(wù)器集群代替。
1.1 IT建設(shè)設(shè)備介紹
本文主要就目前某電信運(yùn)營商集采模型配置下,對IBM、HP、DELL及華為幾種主流品牌X86服務(wù)器進(jìn)行比對,并歸納出不用檔次下設(shè)備特性。
通常傳統(tǒng)lDC機(jī)房,單機(jī)架輸入電流通常為10~16A??沙休d功耗為2~3KW,可承載設(shè)備數(shù)量有限,架內(nèi)空間浪費(fèi)嚴(yán)重。但如若單機(jī)架功耗在7KW以上,雖然能提高架內(nèi)空間利用率,但為保障設(shè)備工作溫度,需要部署分體式精確送風(fēng)空調(diào),將勢必大幅增加機(jī)房改造難度及投資。因此為控制成本,提高機(jī)房利用率的平衡下,目前單機(jī)架實(shí)際功耗通常控制在4.5~7KW。在以下各類型X86服務(wù)器的對比,采用部署于5KW單機(jī)架模型環(huán)境中進(jìn)行對比分析。
低檔X86服務(wù)器(1U高)配置模型為,CPU:2路6核;內(nèi)存:64G;硬盤配置8塊。參考CPU為Intel Xeon E5-2620,單臺最大處理能力為101.5萬tpmc,同檔次設(shè)備單臺最大功耗分布于430~490W之間;
中檔X86服務(wù)器(2U高)配置模型為,CPU:2路8核;內(nèi)存:128G;硬盤配置16塊。參考CPU為Intel Xeon E5-2690,單臺最大處理能力為180萬tpmc,同檔次設(shè)備單臺最大功耗分布于488~691W之間;
高檔X86服務(wù)器(4U高)配置模型為,CPU:4路10核;內(nèi)存:256G;硬盤配置10塊;高度4U。參考CPU為Intel Xeon E7-8870,單臺最大處理能力為319萬tpmc,同檔次設(shè)備單臺最大功耗分布于1100-1400W之間;
刀片服務(wù)器(僅配置半高刀片,單片配置CPU:2顆Intel E5-2690;內(nèi)存:64G;硬盤:2塊)。如若單框配滿16塊刀片,則最大處理能力2880萬tpmc/臺,同檔次設(shè)備單臺最大功耗分布于5500~7440W之間;刀片服務(wù)器(僅配置全高刀片,單片配置CPU:4顆Intel E7-8870;內(nèi)存:128G;硬盤:2塊)。如若單框配滿8塊刀片,則最大處理能力2550萬tpmc/臺,同檔次設(shè)備單臺最大功耗分布于5500~6820W之間。
根據(jù)以上分析。在5KW機(jī)架內(nèi)各檔次X86服務(wù)器的設(shè)備數(shù)量、處理能力、內(nèi)存容量、存儲容量及I/O處理能力橫向?qū)Ρ热缦拢?/p>
由圖1可見,刀片服務(wù)器,不論配置半高還是全高刀片,由于單臺設(shè)備滿配功耗較大,因此實(shí)際相對其他類型服務(wù)器在存儲容量及I/O處理能力均最低。導(dǎo)致架內(nèi)空間使用率不高;4U高PC服務(wù)器,由于其高配置使得單機(jī)架內(nèi)的內(nèi)存容量最高,但其單機(jī)架內(nèi)的業(yè)務(wù)處理能力、硬盤存儲容量及I/O處理能力表現(xiàn)卻不盡理想。而1U及2U高服務(wù)器在內(nèi)存、存儲能力、I/O處理能力均優(yōu)于其他機(jī)型,且2U服務(wù)器存儲容量最大,因此1U及2U服務(wù)器在業(yè)務(wù)承載能力、機(jī)房能耗控制及機(jī)房空間利用率方面表現(xiàn)最優(yōu)。因此,也是lDC數(shù)據(jù)機(jī)房中X86設(shè)備的主要選型。
目前,運(yùn)營商已逐步將現(xiàn)有業(yè)務(wù)由Unix服務(wù)器向X86服務(wù)器遷移,并通過云資源池的方式降低建設(shè)成本、實(shí)現(xiàn)硬件資源的靈活配置及擴(kuò)展,最終助力其提高IT資源自動化管理和部署水平,提高企業(yè)IT系統(tǒng)的市場響應(yīng)能力。
1.2 磁盤陣列
本文選取了國內(nèi)電信運(yùn)營商采用的主流磁盤陣列進(jìn)行分析,分別是EMC的VMAX-4、HP P9500以及Fujitsi ETERNUS DX8700 S2,其存儲容量在2PB以上,但除HP P9500單機(jī)架功耗為7.1KW,其他兩型號的磁盤陣列,功耗均在5.5KW以內(nèi)。明顯可看出。相比以往大型磁盤陣列,單機(jī)架盤陣已不再對動力系統(tǒng)造成巨大負(fù)擔(dān),但單機(jī)架功耗均在500kg以上,且各品牌磁盤陣列擴(kuò)容安裝需求各異,因此應(yīng)注重在安裝部署前核算安裝機(jī)房樓板承重能力并預(yù)留相應(yīng)擴(kuò)容空間。
2 新增IT設(shè)備對機(jī)房配套的相應(yīng)估算
2.1 動力系統(tǒng)
2.1.1 UPS系統(tǒng)容量核算
傳統(tǒng)電信運(yùn)營商IDC數(shù)據(jù)中心多采用UPS(1+1)并機(jī)供電系統(tǒng)。隨著單機(jī)架功耗的增高,現(xiàn)有動力系統(tǒng)可承載能力的準(zhǔn)確核算及相應(yīng)改造措施,愈發(fā)重要。當(dāng)動力系統(tǒng)需要新增大量負(fù)載時,需對UPS動力系統(tǒng)進(jìn)行估算,并且為避免電流擾動,應(yīng)盡量保證UPS系統(tǒng)三相負(fù)載平衡。
本文以UPS 1+1并機(jī)為例,僅推演A相容量估算為例,其他相荷載可依次類推。
A相最大安全承載電流:
A相可用電流:
A相可用電源容量:
新增負(fù)載后A相冗余電流:
UPS可用電源容量:
UPS冗余電源容量:
注:(1)S為UPS視在功率、及分別為UPS1及UPS2各已承載的電流容量;(2)為UPS功率因素。通常,動力系統(tǒng)設(shè)備(UPS,頭柜等)功率因素PF≥0.88(具體需與局方電源專業(yè)負(fù)責(zé)人確認(rèn));設(shè)備(服務(wù)器、存儲、網(wǎng)絡(luò)設(shè)備)功率因素PF≥0.9(具體需與設(shè)備廠家確認(rèn));(3)在核算時,乘以80%是為整個UPS系統(tǒng)預(yù)留20%的安全冗余容量。
當(dāng)及均大干零,且新增荷載后的UPS系統(tǒng)基本保持三相平衡,則說明可新增該相應(yīng)負(fù)荷。若存在三相不平衡的情況,需主動調(diào)整新增荷載及現(xiàn)有荷載的分布。如果或單項(xiàng)冗余電流小于零,則無法新增相應(yīng)荷載。此時需考慮新建一套動力系統(tǒng)以滿足新增需求。
2.1.2 HVDC系統(tǒng)容量估算
由于高壓直流系統(tǒng)(HVDC)相對傳統(tǒng)UPS系統(tǒng),在系統(tǒng)可靠性、系統(tǒng)能耗利用率、擴(kuò)容能力、可維護(hù)性等方面更盛勝一籌,因此近年來在IDC數(shù)據(jù)中心供電系統(tǒng)中HVDC成為新寵。
其容量估算方案如下(以新增為例):
新增負(fù)載電流:
其電池供電電流:
供電電池組容量;
新增總電流:
需要HVDC整流模塊量
注:(1)電池組2V一組,因此每套電池組為2組*120只/組;(2)在中,K為電池保險系數(shù),取1.25;T為電池后備時間,取1小時;η為電池放電系數(shù),取O 55;α為電池溫濕度系數(shù)(當(dāng)1小時≤放電率≤10小時,取O 88)。電池環(huán)境溫度,取15℃;(3)需要HVDC整流模塊量N≤10,根據(jù)依據(jù)實(shí)際配置N+1塊,若當(dāng)N>10,則根據(jù)實(shí)際配置N+2塊,以作冗余保護(hù)。
當(dāng)高壓直流頭柜的可用電流()大于零時,可滿足新增需求。
2.2 暖通系統(tǒng)
即使動力系統(tǒng)滿足新增功耗的需求,但大量的新增設(shè)備在運(yùn)行中也帶來了大量熱量,導(dǎo)致機(jī)房溫度大幅提升,嚴(yán)重影響大量精密設(shè)備的工作環(huán)境,給業(yè)務(wù)系統(tǒng)帶來巨大隱患。因此除對了對動力系統(tǒng)進(jìn)行評估外,也需對暖通系統(tǒng)進(jìn)行評估。
本文僅針對已有IDC機(jī)房進(jìn)行評估,因此不討論新建機(jī)房的制冷量估算。
假設(shè)現(xiàn)有空調(diào)N+1臺,單臺標(biāo)稱顯冷量為,該設(shè)備已運(yùn)行3年以上,則其估算方法如下:
實(shí)際有效顯冷量:
環(huán)境熱負(fù)荷:
剩余空調(diào)顯冷量:
注:(1)由于設(shè)備已運(yùn)行3年以上,實(shí)際有效顯冷量需考慮20%的折舊率;(2)環(huán)境熱負(fù)荷為機(jī)房內(nèi)人員及照明熱負(fù)荷,通常取015~018;(3)為現(xiàn)有設(shè)備及新增設(shè)備實(shí)際運(yùn)行功耗之和當(dāng)>O時。現(xiàn)有空調(diào)系統(tǒng)能夠滿足新增需求。
此外,目前IDC機(jī)房也多采用封閉冷通道的方式,提升設(shè)備制冷效果。設(shè)備機(jī)架采用“面對面,背靠背”的布置方式,將冷熱通道分開;架內(nèi)設(shè)備空隙需用隔板封閉,防止冷熱氣流交叉;根據(jù)單機(jī)架功耗核算冷池寬帶:(1)冷池寬度=單塊透風(fēng)地板寬度*2*單機(jī)架功耗KW/單塊透風(fēng)地板制冷量;(2)單塊透風(fēng)地板制冷量==0.6m*0.6m(地板尺寸)*50%(風(fēng)口開孔率)*2m/s(風(fēng)口風(fēng)速)/3600s(1小時)÷空調(diào)1KW制冷量=1296m3/h÷270m3/h=4.8KW
2.3 其他確認(rèn)關(guān)鍵點(diǎn)
由于磁盤陣列單機(jī)架滿配通常在500kg以上,在新增前需對機(jī)房樓板承重能力進(jìn)行核算。對于承重要求較高的設(shè)備,應(yīng)優(yōu)先選擇規(guī)劃在機(jī)房橫梁或立柱附近,并在設(shè)備下方部署散力架。如若設(shè)備機(jī)房在2樓以上。應(yīng)確認(rèn)是否有載貨電梯,且核定其載重量應(yīng)≥2噸以上,電梯轎廂尺寸≥1.5m(寬)*2.6m(深)*2.7m(高),以保證新增大型磁盤陣列的入駐安裝。
3 結(jié)語
盡管IT設(shè)備已逐步向節(jié)能環(huán)?;l(fā)展,但未來IT設(shè)備單機(jī)架功耗、重量仍將逐步提高。為了充分提高機(jī)房資源利用率,未來IDC數(shù)據(jù)機(jī)房動力系統(tǒng)將更多采用HVDC系統(tǒng)并逐步替代UPS系統(tǒng),封閉冷通道將被普遍運(yùn)用,機(jī)房承重及其相關(guān)配套將更加備受重視。因此我們在進(jìn)行IDC機(jī)房改造時應(yīng)對機(jī)房的動力系統(tǒng)、暖通系統(tǒng)及承重等方面進(jìn)行準(zhǔn)確評估,對保障信息系統(tǒng)建設(shè)的可行性及建設(shè)進(jìn)度具有重要意義。