林生洪
摘 要:傳統(tǒng)的IT架構(gòu)始終有一個80/20困境,即80%的精力成本在建設(shè)和維護,20%的精力成本在使用和優(yōu)化。長久以來企業(yè)把IT建設(shè)的精力過多的放在IT基礎(chǔ)設(shè)施本身,而不是IT所能提供的根本價值(即企業(yè)的應(yīng)用和服務(wù))。換句話說,IT實際上應(yīng)當(dāng)是一種工具和資源,就如同水、電、能源等等這些企業(yè)生產(chǎn)所需的工具和資源一樣,但企業(yè)使用的水、電從來不過多介入到取水、發(fā)電這些具體工作中去,而企業(yè)使用的IT資源正相反,形成建設(shè)和使用的倒掛。
關(guān)鍵詞:新一代數(shù)據(jù)中心;局域網(wǎng)建設(shè)
中圖分類號:TP73+.5 文獻標(biāo)識碼:A 文章編號:1006-8937(2016)33-0008-02
1 傳統(tǒng)數(shù)據(jù)中心架構(gòu)的問題
業(yè)界從互聯(lián)網(wǎng)云計算的概念得到啟發(fā),開辟了嶄新的數(shù)據(jù)中心架構(gòu)模式,以解決長期困擾的業(yè)務(wù)發(fā)展與基礎(chǔ)資源的矛盾和瓶頸問題。即如果能夠把IT的資源當(dāng)成用水用電一樣、并且以一種可量化其“質(zhì)”和“量”的標(biāo)準(zhǔn)服務(wù)的方式交付給資源的使用者,就能從根本上解決問題。這種使用IT資源的方式最早形成在互聯(lián)網(wǎng)應(yīng)用的交付過程中,互聯(lián)網(wǎng)應(yīng)用的使用者往往不關(guān)心IT資源的具體存在形態(tài)(象云一樣無時不在、無所不在),而只需要對互聯(lián)網(wǎng)應(yīng)用的賬號賦予可度量的成本,即可按該賬號所賦予的使用量、使用規(guī)則和質(zhì)量來使用互聯(lián)網(wǎng)服務(wù)。對于這種IT服務(wù)的使用方式,我們就可以把更多的精力放在如何使用好它們,而不必浪費精力于IT資源本身。這就是最原本的云計算含意。云計算的重大意義在于解決了傳統(tǒng)IT中的建設(shè)和使用倒掛的80/20困境。
實際上云計算概念的引入,已經(jīng)重新定義了傳統(tǒng)專網(wǎng)中獲取資源的模式,即使沒有互聯(lián)網(wǎng)的資源規(guī)模效應(yīng)前提,也可以從根本上扭轉(zhuǎn)剛才提及的80/20資源應(yīng)用的矛盾。我們先研究傳統(tǒng)IT架構(gòu)是怎么導(dǎo)致80%精力耗費在資源的建設(shè)和維護的。具體而言存在如下問題:
①維護管理難,靈活性差:在傳統(tǒng)構(gòu)架中業(yè)務(wù)與底層資源的關(guān)系是呈豎井方式(Silo),網(wǎng)絡(luò)中進行業(yè)務(wù)擴容、遷移或增加新的服務(wù)功能越來越困難,每一次變更都將牽涉相互關(guān)聯(lián)的、不同時期按不同初衷建設(shè)的多種物理設(shè)施,涉及多個不同領(lǐng)域、不同服務(wù)方向,工作繁瑣、維護困難,而且容易出現(xiàn)漏洞和差錯。
②資源利用率低:傳統(tǒng)架構(gòu)豎井方式對底層資源的投入與在上層業(yè)務(wù)所收到的效果很難得到同比發(fā)展,最普遍的現(xiàn)象就是忙的設(shè)備不堪重負(fù),閑的設(shè)備資源儲備過多,二者相互之間又無法借用和共用。
③服務(wù)策略不一致:傳統(tǒng)豎井架構(gòu)最嚴(yán)重的問題是這種以孤立的設(shè)備功能為中心的設(shè)計思路無法真正從整個系統(tǒng)角度制訂統(tǒng)一的服務(wù)策略。
2 面向云計算的新一代數(shù)據(jù)中心局域網(wǎng)架構(gòu)
新一代數(shù)據(jù)中心局域網(wǎng)的目標(biāo)是構(gòu)建一個可持續(xù)發(fā)展的、新一代的面向云計算的數(shù)據(jù)中心架構(gòu)。將數(shù)據(jù)中心的IT資源池化,通過智能的業(yè)務(wù)調(diào)度機制、以可計量的方式按需、 保質(zhì)的取用資源,滿足業(yè)務(wù)需求的同時屏蔽底層的復(fù)雜性,使用戶可以把更多精力投入到IT資源的優(yōu)化應(yīng)用上去。如圖1所示。
IT應(yīng)用、服務(wù)器計算、I/O網(wǎng)絡(luò)、存儲等資源的虛擬和池化、按需調(diào)用IT資源,實際上就是云計算的“架構(gòu)即服務(wù)”(IaaS)模式。這種架構(gòu)下的數(shù)據(jù)中心相比之前的豎井化的傳統(tǒng)數(shù)據(jù)中心有如下明顯優(yōu)勢:
①隨需而動的業(yè)務(wù)靈活性:上層業(yè)務(wù)的變更作用于物理設(shè)施的復(fù)雜度降低,能夠最低限度的減少物理資源的直接調(diào)度,使維護管理的難度和成本大大降低。方便隨業(yè)務(wù)的調(diào)整和變遷而靈活供給所需資源,而基礎(chǔ)架構(gòu)保持穩(wěn)定不變。
②高效資源優(yōu)化復(fù)用:使得物理資源可以按需調(diào)度,物理資源得以最大限度的重用,減少建設(shè)成本,提高使用效率。一方面總硬件資源占用量降低了,另一方面每個業(yè)務(wù)得到的服務(wù)反而更有充分的資源保證了。
③全局策略一致性:統(tǒng)一的智能化調(diào)度屏蔽了具體設(shè)備個體的策略復(fù)雜性,能夠最大程度的在設(shè)備層面以上建立統(tǒng)一、一致的服務(wù)體驗。根據(jù)上層業(yè)務(wù)對服務(wù)要求的不同,可定義調(diào)用的條件和方式,從而方便的對不同業(yè)務(wù)提供相適應(yīng)的策略和合規(guī)性約束,這樣整個IT將可以達(dá)到理想的服務(wù)規(guī)則和策略的一致性。
3 新豐江發(fā)電公司局域網(wǎng)改造設(shè)計思路
新豐江發(fā)電公司的信息化建設(shè)已比較成熟,經(jīng)過多年的經(jīng)營完善已取得了一些成果,有效的推動了公司的信息化辦公的發(fā)展。 由于當(dāng)時的條件所限,新豐江局域網(wǎng)在建設(shè)初期,物理架構(gòu)上采用單核心、單鏈路設(shè)計,隨著接入終端的增多,接入層使用級聯(lián)方式得到了快速擴充。在邏輯架構(gòu)上,業(yè)務(wù)流量沒有得到合理的梳理,比如互聯(lián)網(wǎng)出口及粵電網(wǎng)接入在物理上可以形成了互備條件,但實際的路由配置卻未能實現(xiàn)?;A(chǔ)網(wǎng)絡(luò)架構(gòu),如圖2所示。
如上圖所示,新豐江的局域網(wǎng)在可靠性、健壯性、數(shù)據(jù)轉(zhuǎn)發(fā)的高效性有很大的是升空間,以確保業(yè)務(wù)的永續(xù)性。為了充分滿足當(dāng)前和未來的業(yè)務(wù)需求,有必要對現(xiàn)有的網(wǎng)絡(luò)進行合理規(guī)劃與升級,以此更好的滿足日益擴大的業(yè)務(wù)需求,更好的發(fā)揮發(fā)電公司在當(dāng)?shù)貒窠?jīng)濟中的重要作用。局域網(wǎng)改造應(yīng)滿足以下要求。
3.1 采用新一代的云計算標(biāo)準(zhǔn)建設(shè)局域網(wǎng)
使用成熟的、商用化的云計算技術(shù)改造現(xiàn)有局域網(wǎng),建立一套穩(wěn)定和可持續(xù)發(fā)展的云計算數(shù)據(jù)中心局域網(wǎng)架構(gòu),并在此架構(gòu)上規(guī)劃未來5年的業(yè)務(wù)部署,以滿足業(yè)務(wù)長期持續(xù)的擴展能力,在運營和使用中收獲長期效益。
3.2 構(gòu)建面向云服務(wù)的高可靠性
整個網(wǎng)絡(luò)系統(tǒng)必須有很高的安全性、可靠性和一定程度的冗余。
3.3 網(wǎng)絡(luò)的預(yù)見性和架構(gòu)通用性
隨著未來用戶應(yīng)用規(guī)模的不斷擴大,設(shè)計必須具備一定的預(yù)見性和架構(gòu)通用性,對于可預(yù)見的發(fā)展趨勢,網(wǎng)絡(luò)架構(gòu)必須從當(dāng)前設(shè)計中給予充分考慮,并提供無須進行大的架構(gòu)改變而能適應(yīng)未來5年網(wǎng)絡(luò)升級的穩(wěn)定、通用的架構(gòu),最大限度保護投資,獲得總擁有成本優(yōu)勢。
4 新豐江局域網(wǎng)改造設(shè)計模型
新豐江發(fā)電公司數(shù)據(jù)中心局域網(wǎng)絡(luò)將采用層次化、模塊化的設(shè)計、并采用了網(wǎng)絡(luò)虛擬化技術(shù)、以太網(wǎng)鏈路捆綁技術(shù),極大的增加了網(wǎng)絡(luò)的可靠性、健壯性、及數(shù)據(jù)轉(zhuǎn)發(fā)的高效性。如圖3所示。
4.1 采用偏橫向的層次化、模塊化結(jié)構(gòu)的優(yōu)勢
①節(jié)約成本:局域網(wǎng)意味著巨大的業(yè)務(wù)投資,正確設(shè)計的局域網(wǎng)可以提高業(yè)務(wù)效率和降低運營成本。
②便于擴展:一個模塊化的或者層次化的網(wǎng)絡(luò)由很多更加便于復(fù)制、改造和擴展的模塊所構(gòu)成,在添加或者移除一個模塊時,并不需要重新設(shè)計整個網(wǎng)絡(luò)。每個模塊可以在不影響其他模塊或者網(wǎng)絡(luò)核心的情況下投入使用或者停止使用。
③加強故障隔離能力:通過將網(wǎng)絡(luò)分為多個可管理的小型組件,企業(yè)可以大幅度簡化故障定位和排障處理時效。
④符合運維管理的基本準(zhǔn)則:在運維管理中,對不同的變更有嚴(yán)格的系統(tǒng)影響評估,給予不同的變更流程。比如對核心系統(tǒng)的任何配置變更應(yīng)經(jīng)過多級嚴(yán)格審查、制定嚴(yán)格回退預(yù)案、經(jīng)過專家和專門廠商技術(shù)人員的審批、并應(yīng)在非生產(chǎn)時間完成,而對邊緣設(shè)備的變更則由于其影響較小,則會用比較簡易的流程完成。如果沒有層次劃分,那么任何變更都將被看出對核心系統(tǒng)有直接影響的行為,企業(yè)IT維護管理的靈活性和可用性將大為降低。
4.2 構(gòu)建沒有生成樹協(xié)議的無環(huán)二層網(wǎng)絡(luò)
在解決二層環(huán)路的問題上,傳統(tǒng)的方案是運行STP協(xié)議,它邏輯上阻塞一個端口來達(dá)到無環(huán)的效果,但是這樣卻犧牲一條鏈路的帶寬,而且當(dāng)網(wǎng)絡(luò)拓?fù)浒l(fā)生改變時,STP會重算,即使是快速生成樹協(xié)議收斂時間也要5 S以上,這對于可靠性強的網(wǎng)絡(luò)來說是無法忍受的。
HSRP和VRRP是最常用的FHRP,但它們只允許VLAN上的主機一次僅與一個交換機通信,因此連接核心層的冗余鏈路不傳輸任何流量。
GLBP是較為新型的協(xié)議,支持一定程度的負(fù)載均衡,將輸出流量分?jǐn)偟絻蓚€核心層路由器。但返回的流量一般在流量中占主要部分,它們可能并不進行負(fù)載均衡,因此它還是不足以滿足大多數(shù)系統(tǒng)的需求。
4.2.1 傳統(tǒng)STP網(wǎng)絡(luò)缺陷
傳統(tǒng)STP網(wǎng)絡(luò)結(jié)構(gòu),如圖4所示。
在新豐江的局域網(wǎng)改造設(shè)計中,我們把核心設(shè)備虛擬成邏輯上的單臺設(shè)備,并通過堆疊或其它虛擬化技術(shù)把匯聚也邏輯虛擬成單臺設(shè)備,這樣做除了解決毫秒級的冗余互備外,同時解決了環(huán)路的問題外,另外還有兩個好處:
①首先接入層設(shè)備兩鏈路上聯(lián)匯聚,所以兩條鏈路都走業(yè)務(wù)流量;②其次從匯聚到核心,從接入到匯聚,可以采用以太網(wǎng)聚合技術(shù)把兩條或多條物理鏈路捆綁起來,在增加帶寬的同時也增強了網(wǎng)絡(luò)的可靠性。
4.2.2 新的二層網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計
新的二層網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計,如圖5所示。
新的設(shè)計中,對核心層/匯聚層和接入層交換機來說,看似只有單一鏈路。從接入層到核心層的兩條上行鏈路作為一個以太網(wǎng)鏈路捆綁鏈路,為了更好的彈性,上行的鏈路在兩臺匯聚交換機上實現(xiàn)鏈路捆綁。因為匯聚層到每個接入層交換機只有單一邏輯鏈路,進而形成了邏輯上的星形拓?fù)?,所以不會再出現(xiàn)回環(huán)拓?fù)浣Y(jié)構(gòu)。
4.2.3 優(yōu) 勢
①不會有網(wǎng)絡(luò)拓?fù)涓滦枰猄TP重收斂,因此恢復(fù)速度加快。②不會出現(xiàn)上行鏈路阻塞的情況。③從接入層交換機到核心層/匯聚層的兩條鏈路通過以太通道進行負(fù)載均衡,因此輸入和輸出數(shù)據(jù)由鏈路共同傳輸,提高了鏈路利用效率。④對接入層的每個VLAN來說,核心層/匯聚層僅有一個邏輯接口。因此就不必運行第一跳冗余協(xié)議,從而簡化配置。⑤通過“NIC聚合”(802.3ad端口通道)提供高可用性和負(fù)載均衡。
5 結(jié) 語
新豐江發(fā)電公司局域網(wǎng)采用云計算架構(gòu)的建設(shè)思路,構(gòu)建的數(shù)據(jù)中心局域網(wǎng)就有希望走出80/20的模式,從IT資源建設(shè)上節(jié)省下的時間、精力和成本可以轉(zhuǎn)換為對IT資源更好的利用,從而更加有效的推動企業(yè)的生產(chǎn)力發(fā)展。
參考文獻:
[1] 魏飛.淺談網(wǎng)絡(luò)工程系統(tǒng)中的設(shè)計思路[A].ICT助力兩型社會建設(shè)學(xué) 術(shù)研討會論文集[C],2008.