新一代數據中心當中必將(jiāng)出現的那些趨勢

2020.05.09

随著(zhe)新基建時(shí)代的來臨,雲計算已然大行其道(dào)。阿裡(lǐ),騰訊等巨頭紛紛開(kāi)始布局更大規模的新一代雲計算數據中心。這(zhè)將(jiāng)是一種(zhǒng)基于高密度、大容量,且前所未見的網絡應用集合體。和傳統數據中心相比,其對(duì)于網絡帶寬、端口密度、安全防護以及運維管理等諸多領域都(dōu)提出了更高的要求。比如,對(duì)于新一代雲計算數據中心而言,傳統的制冷方式將(jiāng)限制其計算力的發(fā)揮,而液冷將(jiāng)走向(xiàng)前台;再比如,從流量的角度來說(shuō),傳統數據中心屬于簡單的彙聚型流量。但現在,流量將(jiāng)呈現不定向(xiàng)的突發(fā)性,傳統城域網交換機的性能(néng)將(jiāng)變得捉襟見肘。那麼(me)歸根到底來說(shuō),和現有數據中心相比,新一代雲計算數據中心將(jiāng)呈現哪些新趨勢呢?

統一交換將(jiāng)成(chéng)爲必然,萬兆端口即將(jiāng)翻倍

網絡的建設將(jiāng)是新一代數據中心最直觀的改變。首先,計算網絡,存儲網絡和業務網絡將(jiāng)同時(shí)存在于新一代雲計算數據中心當中。其次,傳統的建網方式將(jiāng)使得其建設成(chéng)本如火箭般上升,同時(shí)技術異構的網絡也無法實現統一的虛拟化。對(duì)于雲計算價值的發(fā)揮將(jiāng)産生嚴重的掣肘作用。在這(zhè)樣(yàng)的背景下,Ethernet的統一交換網將(jiāng)成(chéng)爲新一代雲計算數據中心組網的首選。

既然高密度將(jiāng)是新一代雲計算數據中心的趨勢,那服務器數量未來必然出現暴增。君不見阿裡(lǐ),騰訊這(zhè)些巨頭的數據中心動辄數萬台服務器規模皆尤嫌不足。同時(shí),單台服務器核心數量的增長(cháng),必然帶動其帶寬消耗同步增長(cháng)。這(zhè)對(duì)于目前的網卡而言,將(jiāng)産生極大壓力。

假如某個數據中心擁有2萬台服務器,收斂比爲1:4。那麼(me)其基本的萬兆彙聚端口數量將(jiāng)至少需要500個,如果考慮到安全防護以及IP存儲等設備,那麼(me)萬兆端口的數量至少還(hái)得再增加1.5倍。

40G/100G接口將(jiāng)迎來高光時(shí)刻

在未來,随著(zhe)5G和邊緣計算的落地,數據中心的數據處理能(néng)力將(jiāng)是一個天文數字。在這(zhè)樣(yàng)的背景下,作爲數據交互的關鍵節點,出口帶寬的壓力也將(jiāng)驟然增大。目前,大部分數據中心的出口帶寬都(dōu)已經(jīng)達到了100G以上,并且每年還(hái)在以超過(guò)100%的速度激增。傳統的10G接口顯然無法滿足這(zhè)樣(yàng)的需求。那麼(me),40G/100G接口的普及將(jiāng)迎來高光時(shí)刻。

流量特征更爲複雜,需部署專門的交換機

由于服務器資源動态調配的特性,在雲計算環境下,流量的特征將(jiāng)比之前更爲複雜,也更加難以預測。由此帶來的突發(fā)性也更爲明顯。所以未來的網絡,必然要求部署更爲專業的交換機。和傳統交換機相比,這(zhè)些交換機至少應該具備以下特點:
1.完全無阻塞交換網
數據中心級交換機采用CLOS交換網,這(zhè)是一種(zhǒng)完全無阻塞交換架構,從而保證在任何流量特征的環境下,交換網都(dōu)是可以實現無阻塞交換。
2.分布式大容量緩存的數據中心級交換機將(jiāng)成(chéng)爲趨勢
緩存的價值在傳統PC上早已爲人們所熟知。在雲計算時(shí)代,交換機之間的流量交互將(jiāng)無比巨大。甚至多端口同時(shí)向(xiàng)一端口轉發(fā)的幾率也大爲增加,突發(fā)的流量會(huì)給端口造成(chéng)巨大壓力。傳統的城域網交換機在出口端的小容量緩存,每闆一般不超過(guò)64兆。一旦出現流量洪峰,緩存的堵塞丢包將(jiāng)不可避免。一旦如此,勢必形成(chéng)骨牌效應,從而導緻應用層的數據重傳并引起(qǐ)更爲嚴重的網絡堵塞。
數據中心級交換機采用的分布式大緩存架構,其平均每個10G端口的入緩存可達256M,GE端口的緩存達20M,再複雜的流量模型,端口緩存時(shí)間最大均可達到200mS以上。隻有這(zhè)樣(yàng),才能(néng)滿足未來5G時(shí)代,大型雲計算數據中心的需求。

“天下賦,半三番”的能(néng)耗現狀將(jiāng)被(bèi)液冷終結

既然計算力將(jiāng)加速上升,那麼(me)數據中心的能(néng)耗自然也會(huì)水漲船高。信通院雲大所的何寶宏博士曾經(jīng)說(shuō)過(guò),“再大的風也吹不冷滾燙的‘芯’”。的确,對(duì)于未來大型雲計算數據中心恐怖的功耗而言,風冷的瓶頸將(jiāng)限制數據中心計算力的提升。同時(shí),由此帶來的耗電量也將(jiāng)讓一線城市難堪重負。
目前IT設備功耗占到數據中心總體能(néng)耗的比例爲31%左右,而制冷設備的能(néng)耗卻已經(jīng)超過(guò)了40%。也就(jiù)是說(shuō),數據中心的能(néng)耗大部分都(dōu)消耗在了“降溫”領域。這(zhè)樣(yàng)的現狀頗有幾分“天下賦,半三番”的感覺。
在這(zhè)樣(yàng)的背景下,液冷技術將(jiāng)走向(xiàng)前台。經(jīng)過(guò)數年的發(fā)展,今天的液冷技術已經(jīng)相對(duì)成(chéng)熟。目前,全球各大企業已經(jīng)在液冷領域展開(kāi)了諸多嘗試,市場化産品層出不窮。何寶宏博士認爲,“實際應用顯示,浸沒(méi)式液冷的優勢非常明顯,可以將(jiāng)單體計算密度提升10倍以上,同時(shí)IT設備占地面(miàn)積減少75%以上,即縮減爲原來的四分之一。”
目前浸沒(méi)式液冷技術上已經(jīng)比較成(chéng)熟了,隻是生态系統還(hái)不夠完善。随著(zhe)大型雲計算數據中心的發(fā)展步入快車道(dào),這(zhè)種(zhǒng)情況勢必改變。生态建立以後(hòu)價格必將(jiāng)下跌,而趨勢也將(jiāng)随之成(chéng)立。

(摘自:微信公衆号IDC圈)