新基建時(shí)代,數據中心將(jiāng)是浸沒(méi)式液冷的天下
近些年計算力需求的增長(cháng)直接推動了社會(huì)的進(jìn)步。随著(zhe)新基建時(shí)代的到來,5G網絡,人工智能(néng)以及工業互聯網將(jiāng)會(huì)獲得飛速發(fā)展。舉例來說(shuō),2016年,全球最大的數據中心大約是58萬平方米,但是到了2019年,已經(jīng)達到了99萬平方米,相當于140個足球場。在三年的時(shí)間裡(lǐ),最大規模數據中心的面(miàn)積增長(cháng)了75%。這(zhè)就(jiù)充分說(shuō)明社會(huì)經(jīng)濟進(jìn)步對(duì)于計算力的巨大需求。在這(zhè)樣(yàng)的背景下,提供超強算力的大型數據中心,以及服務近場數據處理的邊緣數據中心勢必會(huì)加快建造和部署。
傳統制冷系統已到瓶頸,液冷技術生态化正在形成(chéng)不過(guò)我們也應該注意到的是,随著(zhe)數據中心計算力的提升,其限制因素也將(jiāng)日益明顯。對(duì)于新建的數據中心而言,最大的資金投入不是建築本身,而是保證電力供應的設備成(chéng)本以及機房制冷成(chéng)本。計算密度的增加已經(jīng)讓一些大型數據中心的建設項目資金突破了10億美元大關,這(zhè)其中制冷系統占了很大比重。目前,我國(guó)數據中心的能(néng)耗85%在PUE1.5-2.0之間,ODCC預計,照此趨勢,到2030年我國(guó)數據中心的能(néng)耗將(jiāng)從2018年的1609億千瓦時(shí)增長(cháng)到2030年的4115億千瓦時(shí)。
要想解決如此之高的能(néng)耗問題,傳統風冷和水冷空調散熱方式將(jiāng)變得力不從心,隻有通過(guò)液冷才是根本的解決之道(dào)。信通院雲大所所長(cháng)何寶宏博士強調:“對(duì)于解決“高熱密度數據中心散熱”液冷技術將(jiāng)比傳統空調更有效,將(jiāng)成(chéng)爲數據中心未來發(fā)展的不二選擇。液冷技術不僅降溫快、能(néng)耗低,而且是最環保的。液冷的發(fā)展經(jīng)曆了研究期(1992年以前),萌芽期(1992年—2016年),小規模應用期(2016年至今)”。
首先,和傳統的風冷技術相比,液體導熱能(néng)力是空氣的25倍,同體積液體帶走熱量是同體積空氣的近3000倍;其次,同等散熱水平時(shí),液冷噪音水平比風冷噪音降低20-35分貝;另外,在耗電量方面(miàn),液冷系統約比風冷系統節省電量30%-50%;最後(hòu),液冷還(hái)可以降低數據中心的故障率。傳統的風冷系統會(huì)帶來空氣的流動而産生振動,振動會(huì)直接影響IT系統的穩定性和壽命。但液冷則完全不必擔心這(zhè)個問題。
由此不難發(fā)現,液冷在未來取代風冷和水冷空調在技術上完全沒(méi)有障礙。何寶宏博士認爲,“從風冷到液冷,改變的將(jiāng)不僅是制冷方式,而是整個數據中心的生态。”一旦數據中心的制冷方式從風冷轉爲液冷,那麼(me)随之發(fā)生改變的還(hái)有服務器的設計,以及整個數據中心的設計。如果液冷技術進(jìn)一步完善,生态系統進(jìn)一步成(chéng)熟,那麼(me)將(jiāng)引發(fā)一連串的“革命”。新基建時(shí)代浸沒(méi)式液冷將(jiāng)成(chéng)主流
據相關數據顯示,采用風冷系統的數據中心,有超過(guò)50%的能(néng)耗用來應付冷卻系統。其PUE值很難控制在1.4以下,且單櫃功率密度最高隻能(néng)到30Kw左右。但應用液冷技術的數據中心,應用在冷卻系統的能(néng)耗則可以大幅度降低,特别是對(duì)于那些采用刀片式服務器加浸沒(méi)相變液冷技術的機房而言尤甚。其PUE值甚至可以控制在1.1或者以下。和前者相比,機房的整體能(néng)效將(jiāng)有30%的提升,而CPU等核心部件的性能(néng)也可以相應提升20%,單機櫃功率密度更是可以達到160Kw左右。
事(shì)實上,出于多種(zhǒng)因素的考慮,在數據中心液冷領域也演化出了諸多“門派”。其中最典型的分别是浸沒(méi)式,冷闆式以及噴淋式。不過(guò)無論是從當前需求還(hái)是從未來數據中心的技術演進(jìn)來看,浸沒(méi)式液冷相比于其他兩(liǎng)種(zhǒng)方式更被(bèi)行業看好(hǎo)。
從當前的需求角度來看,全球40%的超大型數據中心在美國(guó),而我國(guó)雖然緊随其後(hòu)居世界第二,但比例僅爲11%。面(miàn)對(duì)暴增的高性能(néng)計算需求,我國(guó)的超大型數據中心仍然面(miàn)臨著(zhe)巨大的市場缺口。這(zhè)種(zhǒng)情況在新基建時(shí)代必然“惡補”,而以“三高”(即高密度,高電力和高算力)爲主要特點的超大型數據中心,正是浸沒(méi)式液冷的用武之地。
除此以外,近些年來依托大數據和深度學(xué)習算法的日趨成(chéng)熟,人工智能(néng)的發(fā)展如火如荼。比如人體基因工程序列計算,自然環境當中的大氣或者洋流仿真研究,甚至天體物理的數據處理和宇宙演化模拟等,都(dōu)必然伴随著(zhe)大量的數據運算分析處理,包括圖片的分析處理。但這(zhè)必然要求未來建設更多以GPU爲核心的,符合人工智能(néng)計算力的大型數據中心。但是對(duì)于GPU而言,單個芯片的功耗可以達到300瓦以上,這(zhè)樣(yàng)對(duì)于整個服務器來說(shuō),散熱問題將(jiāng)變得無比嚴峻,冷闆和噴淋等方式在效率上很難滿足需求,必須依托全浸沒(méi)式液冷技術才能(néng)夠解決。
阿裡(lǐ)巴巴副總裁周明表示:“浸沒(méi)式液冷是數據中心的躍遷式技術創新,具有高能(néng)效、高密度、高可用和高可靠等特性。浸沒(méi)式液冷突破技術瓶頸,可以使單機櫃功率密度提升3倍以上;同時(shí),IT部件故障率大幅降低,有效提升雲服務品牌。浸沒(méi)式液冷可以爲社會(huì)節省大量能(néng)源,預計2030年浸沒(méi)式液冷可節約用電1637.77億千瓦時(shí),將(jiāng)數據中心的總用電量降低至2477.23億千瓦時(shí)。”事(shì)實上,除了行業專家和企業用戶的高度關注以外,近兩(liǎng)年來,很多設備廠商也加大了針對(duì)數據中心液冷市場的産品開(kāi)發(fā)力度。
可以說(shuō),在未來新基建時(shí)代,大型數據中心將(jiāng)有望成(chéng)爲浸沒(méi)式液冷技術的天下。不過(guò)需要說(shuō)明的是,由于需要對(duì)建築結構進(jìn)行“傷筋動骨”的改造,所以浸沒(méi)式液冷并不适用于對(duì)已建成(chéng)數據中心的系統升級。另外,目前風冷還(hái)能(néng)夠滿足市面(miàn)上熱負荷較低的EDC或者小型數據中心,完全沒(méi)有必要更換價格昂貴的液冷系統。
綜上所述,從長(cháng)遠角度而言,社會(huì)對(duì)于計算力的需求永無止境,而機房的冷卻技術發(fā)展將(jiāng)在很大程度上決定數據中心計算力提升的瓶頸高低。浸沒(méi)液冷技術作爲一種(zhǒng)高效,節能(néng),安全的冷卻技術,在新基建時(shí)代,將(jiāng)成(chéng)爲大型和超大型數據中心的最佳選擇。
(摘自:微信公衆号IDC圈)