新一代數(shù)據(jù)中心當中必將出現(xiàn)的那些趨勢

隨著新基建時代的來臨,云計算已然大行其道。阿里,騰訊等巨頭紛紛開始布局更大規(guī)模的新一代云計算數(shù)據(jù)中心。這將是一種基于高密度,大容量,且前所未見的網絡應用集合體。和傳統(tǒng)數(shù)據(jù)中心相比,其對于網絡帶寬、端口密度、安全防護以及運維管理等諸多領域都提出了更高的要求。比如,對于新一代云計算數(shù)據(jù)中心而言,傳統(tǒng)的制冷方式將限制其計算力的發(fā)揮,而液冷將走向前臺;再比如,從流量的角度來說,傳統(tǒng)數(shù)據(jù)中心屬于簡單的匯聚型流量。但現(xiàn)在,流量將呈現(xiàn)不定向的突發(fā)性,傳統(tǒng)城域網交換機的性能將變得捉襟見肘。那么歸根到底來說,和現(xiàn)有數(shù)據(jù)中心相比,新一代云計算數(shù)據(jù)中心將呈現(xiàn)哪些新趨勢呢?

創(chuàng)新互聯(lián)專注于政和網站建設服務及定制,我們擁有豐富的企業(yè)做網站經驗。 熱誠為您提供政和營銷型網站建設,政和網站制作、政和網頁設計、政和網站官網定制、重慶小程序開發(fā)公司服務,打造政和網絡公司原創(chuàng)品牌,更為您提供政和網站排名全網營銷落地服務。

統(tǒng)一交換將成為必然,萬兆端口即將翻倍

網絡的建設將是新一代數(shù)據(jù)中心最直觀的改變。首先,計算網絡,存儲網絡和業(yè)務網絡將同時存在于新一代云計算數(shù)據(jù)中心當中。其次,傳統(tǒng)的建網方式將使得其建設成本如火箭般上升,同時技術異構的網絡也無法實現(xiàn)統(tǒng)一的虛擬化。對于云計算價值的發(fā)揮將產生嚴重的掣肘作用。在這樣的背景下,Ethernet的統(tǒng)一交換網將成為新一代云計算數(shù)據(jù)中心組網的選擇。

既然高密度將是新一代云計算數(shù)據(jù)中心的趨勢,那服務器數(shù)量未來必然出現(xiàn)暴增。君不見阿里,騰訊這些巨頭的數(shù)據(jù)中心動輒數(shù)萬臺服務器規(guī)模皆尤嫌不足。同時,單臺服務器核心數(shù)量的增長,必然帶動其帶寬消耗同步增長。這對于目前的網卡而言,將產生極大壓力。

假如某個數(shù)據(jù)中心擁有2萬臺服務器,收斂比為1:4。那么其基本的萬兆匯聚端口數(shù)量將至少需要500個,如果考慮到安全防護以及IP存儲等設備,那么萬兆端口的數(shù)量至少還得再增加1.5倍。

40G/100G接口將迎來高光時刻

在未來,隨著5G和邊緣計算的落地,數(shù)據(jù)中心的數(shù)據(jù)處理能力將是一個天文數(shù)字。在這樣的背景下,作為數(shù)據(jù)交互的關鍵節(jié)點,出口帶寬的壓力也將驟然增大。目前,大部分數(shù)據(jù)中心的出口帶寬都已經達到了100G以上,并且每年還在以超過100%的速度激增。傳統(tǒng)的10G接口顯然無法滿足這樣的需求。那么,40G/100G接口的普及將迎來高光時刻。

流量特征更為復雜,需部署專門的交換機

由于服務器資源動態(tài)調配的特性,在云計算環(huán)境下,流量的特征將比之前更為復雜,也更加難以預測。由此帶來的突發(fā)性也更為明顯。所以未來的網絡,必然要求部署更為專業(yè)的交換機。和傳統(tǒng)交換機相比,這些交換機至少應該具備以下特點:

1.完全無阻塞交換網

數(shù)據(jù)中心級交換機采用CLOS交換網,這是一種完全無阻塞交換架構,從而保證在任何流量特征的環(huán)境下,交換網都是可以實現(xiàn)無阻塞交換。

2.分布式大容量緩存的數(shù)據(jù)中心級交換機將成為趨勢

緩存的價值在傳統(tǒng)PC上早已為人們所熟知。在云計算時代,交換機之間的流量交互將無比巨大。甚至多端口同時向一端口轉發(fā)的幾率也大為增加,突發(fā)的流量會給端口造成巨大壓力。傳統(tǒng)的城域網交換機在出口端的小容量緩存,每板一般不超過64兆。一旦出現(xiàn)流量洪峰,緩存的堵塞丟包將不可避免。一旦如此,勢必形成骨牌效應,從而導致應用層的數(shù)據(jù)重傳并引起更為嚴重的網絡堵塞。

數(shù)據(jù)中心級交換機采用的分布式大緩存架構,其平均每個10G端口的入緩存可達256M,GE端口的緩存達20M,再復雜的流量模型,端口緩存時間均可達到200mS以上。只有這樣,才能滿足未來5G時代,大型云計算數(shù)據(jù)中心的需求。

“天下賦,半三番”的能耗現(xiàn)狀將被液冷終結

既然計算力將加速上升,那么數(shù)據(jù)中心的能耗自然也會水漲船高。信通院云大所的何寶宏博士曾經說過,“再大的風也吹不冷滾燙的‘芯’”。的確,對于未來大型云計算數(shù)據(jù)中心恐怖的功耗而言,風冷的瓶頸將限制數(shù)據(jù)中心計算力的提升。同時,由此帶來的耗電量也將讓一線城市難堪重負。

目前IT設備功耗占到數(shù)據(jù)中心總體能耗的比例為31%左右,而制冷設備的能耗卻已經超過了40%。也就是說,數(shù)據(jù)中心的能耗大部分都消耗在了“降溫”領域。這樣的現(xiàn)狀頗有幾分“天下賦,半三番”的感覺。

在這樣的背景下,液冷技術將走向前臺。經過數(shù)年的發(fā)展,今天的液冷技術已經相對成熟。目前,全球各大企業(yè)已經在液冷領域展開了諸多嘗試,市場化產品層出不窮。何寶宏博士認為,“實際應用顯示,浸沒式液冷的優(yōu)勢非常明顯,可以將單體計算密度提升10倍以上,同時IT設備占地面積減少75%以上,即縮減為原來的四分之一。”

目前浸沒式液冷技術上已經比較成熟了,只是生態(tài)系統(tǒng)還不夠完善。隨著大型云計算數(shù)據(jù)中心的發(fā)展步入快車道,這種情況勢必改變。生態(tài)建立以后價格必將下跌,而趨勢也將隨之成立。

分享名稱:新一代數(shù)據(jù)中心當中必將出現(xiàn)的那些趨勢
標題來源:http://muchs.cn/article26/cjhccg.html

成都網站建設公司_創(chuàng)新互聯(lián),為您提供品牌網站設計用戶體驗、建站公司網站導航、網站收錄網站設計公司

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

成都app開發(fā)公司