資訊中心

25G與SerDes的速率更匹配!

2017.09.01

25G以太網是一個新興的網絡技術標準,主要麵向下一代的數據中心網絡,更準確的說,25G以太網主要用於下一代數據中心裏的服務器接入。如果要問下一代數據中心網絡的接入速率為什麽會是25G,而不是10G或者是40G? 

簡單的答複是:25G比10G快,效率比40G高,成本又比40G低

如果需要給一個更加Techinical的答複的話,那是因為25G與SerDes的速率更匹配!





 

以太網雖然是Xerox公司發明的,但以太網技術真正的發揚光大,是在IEEE組織製定的802.3 係列規範普及之後,而25G/50G以太網技術的發起和協議標準製定,卻又主要歸功於稱為"25G/50G 以太網聯盟"的另一個組織。

 

25G/50G以太網聯盟由下列幾家公司組成:


如果隻看上圖中的順序排名的話,你可能會以為Arista在25G以太網聯盟裏起了很大作用,但實際情況是:25G以太網協議標準主要是由排名最靠後的Microsoft和Google這兩家數據中心網絡的用戶首先發起,Broadcom和Mellanox作為芯片供應商主要負責製定了協議規範並研發了對應的交換芯片,Arista隻是作為最後的數據中心交換機整機廠商參與罷了。

 

微軟在2014年提交給IEEE 的25G Ethernet CFI裏這樣描述25G以太網:

也就是說:

1.    25G以太網主要想解決的是當時已經存在的10G/40G Ethernet MAC層速率和PHY層SerDes速率不匹配問題; 

2.    25G以太網主要用於ToR交換機到服務器之間的接入,相對10G可以顯著增加接入速率(2.5x),相比40G又可以降低對應成本;

3.    使用25G速率的以太網卡可以更好的和服務器上的PCIe通道速率匹配

 

25G雖然從速率上來看不如40G高,但相比10G也有2.5倍的提升,而采用25G方案的交換機相比40G則可以提供更高的端口密度,又因為同10G一樣采用單通道(Single Lane)進行連接,連接線纜的成本要求更低,而且還可以利用數據中心內部現有的光纖,總體成本相比40G來說更有優勢。

另外一個隱含的原因其實是40G網卡的速率對於現如今絕大多數場景的服務器來說都顯得過剩了,在10G網卡速率不能滿足業務需要時,升級到25G相比40G更加實用、經濟和高效。

 



 

25Gbps速率的SerDes 通道

要理解前麵提到的單通道(Single Lane)連接方式,就必須提到SerDes,SerDes是英文串行解串器(Serlializer和Deserializer)的縮寫,它是目前主流的高速串行點對點通訊方式。它接收將要傳輸的數據並進行序列化處理,然後發送到對端的解串器,接收端的解串器再將這些序列化的比特流重組為數據然後交給接收器使用。

 

SerDes被廣泛的應用在各種電路與光纖通信技術中,從計算機內部使用的PCIe接口到網卡上PHY的連接以至於到交換機內部芯片之間的互聯,全都是采用SerDes連接。當前主流Serdes的速率正好就是25Gbps,也就是說從25G網卡出來到另外一端的25G網卡,端到端的所有連接全都隻需要使用一條25Gbps速率的SerDes連接通道即可,而40GE則需要需要四個10G SerDes連接通道才能實現,兩個40GE網卡之間的通信,需要多達四對的光纖(此處未考慮采用波分技術的Bidi或CWDM光模塊)。


另外,在作為匯聚和骨幹被廣泛使用的100GE實際上內部也是采用4x25G也就是4個25G速率的SerDes通道實現的,使用一條QSFP28轉SFP28的線纜就可以非常方便的轉換成4個25G端口,使用25G在與100G匹配度方麵相比40G也具有明顯的優勢。

 



 

25G網卡對PCIe通道的使用效率更高

目前主流的英特爾Xeon CPU都隻提供40個PCIe 3.0通道,單個PCIe 3.0的通道帶寬約為8Gbps(因為采用128b/130b編碼實際可用帶寬略小於8Gbps),這些PCIe通道不僅要用於CPU同網卡之間的通訊連接,還要用於RAID卡、GPU卡以及其它所有外設卡之間的連接通訊。隨著近年來SSD的普及,各種PCIe Flash卡,NVMe SSD也都需要使用這些寶貴的PCIe通道,因此需要更高效的考慮網卡對有限的這些PCIe通道的利用情況。

單口的40G網卡至少需要使用一個PCIe 3.0 x8的槽位,在數據中心環境裏,一般都會部署雙個網口綁定實現高可用,這樣兩個40GE網卡就需要占用2個PCIe 3.0 x8的通道,即使這2個40G網口都能同時跑滿數據,實際的通道帶寬利用率也隻有:

(40G+40G) / 8G*16= 62.5%

而如果采用25G網卡的話,即使配置一個雙口的25G網卡,也隻需要采用一個PCIe 3.0 x8的連接,這時雙口網卡對於PCIe的有效使用效率為:

 25G*2 /  (8G*8) = 78%

而如果采用兩個單口25GE網卡以實現更高的可用性的話,則使用2個PCIe 3.0 x4的槽位就可以滿足帶寬要求了。

很顯然,25GE在對PCIe通道的使用方麵相比40GE明顯具有更高的效率而且使用更為靈活。



 

數據中心采用25GE布線成本更低

25G以太網標準裏定義了用作機櫃內部連接的Twinax電纜以及可以最遠可以傳輸100米距離的光纖連接標準,用雙絞線的25G BaseT則會直接引用40G BaseT的規範,也就是采用8類線進行連接。

40GE網卡和交換機上使用的是QSFP+模塊,如果是用於機櫃內部或者相鄰機櫃的連接,可以采用QSFP+的DAC線纜,而如果用於更遠的連接就必須使用QSFP+光模塊配合MPO光纜進行傳輸了,常見的MPO光纜內部有12根光纖,相比10GE時代兩芯的LC接口的光纖成本明顯高出不少,而且完全不能兼容,如果是基於現有10GE升級到40GE的話,則全部的光纖線纜都要廢棄並采用MPO光纜進行重新布線,這樣耗費的人力物力以及時間成本無疑是巨大的。

而25GE網卡和交換機上使用的是SFP28模塊,因為僅采用單通道連接,所以兼容過去10GE時代的LC光纖。如果是從10GE升級到25GE的話,則完全不用考慮重新布線的事情,設備升級完之後可以即插即用,省時省力。

 



 

交換機對25G的支持

25G/50G以太網聯盟的兩家芯片廠商——Broadcom和Mellanox,都在2014年分別推出了支持25G以太網的交換芯片,尤其是占交換機芯片市場主導地位的Broadcom發布的Tomahawk芯片更是得到了眾多交換機廠商廣泛的使用,Tomahawk芯片采用25Gbps SerDes技術,3.2Tbps的交換容量可以提供32個100GE或者128個25GE端口的靈活解決方案,同時還提供對50G/40G/10G端口的兼容支持,同時還具備其它一些非常適合數據中心網絡應用的關鍵特性:

1.    低延時,端到端的延時可以控製在1微妙內,具體來說:二層交換延時僅為300ns,如果用作三層交換時延時也僅僅隻有400ns

2.    支持高性能存儲和RDMA協議RoCE,尤其是支持最新的RoCEv2,可以將過去僅支持二層網絡的RDMA延伸到三層網絡的支持

3.    支持OpenFlow 1.3+協議,可以與Openflow控製器配合用於SDN組網環境裏

4.    提供對Overlay/隧道的VXLAN網關技術的支持

 



 

25G以太網卡的支持

在25G以太網技術標準發布後,幾家主要的網卡芯片廠商都已經發布了自己的25G以太網解決方案,包括Brodcom、Mellanox以及Qlogic都分別推出了自己的25G芯片及網卡,比如Broadcom公司的P225C網卡,Mellanox公司的ConnectX-4Lx以及QLogic的QL45212網卡等,而作為數據中心領導者的Intel在前一段時間也不聲不響的發布了自己的XXV710係列25G網卡,Intel XXV710網卡實際上就是把Intel以前的40G網卡XL710改成了25G速率。


這些網卡基本都基於各家公司成熟的芯片技術,同時也都提供對RDMA、VXLAN等新技術的支持,可以幫助數據中心內部實現完整25G端到端網絡解決方案。 


和记娱乐 AG8亚游手机客户端 ag亚游集团官方网站 和记娱乐 AG8贵宾厅 AG亚游平台 AG8app 亚游线路中心 AG手机亚游 AG8平台