用戶名: 密碼: 驗證碼:

數據中心基礎網絡架構最佳實踐及未來發(fā)展趨勢

摘要:數據中心網絡起著承上啟下的作用,將計算和存儲資源連接在一起,并以服務的形式對內部及外部的用戶提供數據訪問能力。雖說網絡建設和運維投入遠比機房基礎建設、服務器設備、存儲設備、應用開發(fā)及運維小,但大家最怕它出現(xiàn)性能問題或故障長時間不能恢復,因為網絡一旦不可用,意味著一切服務都將停止。因此,設計運維一張高性能、高可靠的網絡是網絡架構及運維團隊的首要目標。

  Iccsz訊 數據中心網絡起著承上啟下的作用,將計算和存儲資源連接在一起,并以服務的形式對內部及外部的用戶提供數據訪問能力。雖說網絡建設和運維投入遠比機房基礎建設、服務器設備、存儲設備、應用開發(fā)及運維小,但大家最怕它出現(xiàn)性能問題或故障長時間不能恢復,因為網絡一旦不可用,意味著一切服務都將停止。因此,設計運維一張高性能、高可靠的網絡是網絡架構及運維團隊的首要目標。

  結合我在銳捷網絡服務互聯(lián)網企業(yè)的實踐經驗,分享幾個典型的網絡架構設計,供大家參考。

  數據中心10G/40G網絡架構

  主要設計理念:

  a)核心設備全線速高性能轉發(fā),核心之間不互聯(lián),采用Fabric架構,隔離核心故障,最大程度降低核心故障影響;

  b)三層路由組網,通過ECMP提高冗余度,降低故障風險;

  c)通過TOR上的服務器接入數量和上聯(lián)40G鏈路數量控制單TOR收斂比,通過提高核心設備接口密度擴展單集群服務器規(guī)模。

  注:千兆網絡已跟不上業(yè)務發(fā)展,本文不再涉及。

  數據中心25G/100G網絡架構

  與10G/40G網絡一致,主要變化在于:

  a)下行鏈路由10G變?yōu)?5G,提升至2.5倍;

  b)上行鏈路每端口由40G變?yōu)?00G,提升至2.5倍;

  c)下一代主流芯片方案實現(xiàn)為48*25GE+8*100GE(Broadcom TD3),上行收斂比提升為1.5:1。

  下面僅以大型數據中心為例做組網說明:

  CLOS網絡架構

  最后,想與大家分享的是今年國內不少互聯(lián)網企業(yè)考慮使用的新架構設計。

  從上述架構設計說明中,不難看出數據中心集群規(guī)模和收斂比,主要受限于機框式核心設備的端口密度,而業(yè)界核心設備的更新?lián)Q代都是以數年為單位進行的,大大阻礙了數據中心規(guī)模和發(fā)展。另外,動輒數百個40GE接口或者100GE接口的核心設備單臺運行功率已達20KW,而國內大部分IDC機房的平均功率只有5KW~6.5KW/機柜,這給機房供電系統(tǒng)的維護管理帶來了極大的挑戰(zhàn)。如何擺脫核心設備端口密度的限制?如何擺脫核心設備對IDC機房供電系統(tǒng)的挑戰(zhàn)?

  此時,CLOS架構誕生了。

25G /100G CLOS網絡架構

  架構特性:

  Leaf、Fabric、Spine交換機選用中低端盒式交換機48*25GE+8*100GE/32*100GE;

  每臺Leaf,下聯(lián)32個25GE做Server接入,8個100GE用于向上連接的上行鏈路;每個POD 16臺Leaf交換機;

  每臺Fabric交換機, 有32個100GE,16個下連16臺Leaf,16個上連至16組Spine;每個POD 8臺Fabric交換機,共32個POD;

  每臺Spine交換機,有32個100GE,全部用于下連32個POD Fabric交換機;

  每組8臺,共16組Spine交換機;

  通過Edge PODs連接外網,單POD集群帶寬12.8Tbps,整數據中心集群帶寬超過400Tbps。

  隨著智能時代的來臨,大數據、人工智能等新技術的應用,對數據中心網絡提出了新的挑戰(zhàn)。如何更好地支撐Hadoop、RDMA等技術應用,成為網絡運維團隊關注和思考的問題。高性能、低時延、無損網絡已然成為數據中心網絡設計和運維的主流思路。無損網絡如何設計和運維,下一代數據中心網絡又有哪些值得期待的特性,敬請關注下回分享。

      作者:權熙哲 銳捷網絡互聯(lián)網系統(tǒng)部技術副總監(jiān)

【加入收藏夾】  【推薦給好友】 
免責聲明:凡本網注明“訊石光通訊咨詢網”的所有作品,版權均屬于光通訊咨詢網,未經本網授權不得轉載、摘編或利用其它方式使用上述作品。 已經本網授權使用作品的,應在授權范圍內使用,反上述聲明者,本網將追究其相關法律責任。
※我們誠邀媒體同行合作! 聯(lián)系方式:訊石光通訊咨詢網新聞中心 電話:0755-82960080-168   Right