在本周的開放計算項目(OCP)峰會上,一個反復出現的話題是數據中心內部東西向流量的大幅增加。為了應對這種情況,超大規(guī)模數據中心運營商正在規(guī)劃從100 GbE向400 GbE的演進。為了在短期內處理東西向流量問題,Facebook創(chuàng)建了名為Fabric Aggregator的分布式網絡系統(tǒng)。
Fabric Aggregator是一個立足于已有的Facebook的Wedge 100交換機簡單構建塊和開放式交換系統(tǒng)(FBOSS)軟件組成的分布式網絡系統(tǒng),以適應社交媒體巨頭的快速增長。這種分布式的網絡系統(tǒng)能夠讓數據中心運營商適應更大的區(qū)域和不同的流量模式,同時提供適應未來增長的靈活性。
Facebook軟件工程總監(jiān)Omar Baldonado表示,Facebook的對外流量與其內部的東西向流量相比顯得相形見絀,該社交巨頭的流量,不管是東西向還是南北向都由網絡聚合層處理,但是流量增長正在對端口密度和每個節(jié)點的容量方面造成壓力。
Facebook的技術產品經理Sree Sankar表示,Facebook的東西向流量大幅增加,至少需要三倍的容量,即使已經使用了最大的交換機仍然無法解決東西向流量的問題,迫切需要一個能夠提供能源效率并具有靈活設計的系統(tǒng)。
為了跟上流量的增長,Facebook將Fabric Aggregator設計成通用網絡機箱的替代品。它將多個Wedge 100S交換機疊加在一起,這與Facebook已經使用的交換機相同。然后運行Facebook開放式交換系統(tǒng)(FBOSS)。該公司開發(fā)了四種背板布線模式來模擬經典背板,所有背板選件的規(guī)格已提交給OCP。
Fabric Aggregator在沒有集中控制器的情況下,在所有子交換機之間運行邊界網關協(xié)議(BGP)。每個子交換機獨立運行、發(fā)送和接收流量時不對節(jié)點中的其他子交換機有任何交互或依賴,通過這種方式,Facebook可以根據需求的變化快速擴張容量,更換構建模塊和電纜組件。
ree Sankar說:“Fabric Aggregator主要的設計標準是靈活性,在過去九個月中,Facebook已經在數據中心部署了這一分布式網絡系統(tǒng),它重新定義了Facebook處理網絡容量的方式?!?
Facebook工程師在博客文章中詳細描述了Fabric Aggregator。他們將所有背板選件的規(guī)格提交給OCP,繼續(xù)他們的共享傳統(tǒng)。Facebook對OCP的網絡貢獻包括其Wedge交換機和Edge Fabric流量控制系統(tǒng)。
七年前,Facebook率先創(chuàng)建了開放計算項目,重點放在開放數據中心組件(如機架和服務器)上。OCP CEO Rocky Bullock表示,OCP目前擁有超過4000名工程師參與其各種項目和超過370個規(guī)格和設計包,并吸引了約3000名與會者參加。
新聞來源:SDNLAB