ICC訊 2024年10月15日至17日,開放計算項目全球峰會2024(簡稱OCP24)在美國加州圣何塞舉行。OCP是一個專注于計算的展會,在過去幾年里,由于人工智能的發(fā)展,該展會的重要性得到了極大的提升。在OCP24上,盡管多數參會者聚焦于AI架構、功率、液冷及軟件的討論,但有一個座無虛席的會議,專門探討網絡和光學技術對于當前及未來AI節(jié)點擴展性的重要意義。Meta強調,目前仍不清楚如何在不增加更多GPU的情況下從大型AI模型中獲得更準確的結果(因為更高的準確性意味著需要更多的參數,而更多的參數則需要更多的GPU資源),這意味著數據中心對光學帶寬的需求不會停止。
今年,首次有兩家光學供應商光迅和Ciena在展會上設有展位。隨著CIOE和ECOC剛剛落幕,而且OCP并不是傳統(tǒng)的光學展覽,因此并沒有任何主要的光學公告。不過,這里有關于數據中心內部光學技術未來的有趣討論,而OCP可能是聽取初創(chuàng)公司關于AI光學有趣想法的最佳場所。
本文中涵蓋的主題包括:
共封裝光學(CPO)離現實更近了一步
Ciena推出400G/通道 —— 出乎意料
AI節(jié)點中的光學可靠性和穩(wěn)定性需提升
LPO——持續(xù)發(fā)展,但問題依然存在
液冷將改變架構設計
結論
共封裝光學(CPO)離現實更近了一步
近幾年來,CPO幾乎一直由Intel和Broadcom通過51.2T交換機演示進行獨家推廣。去年的OCP會議上,Micas Networks首次推出了基于Broadcom CPO平臺的商用交換機。今年,Micas依然是唯一商用的CPO交換機廠商,但許多其他公司在他們的演講中也開始提及CPO。
最近,臺積電(TSMC)宣布正在研究在其工藝流程中集成SiPho,而超大規(guī)模企業(yè)也發(fā)表了令人鼓舞的聲明,CPO似乎比以往任何時候都更接近現實——可能在不到五年的時間內就能實現大規(guī)模部署。然而,CPO的采用仍然是有些二元化的——要么會被一個主要客戶認可用于大規(guī)模部署,從而引發(fā)大量需求,要么它仍將是一種少數較小運營商采用的小眾產品。目前這個關鍵的主要客戶尚未出現,但鑒于AI是一個核心應用場景,Nvidia和超大規(guī)模企業(yè)的ASICs很可能是早期采用者。
CPO所宣傳的主要好處仍然是功耗(聲稱每800GbE小于5.5W),但它還提供了穩(wěn)定性和更低的延遲。AI模型中困擾光學連接的偶然錯誤(flapping)隨著鏈路中DSP的減少而降低,這可能以犧牲一致性為代價,換取了鏈路穩(wěn)定性以及較低的誤碼率(BER)。對于短距離鏈接,這種權衡可能是值得的。字節(jié)跳動在展覽會上分享了早期試驗的結果,表明第二層網絡的延遲最高可減少600納秒,第三層網絡的延遲最高可減少1000納秒(不過,字節(jié)跳動并未解釋第三層網絡為何會有更顯著的延遲改善)。
Micas繼續(xù)開發(fā)其CPO平臺,目前為51.2T,但計劃在Tomahawk 6可用時升級到102.4T。這意味著Broadcom將開發(fā)一個102.4T的CPO板卡。今年Micas已經出貨了幾十臺交換機,主要用于評估,并預計到2025年最多也只能出貨幾百臺,因為尋找主要客戶的工作仍在繼續(xù)。騰訊仍然是一個潛在的客戶(Micas雇傭了一名來自該公司的高級工程師),但在短期內不會大量采購。
Broadcom與字節(jié)跳動共同展示了CPO,后者展示了一個潛在的網絡部署方案,其中CPO交換機作為頂級脊柱層,未來將轉移到核心層,直接進入網絡的主要交換基礎設施。服務提供商正在試用一個商用平臺的定制版本,據推測是Micas,因為它擁有目前唯一的商用平臺。字節(jié)跳動表示還沒有承諾購買和部署,并且仍在評估這項技術。
Broadcom與字節(jié)跳動共同展示了CPO技術,展示了一種將CPO交換機作為Top Spine層,并在未來過渡到核心層的潛在網絡部署方案,這將使CPO直接成為網絡主交換基礎設施的一部分。服務提供商正在測試商用平臺的定制版本,據推測該平臺為Micas的產品,因為目前它是唯一可用的商用平臺。字節(jié)跳動表示,他們尚未決定購買和部署,并且仍在評估這項技術。
Meta表示,他們正在研究將CPO應用于“Scale up域”(即目前使用銅纜連接的機架內部)。隨著這一領域擴展到單個機架之外并且需要光學技術時,CPO可能成為一個可行的選擇。Meta相信,由于減少了活動組件的數量,CPO可以提供一個更可靠的網絡,減少鏈路故障的發(fā)生。值得一提的是,Meta曾是CPO/NPO技術的早期倡導者之一,但在后來停止了內部開發(fā)。
Ciena推出400G/通道 —— 出乎意料
正如Cignal AI在其最新的ECOC 2024報告中所述,400G/通道電子和光學器件被認為即將公開亮相。實際情況比預期的更早到來。在OCP上,Ciena展示了利用其WaveLogic 6e相干DSP中的SERDES實現的400G/通道PAM4操作。這不是像Marvell或Broadcom這樣的傳統(tǒng)DSP供應商,而是Ciena首先在3nm硅片上公開演示了400Gbps的操作。Ciena的演示應被視為一個測試芯片,而該公司正考慮為其多個組件,包括一個400Gbps/通道的PAM4 DSP,制定未來的商業(yè)化計劃。
在光學方面,Hyperlight關于薄膜鈮酸鋰(TFLN)的演講表明,該材料有足夠的帶寬來支持400G/通道的光學器件。Hyperlight還提到,在過去兩年中,TFLN晶圓制造商的數量已經從一家增加到了三家。硅光子學(SiPho)幾乎肯定不能在400G/通道條件下工作,即使是InP EMLs也可能面臨性能問題。盡管TFLN在大規(guī)模生產中尚未得到驗證,但它仍然是2028年后實現400Gbps/通道3.2GbE的一個強有力候選者。
AI節(jié)點中的光學可靠性和穩(wěn)定性需提升
在Cignal AI的CIOE報告(CIOE24:洞察中國市場)中,該市場調研公司首次提到了光學器件中的bit error和flapping導致AI模型失敗的問題,這個問題在這次OCP上被多次提及。AI模型中的鏈路錯誤可能會導致整個計算周期失敗,并需要從檢查點重新啟動。然而,光學方面的消息比最初報道的要樂觀:
Meta展示了其模型數據,顯示GPU的故障率遠遠高于光學鏈路。在初步數據中,約80%的模型故障是硬件問題造成的,其中60%是由于GPU故障。網絡問題是導致故障的第四大因素——雖然這并不理想,但情況并不像最初認為的那樣嚴重。
Meta還指出,400GbE模塊的故障大多是因為制造問題,而非激光器故障(200GbE模塊的故障主要是由于DML,但400GbE使用了更為可靠的EML)。制造問題相比基本的半導體可靠性問題應該更容易解決。
此外,Meta表示,所有硬件——無論是光學器件還是ASIC——的故障率隨時間逐漸下降,這表明存在一些尚未確定的早期失效原因。同樣,這應該是一個比可靠性故障更容易解決的問題。
旭創(chuàng)展示的數據表明,基于硅光子學(SiPho)的光學器件的可靠性有了顯著提高。這家公司已經售出了數百萬個可插拔模塊,其現有產品的FIT率低于0.4,這對于1.6Gbps速率下的低成本SiPho光學器件而言是個積極的信號。
LPO——持續(xù)發(fā)展,但問題依然存在
線性可插拔光學(LPO)繼續(xù)在各類展覽會上受到關注,特別是在Arista的Andy Bechtolsheim出席的場合。然而,目前還沒有大型客戶正式采用這項技術。即便互操作性問題得到了解決,故障排查和管理方面的問題仍然存在。因此,盡管業(yè)內對這項技術的討論持續(xù)不斷,但Cignal AI的預測(800GbE市場中不足10%的份額)自一年前《線性驅動市場機會》(The Linear Drive Market Opportunity)報告發(fā)布以來,一直未發(fā)生變化。
在一個光學專題的演講中,Meta表示LPO正處于“積極研究”階段,但從LPO在OFC23上引起關注到現在已接近兩年,研究尚未轉化為實際部署。Meta還報告稱,排查光學鏈路固有的困難很大;據報告,因故障退回的模塊中有75%被診斷為未發(fā)現問題(NTF),這意味著光學器件并非錯誤來源。由于LPO進一步減少了用于鏈路評估的遙測數據,問題可能會變得更復雜,盡管鏈路中的活動組件減少可能會提高整體可靠性。
或許對LPO的最大激勵來自Chris Cole的觀點(Cignal AI也有同樣的看法),即對于當前的AI運營者而言,部署速度遠比在光學器件上節(jié)省一點能耗重要得多——因此,基于DSP的光學器件(MOP)仍將是首選架構。
1.6T可能會為LPO——或者說更有可能是LRO——提供機會,因為目前還沒有既定的MOP。OCP24上的演講者承認,200G/通道的LPO更具挑戰(zhàn)性,這意味著其部署并不確定。
液冷將改變架構設計
下一代AI設施將需要液冷技術,因為單個機架的散熱需求將超過100千瓦。在展會上,可以看到許多液冷供應商及其演示。正如Cignal AI在ECOC報告中討論的,液冷技術將會改變設備的設計。Credo展示液冷技術也將使得電氣連接(如銅線/AEC)更加普及。隨著液冷技術的應用,AI節(jié)點的密度增加,GPU之間的距離變短,從而使得銅連接可以用于更多的地方。一旦不再依賴風冷,設備和網絡設計肯定會經歷重大變革。
結論
雖然OCP不是一個專門的光學展會,但它展示了未來幾年由AI推動的光學需求和發(fā)展趨勢。雖然銅線在AI節(jié)點內部還將長期使用,但隨著速度提升和集群范圍擴大,光學技術變得不可或缺。光學帶寬需求不斷增加,同時由于AI模型參數持續(xù)增長,功耗問題仍然突出。盡管許多光學互聯的創(chuàng)新可能不會被廣泛采納,但它們有望挑戰(zhàn)行業(yè)對光學互聯的看法。這是一個屬于AI的時代,光學技術也被邀請一同前行。
原文:OCP24: Optical Gets Invited to the AI Party - Cignal AI- https://cignal.ai/2024/10/ocp24-optical-gets-invited-to-the-ai-party/
新聞來源:訊石光通訊網
相關文章