您當(dāng)前的位置:檢測(cè)資訊 > 科研開發(fā)
嘉峪檢測(cè)網(wǎng) 2025-08-25 13:37
不斷增長(zhǎng)的 AI GPU 集群之間對(duì)通信的極高需求,正推動(dòng)著人們轉(zhuǎn)向使用光進(jìn)行跨網(wǎng)絡(luò)層通信。今年早些時(shí)候,Nvidia 宣布其下一代機(jī)架級(jí) AI 平臺(tái)將采用硅光子互連技術(shù)與共封裝光學(xué)器件 (CPO),以實(shí)現(xiàn)更高的傳輸速率和更低的功耗。在今年的 Hot Chips 大會(huì)上,Nvidia 發(fā)布了有關(guān)其下一代 Quantum-X 和 Spectrum-X 光子互連解決方案的更多信息,并透露了它們將于 2026 年上市。
Nvidia 的路線圖很可能與臺(tái)積電的 COUPE 路線圖緊密相關(guān),后者分為三個(gè)階段。第一代是用于 OSFP 連接器的光學(xué)引擎,可提供 1.6 Tb/s 的數(shù)據(jù)傳輸率,同時(shí)降低功耗。第二代將采用 CoWoS 封裝技術(shù),并采用同封裝光學(xué)器件,在主板級(jí)別實(shí)現(xiàn) 6.4 Tb/s 的數(shù)據(jù)傳輸率。第三代的目標(biāo)是在處理器封裝內(nèi)實(shí)現(xiàn) 12.8 Tb/s 的數(shù)據(jù)傳輸率,并進(jìn)一步降低功耗和延遲。
為什么是 CPO?
在大規(guī)模 AI 集群中,數(shù)千個(gè) GPU 必須像一個(gè)系統(tǒng)一樣運(yùn)行,這給這些處理器的互連方式帶來了挑戰(zhàn):每個(gè)機(jī)架不再擁有自己的一級(jí)(架頂式)交換機(jī),并通過短銅纜連接,而是將交換機(jī)移至機(jī)架末端,以便在多個(gè)機(jī)架之間創(chuàng)建一致、低延遲的結(jié)構(gòu)。這種遷移極大地延長(zhǎng)了服務(wù)器與其第一個(gè)交換機(jī)之間的距離,這使得銅纜在 800 Gb/s 這樣的速度下變得不切實(shí)際,因此幾乎每個(gè)服務(wù)器到交換機(jī)以及交換機(jī)到交換機(jī)的鏈路都需要光纖連接。

在這種環(huán)境下使用可插拔光模塊存在明顯的局限性:此類設(shè)計(jì)中的數(shù)據(jù)信號(hào)離開ASIC,穿過電路板和連接器,然后才轉(zhuǎn)換為光信號(hào)。這種方法會(huì)產(chǎn)生嚴(yán)重的電損耗,在200 Gb/s通道上損耗高達(dá)約22分貝,這需要使用復(fù)雜處理進(jìn)行補(bǔ)償,并將每個(gè)端口的功耗增加到30W(這又需要額外的冷卻并造成潛在的故障點(diǎn))。據(jù)Nvidia稱,隨著AI部署規(guī)模的擴(kuò)大,這種損耗幾乎變得難以承受。

CPO 通過將光轉(zhuǎn)換引擎與交換機(jī) ASIC 并排嵌入,避免了傳統(tǒng)可插拔光模塊的缺點(diǎn),信號(hào)無需通過長(zhǎng)距離電氣線路傳輸,而是幾乎立即耦合到光纖中。因此,電氣損耗降低至 4 分貝,每端口功耗降至 9W。這種布局省去了眾多可能出現(xiàn)故障的組件,并大大簡(jiǎn)化了光互連的實(shí)施。
Nvidia 聲稱,通過放棄傳統(tǒng)的可插拔收發(fā)器,并將光學(xué)引擎直接集成到交換機(jī)芯片中(得益于臺(tái)積電的 COUPE 平臺(tái)),其在效率、可靠性和可擴(kuò)展性方面實(shí)現(xiàn)了顯著提升。Nvidia 表示,與可插拔模塊相比,CPO 的改進(jìn)非常顯著:功率效率提高了 3.5 倍,信號(hào)完整性提高了 64 倍,由于有源設(shè)備減少,彈性提高了 10 倍,并且由于服務(wù)和組裝更簡(jiǎn)單,部署速度提高了約 30%。
以太網(wǎng)和 InfiniBand 的 CPO
Nvidia 將推出基于 CPO 的光互連平臺(tái),適用于以太網(wǎng)和 InfiniBand 技術(shù)。首先,該公司計(jì)劃在 2026 年初推出 Quantum-X InfiniBand 交換機(jī)。每臺(tái)交換機(jī)將提供 115 Tb/s 的吞吐量,支持 144 個(gè)端口,每個(gè)端口的速率為 800 Gb/s。該系統(tǒng)還集成了 ASIC,具有 14.4 TFLOPS 的網(wǎng)絡(luò)內(nèi)處理能力,并支持 Nvidia 的第四代可擴(kuò)展分層聚合縮減協(xié)議 (SHARP),以降低集體操作的延遲。這些交換機(jī)將采用液冷散熱。

與此同時(shí),Nvidia 計(jì)劃于 2026 年下半年通過其 Spectrum-X Photonics 平臺(tái)將 CPO 引入以太網(wǎng)。該平臺(tái)將基于 Spectrum-6 ASIC,為兩款設(shè)備供電:SN6810 提供 102.4 Tb/s 帶寬,擁有 128 個(gè) 800 Gb/s 端口;SN6800 則可擴(kuò)展至 409.6 Tb/s,擁有 512 個(gè) 800 Gb/s 端口。兩款設(shè)備也都采用液冷技術(shù)。

Nvidia 預(yù)計(jì)其基于 CPO 的交換機(jī)將為日益龐大、日益復(fù)雜的生成式 AI 應(yīng)用提供新的 AI 集群支持。由于使用 CPO,此類集群將減少數(shù)千個(gè)分立組件,從而實(shí)現(xiàn)更快的安裝速度、更便捷的維護(hù),并降低每個(gè)連接的功耗。因此,使用 Quantum-X InfiniBand 和 Spectrum-X Photonics 的集群在啟動(dòng)時(shí)間、首次令牌時(shí)間和長(zhǎng)期可靠性等指標(biāo)方面均有顯著提升。
Nvidia 強(qiáng)調(diào),共封裝光學(xué)器件并非可選增強(qiáng)功能,而是未來 AI 數(shù)據(jù)中心的結(jié)構(gòu)性要求。這意味著該公司將把其光互連技術(shù)定位為超越 AMD 等競(jìng)爭(zhēng)對(duì)手的機(jī)架級(jí) AI 解決方案的關(guān)鍵優(yōu)勢(shì)之一。當(dāng)然,這也是AMD 收購 Enosemi 的原因。
未來之路
關(guān)于Nvidia的硅光子計(jì)劃,需要注意的一點(diǎn)是,其發(fā)展與臺(tái)積電COUPE(緊湊型通用光子引擎)平臺(tái)的發(fā)展緊密契合。后者預(yù)計(jì)將在未來幾年內(nèi)不斷發(fā)展,從而提升Nvidia的CPO平臺(tái)。臺(tái)積電第一代COUPE采用該公司的SoIC-X封裝技術(shù),將65納米電子集成電路(EIC)與光子集成電路(PIC)堆疊在一起。臺(tái)積電聲稱,其 SoIC-X 互連具有極低的阻抗,這意味著 COUPE 在功耗方面非常高效。

關(guān)于Nvidia的硅光子計(jì)劃,需要注意的一點(diǎn)是,其發(fā)展與臺(tái)積電COUPE(緊湊型通用光子引擎)平臺(tái)的發(fā)展緊密契合。后者預(yù)計(jì)將在未來幾年內(nèi)不斷發(fā)展,從而提升Nvidia的CPO平臺(tái)。臺(tái)積電第一代COUPE采用該公司的SoIC-X封裝技術(shù),將65納米電子集成電路(EIC)與光子集成電路(PIC)堆疊在一起。臺(tái)積電聲稱,其 SoIC-X 互連具有極低的阻抗,這意味著 COUPE 在功耗方面非常高效。
COUPE 的發(fā)展軌跡主要分為三個(gè)階段。臺(tái)積電的首款硅光產(chǎn)品是一款用于 OSFP(八進(jìn)制小型可插拔連接器)的光學(xué)引擎,其數(shù)據(jù)傳輸速率高達(dá) 1.6 Tbps,是目前頂級(jí)銅纜以太網(wǎng)解決方案最高速率的兩倍。這一初始版本不僅承諾提供卓越的帶寬,還提升了能效,解決了現(xiàn)代數(shù)據(jù)中心的兩個(gè)關(guān)鍵問題。后續(xù)幾代 COUPE 旨在進(jìn)一步突破極限。
第二代硅光產(chǎn)品將 COUPE 集成到 CoWoS 封裝(硅基晶圓芯片封裝)中,并將光學(xué)器件與交換機(jī)集成封裝。這將實(shí)現(xiàn)高達(dá) 6.4 Tbps 的主板級(jí)光互連。
第三代產(chǎn)品的目標(biāo)傳輸速率高達(dá) 12.8 Tbps,旨在集成到處理器封裝中。該版本仍處于探索階段,尚未確定發(fā)布時(shí)間表。臺(tái)積電表示,正在考慮進(jìn)一步降低功耗和延遲。

來源:Internet