AI伺服器與資料中心算力需求劇增 矽光、CPO 進入實質應用
圖/美聯社
高速光通訊元件比較表
全球光通訊年度盛會「OFC 2025」日前於美國聖地牙哥盛大舉行,受生成式AI熱潮帶動,高頻寬、高整合、低功耗的傳輸技術,成爲展會焦點。
業界人士觀察,生成式AI導入多模態模型後,對AI伺服器與資料中心算力需求劇增,推升高速光通訊、CPO(共同封裝光學)、矽光子與光I/O技術,已進入實質應用階段。
生成式AI已成不可或缺的基礎設施,尤其ChatGPT、Gemini等應用帶動,多模態大模型導入,使算力需求呈倍數增長。
資料中心業者爲滿足訓練與推論需求,正加速採用1.6T甚至3.2T等更高速的連線架構。而爲因應更高頻寬與距離要求,光通訊系統正朝向主動式電纜(AEC)、主動式光纖(AOC)、矽光收發模組(Transceiver)及CPO等多元方案發展。
連接線材方面,短距離(5公尺以內)應用仍以AEC爲主,如Marvell與Amphenol共同展示支援1.6Tbps傳輸速度的5nmDSP方案,未來將升級至3nm以降低能耗20%。
30公尺內則多采用AOC,因施工簡便、成本較低且節能,並已可支援1.6T。至於超過30公尺的長距離應用,則以矽光Transceiver爲主流,目前800G需求強勁,1.6T元件亦已量產。
本次展會中最大亮點之一爲CPO,其將光模組與Switch ASIC或xPU直接整合,大幅提升連接密度與能源效率。
法人分析,CPO是因應AI運算架構分散化、頻寬密度提升的重要技術,包括輝達、博通與邁威爾皆展出相關CPO設計。
光學領導廠Coherent更展示完整週邊,如耐高溫連接器、保偏光纖、微透鏡與外置雷射模組(ELS),臺廠上詮、日商住友電工等供應鏈,也同步進入量產準備。
Intel、Ayar Labs、Lightmatter等大廠與新創公司,也展示光子引擎直接整合於xPU晶片上的方案。
光通訊業者指出,隨着AI伺服器、交換器架構快速升級,未來兩年資料中心內部傳輸速率將從800G邁向1.6T,甚至3.2T,光通訊模組與關鍵元件需求將大幅提升。