微軟用「光」打造全新AI系統運作方式 能效比GPU高出100倍

▲微軟模擬光學電腦破解兩個實際問題,展現人工智慧前景

近年AI算力需求飆升,GPU元件供不應求、能耗焦慮更成爲業界隱憂,但微軟研究院劍橋團隊,選擇用光重新定義運算。這套被稱爲「模擬光學電腦」(Analog Optical Computer, AOC)的系統,採用手機相機感光元件、Micro LED、透鏡等市售零件拼裝而成,卻在實驗中展現出的速度與能效均比GPU高出100倍,並且成功登上自然雜誌。

光學運算重返舞臺

光學運算的概念其實早在1960年代就被提出,但長期受限於製程技術,始終停留在理論層面。微軟團隊經過四年研發,把光學與類比電路放進同一迴路,透過光完成矩陣運算、以電子處理非線性與加減法,每次迭代運算僅需20奈秒 (nanosecond),直到收斂到「固定點」解答。

這種架構不僅省去高成本的數位類比轉換,也具備天然抗噪特性,讓光學計算第一次真正能在現實硬體上穩定運行。

金融、醫療實戰驗證

爲證明AOC不只是實驗室玩具,微軟團隊選擇金融與醫療兩大場景進行驗證。

在與巴克萊銀行合作的結算最佳化問題中,AOC僅用7次迭代運算就找出最佳解法。醫療端則把核磁共振 (MRI)結果壓縮感知成像轉化爲可運行的最佳化問題,不僅重建出32 × 32的腦部切片,更透過「數位孿生」方式模擬20萬種變數的真實核磁共振數據,顯示未來有望將掃描時間從30分鐘縮短到5分鐘,大幅減輕病患負擔。

▲微軟團隊選擇金融與醫療兩大場景進行驗證

AI的新路徑

另一方面,研究員發現AOC的固定點搜索機制,相當適合深度平衡網路 (DEQ)等需要反覆收斂的AI模型。在MNIST、Fashion-MNIST影像分類與非線性迴歸任務上,AOC與數位模擬結果幾乎達到99%一致,並且透過時間複用把硬體規模擴展至等效4096規模權重,證明其不僅能跑小型模型,同時也能處理更大型的AI推理模型。

能效差距兩個數量級

微軟估算,成熟版本的AOC有望達到每瓦500 TOPS,遠超過當前NVIDIA H100約每瓦4.5 TOPS的表現,能效差距更高達兩個數量級。若未來模組化擴展至0.1–20億組權重,AOC將可能成爲AI推理時低功耗的「新基礎設施」。

從實驗到賽道

領軍此項研究的首席經理Francesca Parmigiani、首席研究員Jiaqi Chu與機器學習專家Jannes Gladrow,帶領跨領域團隊把半世紀前的概念變成現實,並且透過開放數位孿生吸引更多研究者參與。研究負責人Hitesh Ballani表示,他們的目標是讓AOC成爲未來AI基礎設施的一部分。

▲左起:微軟首席研究員Jiaqi Chu、微軟首席研究經理Francesca Parmigiani及James Clegg,與微軟研究院位於英國劍橋的模擬光學電腦的現有模型合影

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》