美光HBM客戶再加一 成功導入AMD AI平臺

▲美光。(圖/美光提供)

記者高兆麟/臺北報導

記憶體大廠美光科技今日宣佈將其 HBM3E 12 層堆疊 36GB 記憶體整合至即將推出的 AMD Instinct MI350 系列解決方案中。

美光表示,此次合作突顯能源效率和效能在訓練大型 AI 模型、提供高傳輸量推論,以及處理複雜之高效能運算工作負載 方面的關鍵作用。此外,這也是美光在 HBM 產業領導地位的另一重大里程碑,展現美光穩健的執行力和強大的客戶關係。

美光 HBM3E 12 層堆疊 36GB 記憶體解決方案爲 AMD Instinct MI350 系列 GPU 平臺帶來領先業界的記憶體技術,提供卓越的頻寬表現和更低的功耗。AMD Instinct MI350 系列 GPU 平臺採用 AMD 的 CDNA 4 架構,整合 288GB 高頻寬 HBM3E 記憶體,可提供 8 TB/s 的頻寬,實現優異的吞吐量。憑藉如此龐大的記憶體容量,Instinct MI350 系列 GPU 可在一顆 GPU 上高效支援高達 5,200 億個參數的 AI 模型。在完整平臺配置中,Instinct MI350 系列 GPU 可搭載高達 2.3TB 容量的 HBM3E 記憶體,並在 FP4 精度下實現高達 161 PFLOPS 的峰值理論效能,具備頂尖的能源效率和可擴充性,適合高密度 AI 工作負載。

美光指出,此技術架構與具高能源效率的美光 HBM3E 記憶體相輔相成,爲大型語言模型訓練、推論和科學模擬任務提供卓越的傳輸效能,不僅有助資料中心擴展,更能達成每瓦運算效能的極大化。

美光副總裁暨雲端記憶體產品事業羣總經理 Praveen Vaidyanathan 表示:「透過美光與 AMD 的緊密合作和共同在工程技術開發的努力,我們最佳化了 HBM3E 12 層堆疊 36GB 記憶體與 Instinct MI350 系列 GPU 和平臺的相容性。美光 HBM3E 的產業領導地位和技術創新能爲終端客戶提供更優異的總體擁有成本(TCO) 效益,併爲要求苛刻的 AI 系統實現高效能。」