美光功耗SOCAMM2 DRAM模組正式送樣 迎合AI資料中心需求
美光領先業界,宣佈其功耗SOCAMM2 DRAM模組正式送樣, 迎合AI資料中心需求。(路透)
美商記憶體大廠美光科技今日宣佈其 192GB SOCAMM2 (small outline compression attached memory modules,小型壓縮附加記憶體模組)已正式送樣給客戶,以積極拓展低功耗記憶體在 AI 資料中心內的應用版圖。
美光表示,SOCAMM2 進一步強化美光科技已發表的首款 LPDRAM SOCAMM 記憶體模組設計之功能,在相同的規格尺寸中提供高出 50% 的容量。因爲容量擴增,此模組能將即時推論工作負載中首個token生成的時間(TTFT)大幅縮減逾 80%[。這款 192GB SOCAMM2 搭載美光最先進的 1γ (1-gamma) DRAM 製程技術,使能源效率提升 20% 以上,進一步實現大型資料中心叢集的電源設計最佳化。在全機櫃式 AI 部署環境中,由於可配置超過 40 TB 的 CPU 直連低功耗 DRAM 主記憶體,因此,此節能優勢將會格外顯著。SOCAMM2 的模組化設計提高了維修便利性,併爲未來的容量擴展奠定基礎。
在與輝達(NVIDIA) 五年的合作基礎上,美光首創將低功耗伺服器記憶體導入資料中心應用。SOCAMM2 將 LPDDR5X 極低功耗和高頻寬的既有優勢帶入 AI 系統的主記憶體。SOCAMM2 專爲滿足大規模 AI 平臺不斷演進的需求而設計,不僅提供 AI 工作負載所需的高資料傳輸量,同時實現全新層次的能源效率,爲 AI 訓練與推論系統樹立新標竿。這些優勢的結合將使 SOCAMM2 成爲未來幾年尖端 AI 平臺的關鍵記憶體解決方案。
美光資深副總裁暨雲端記憶體事業部總經理 Raj Narasimhan 表示:「隨着AI工作負載日益複雜且需求更嚴苛,資料中心伺服器必須提高效率,在每瓦功耗下產出更多tokens。憑藉在低功耗 DRAM 領域公認的領導地位,美光能確保 SOCAMM2 模組具備卓越的資料傳輸量、能源效率、大容量,同時保有資料中心所需的頂尖品質。對於驅動次世代 AI 資料中心伺服器來說,這些優勢至關重要。」