《電周邊》OCP全球高峰會 仁寶秀AI液冷新技術
近年來伺服器市場的焦點已從單純追求運算效能,轉向更重視能源效率與系統可擴充性。仁寶表示,持續深化與 NVIDIA 的合作,致力於滿足企業對高效能、彈性與能源效益的多重需求,協助加速 AI 工廠與推論平臺的部署,縮短產品上市時程。
仁寶電腦基礎架構事業羣副總經理張耀文說,AI 已由概念驗證階段邁入企業數位轉型的核心,仁寶與NVIDIA的合作聚焦於運算、網路與散熱技術的整合,協助客戶打造具備可擴充性與永續性的 AI 基礎架構。
現場會展示基於CXL與RDMA架構下的PCIe 記憶體池化技術。仁寶指出,此一技術展現了新一代資料中心在記憶體擴充、動態資源配置與低延遲互連方面的創新突破。透過PCIe Gen5、NVMe-oF與CXL Fabric等先進互連技術,實現伺服器節點間的高速資料互通與共享資源池化,進一步整合記憶體與儲存層級,推動儲存記憶體化概念的落實,使資料能以近似主記憶體的速度被即時存取,同時提升系統整體運算效率與可擴展性。
此外,現場也將展示強調多TB 級記憶體池化能力與快取一致性技術,讓與會者親身體驗這些技術如何實現更高效、具彈性且能源優化的 AI 資料中心運算環境。
爲因應高效能GPU所帶來的散熱挑戰,仁寶並規劃在本次高峰會發表兩款創新液冷伺服器,分別爲:OG720-2A-L2 ORv3 7OU 8x AMD Instinct GPU 直接晶片液冷AI伺服器、SG223-2A-I 2U 8x GPU浸沒式液冷伺服器。
仁寶說明,兩款創新解決方案會展現仁寶在高負載運算環境中,如何同時兼顧最佳效能與能源效率,協助資料中心實現pPUE低於1.1的卓越能效表現,爲新世代高密度AI與高效能運算應用提供可擴充且高效的運算基礎。