《科技》創鑫智慧加速卡+超恩工作站 助生成式AI本地部署

創鑫智慧執行長劉景慈(Ken Lau)表示:「在德國2025年嵌入式世界展覽會(Embedded World)的超恩展位(Hall 3, #3-449),將展示Viper AI加速卡的獨特功能,包括在僅45W功耗下支持120億參數模型。在高登智慧ShareGuru SLM解決方案的基礎上,結合創鑫智慧與超恩工業邊緣AI計算系統的協助,我們能提供安全且高效的AI處理,滿足現代工業環境中的資安需求。這一完整解決方案能爲企業主管提供即時業務洞察,協助他們以更低營運成本做出更快速的決策。」

創鑫智慧專注於大語言模型(LLM)和生成式AI晶片設計,與超恩合作開發的高能效解決方案,將整合雙方的Viper系列LLM加速卡與邊緣AI運算系統,其中創鑫智慧提供企業級離線AI解決方案,搭載Raptor N3000 LLM加速晶片。這一戰略合作可望爲企業提供高精準度且可信賴的解決方案,推動生成式AI發展並實現雙贏的企業部署。

超恩ECX-3100 RAG超強固工作站採用Intel Core i9/i7/i5/i3處理器,搭載工作站等級Intel R680E PCH,並配有96GB DDR5高速記憶體,是一款極爲精巧的生成式AI推論平臺,支援多種高速資料傳輸介面,包括10G USB、2.5G網路,以及5G/WiFi/BT/4G/LTE/GPRS/UMTS無線傳輸,並能彈性支援12V至50V的寬範圍電源輸入及車用電源控制功能,適合滿足邊緣端生成式AI應用的多樣化需求。

超恩執行副總黃聖凱表示:「隨着生成式AI(GenAI)應用的快速發展,市場需求不斷增長。超恩與創鑫智慧合作開發以RAG爲主的先進GenAI專用軟硬體整合解決方案,使企業用戶無需額外訓練模型,即可利用自然語言技術提取企業資料庫及商業智能(BI)中的最新分析,從而提供更精準和高品質的結果,加快決策過程。相較傳統基於雲端的GPU解決方案,這一GenAI工作站在成本效益、推論性能和低功耗方面都具有更大優勢。」

劉景慈指出,Viper AI LLM加速卡展示了創鑫智慧在生成式AI市場上的敏捷應變能力,爲高登智慧ShareGuru QA 2.0自然語言轉換資料庫查詢(Natural Language to SQL)方案提供動力。在極爲節能且具高容量記憶體配置下,企業級語言模型能力得以實現。透過此次戰略整合,ShareGuru QA2.0與SLM配合運作,利用Mistral-Nemo(120億參數模型)的能力,在單張Viper卡上高效運行,並僅消耗45W功率,實現安全的本地AI處理,無需傳統基礎設施的複雜性與成本。

高登智慧技術長林志哲博士表示,高登智慧先進的自然語言處理解決方案與Viper原生BF16結構化語言模型支持之間的協同,無需特別壓縮處理,即可提供高精度的資料庫轉換結果。這爲實施AI驅動數據庫分析的組織創建了強大解決方案,同時保持數據安全並降低運營成本。此軟硬體整合展示了功率效率、處理能力與安全性之間的完美平衡,特別適合需要本地處理和能源效率的工業及企業應用,能夠滿足工業AI在地端部署的強勁需求。