IBM Granite 模型家族新成員 Granite 3.2 報到
IBM於2月底發表其Granite大型語言模型家族的最新一代產品Granite 3.2,持續推動小型、高效、企業專用的AI,爲實際應用創造效益。
所有Granite 3.2模型均採用寬鬆的Apache 2.0開源授權條款,可在Hugging Face下載。部分模型現已在IBM watsonx.ai、Ollama、Replicate和LM Studio上提供,預計不久將支援RHEL AI 1.5,爲企業與開源社羣注入更強大的AI能力。
IBM表示,最新一代產品Granite 3.2主要亮點包含三點,第一,全新視覺語言模型:專爲理解文件任務而設計,在關鍵企業基準測試 DocVQA、ChartQA、AI2D 和 OCRBench上,表現可媲美甚至超越更大規模的模型(如 Llama 3.2 11B 和 Pixtral 12B)。
IBM指出。除了強大的訓練數據外,IBM也利用其開源Docling工具包處理8千5百萬份PDF 文件,並生成2千6百萬個合成問答配對,提升視覺語言模型在處理大量文件工作流時的能力。
第二、增強推理功能:Granite 3.2的2B與8B模型加入了「思維鏈」(Chain of Thought,CoT)推理機制,且使用者可以開啓或關閉推理功能以優化效率。藉由這項能力,Granite 3.2 8B 模型在 ArenaHard 和 Alpaca Eval 等指令遵循基準測試中的表現,比前一代優異比例達到兩位數,且不影響其他領域的安全性或性能。
第三、Granite Guardian 安全模型更輕巧:在保持 Granite 3.1 Guardian 模型性能的同時,模型尺寸減少三成。此外,Granite 3.2 系列還引入了語言化信心評估(Verbalized Confidence)新功能,可提供更精細的風險評估,幫助安全監測系統識別不確定性。
IBM 持續推動企業專用的小型 AI 模型策略,並已在測試中展現高效能。例如,Granite 3.1 8B 模型在 Salesforce 大型語言模型CRM基準測試中獲得高分,顯示其在實際應用中的準確度和可靠性。
除了 Granite 3.2 的指令、視覺和防護模型之外,IBM 也推出了新一代 TinyTimeMixers(TTM)時間序列模型,這些模型的參數少於1千萬,具備長期預測能力,可進行長達兩年的長期預測。這些模型爲長期趨勢分析提供強大工具,適用於金融與經濟趨勢分析、供應鏈需求預測,以及零售業的季節性庫存規劃。