騰訊混元開源首款混合推理MoE模型,激活參數僅13B
新京報貝殼財經訊(記者羅亦丹)6月27日,騰訊混元宣佈開源首個混合推理MoE模型 Hunyuan-A13B,總參數80B,激活參數僅13B,效果比肩同等架構領先開源模型,但是推理速度更快,性價比更高。這意味着,開發者可以用更低門檻的方式獲得更好的模型能力。
MeE是DeepSeek大模型採用的架構類型,並在DeepSeek爆火後得到了業界的更多認可。而本次騰訊混元所發佈的,是業界首個13B級別的MoE開源混合推理模型,基於先進的模型架構,Hunyuan-A13B表現出強大的通用能力,在多個業內權威數據測試集上獲得好成績,並且在Agent工具調用和長文能力上有突出表現。
即日起,模型已經在 Github 和 Huggingface 等開源社區上線,同時模型API也在騰訊雲官網正式上線,支持快速接入部署。
校對 穆祥桐