騰訊開源混元-A13B模型
6月27日,騰訊發佈並開源混元-A13B模型。據介紹,作爲基於專家混合(MoE)架構的大模型,總參數800億、激活參數130億,在效果比肩頂尖開源模型的同時,大幅降低推理延遲與計算開銷;極端條件下僅需1張中低端GPU卡即可部署。
相關資訊
- ▣ 騰訊開源混元3D 2.1大模型
- ▣ 騰訊混元兩大核心模型開源
- ▣ 騰訊混元大語言模型和3D模型正式開源
- ▣ 騰訊混元推出首款開源混合推理模型
- ▣ 騰訊混元首款開源混合推理MoE模型發佈
- ▣ 騰訊混元宣佈大語言模型和3D模型正式開源
- ▣ 騰訊混元圖生視頻模型發佈並開源
- ▣ 騰訊宣佈混元3D 2.1大模型對外開源
- ▣ 騰訊混元文生圖大模型開源訓練代碼
- ▣ 騰訊宣佈混元文生圖大模型對外開源
- ▣ 騰訊混元上線並開源新圖生視頻模型
- ▣ 騰訊混元發佈並開源語音數字人模型
- ▣ 騰訊混元文生圖模型開源 採用Sora同架構
- ▣ 騰訊混元發佈並開源語音數字人模型HunyuanVideo-Avatar
- ▣ 騰訊混元開源首款混合推理MoE模型,激活參數僅13B
- ▣ 騰訊混元又來開源,一出手就是最大MoE大模型
- 騰訊混元Large模型全面開源!騰訊雲TI平臺支持一鍵精調與推理
- ▣ 騰訊元器免費模型資源增至1億tokens 混元大模型全面降價
- ▣ 騰訊副總裁蔣傑:混元文生文大模型將在三季度開源
- 騰訊參戰AI 推混元大模型
- ▣ AI早知道|騰訊正式發佈並開源混元圖生視頻模型;智源發佈多模態向量模型BGE-VL
- ▣ 騰訊元寶上線騰訊混元最新深度思考模型T1
- ▣ 騰訊混元開源首款混合推理MoE模型,擅長Agent工具調用和長文理解
- ▣ 騰訊 發佈自研AI模型混元T1
- ▣ 騰訊劉煜宏:騰訊混元大模型正在積極發展多模態模型及應用
- ▣ 數智早參|OpenAI官宣推出新的大語言模型GPT-4o;騰訊混元文生圖大模型開源
- 騰訊混元文生圖開源模型上線三款插件,ControlNet生態直追Stable Diffusion
- ▣ 騰訊(00700)升級混元大模型 開放“文生圖”功能
- ▣ 騰訊大模型開源的“冷思考”