稀宇科技推出萬億MoE模型abab 6.5
4月17日,稀宇科技MiniMax正式推出abab 6.5系列模型。abab 6.5系列包含兩個模型:abab 6.5和abab 6.5s。據介紹,abab 6.5包含萬億參數,支持200k tokens的上下文長度;abab 6.5s跟abab 6.5使用了同樣的訓練技術和數據,但是更高效,支持200k tokens的上下文長度,可以1秒內處理近3萬字的文本。在各類核心能力測試中,abab 6.5開始接近GPT-4、Claude-3、Gemini-1.5等大語言模型。
相關資訊
- ▣ MiniMax發佈萬億MoE模型abab 6.5
- ▣ 稀宇科技推出AI Agent產品MiniMax Agent
- ▣ 將多模態大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
- ▣ 華爲發佈準萬億模型盤古Ultra MoE
- ▣ 華爲:昇騰AI計算平臺訓練出準萬億MoE模型
- ▣ 科大訊飛:已關注DeepSeek的MoE模型技術進展,持續推動星火大模型迭代提升
- ▣ 獵戶星空發佈MoE大模型,推出AI數據寶AirDS
- ▣ 昇騰原生,華爲發佈準萬億模型Pangu Ultra MoE模型架構和訓練細節
- ▣ 新視角設計下一代時序基礎模型,Salesforce推出Moirai-MoE
- ▣ MiniMax發佈abab大模型:6.51秒內可處理近3萬字文本
- ▣ 北京深度求索公司推出首個國產開源MoE大模型
- ▣ 階躍星辰發佈Step-2萬億參數MoE語言大模型預覽版
- ▣ 通用大模型創業硬核選手亮相 階躍星辰發佈萬億參數MoE大模型預覽版
- ▣ 蘋果推出開放語言模型 OpenELM;微軟、清華團隊提出多頭混合專家 MH-MoE|大模型論文
- ▣ 科大訊飛攜手華爲,實現基於國產算力的MoE模型推理方案
- ▣ 最神秘國產大模型團隊冒泡,出手就是萬億參數MoE,2款應用敞開玩
- ▣ 騰訊混元首款開源混合推理MoE模型發佈
- ▣ 獵戶星空發佈MoE大模型
- ▣ 豆包提出全新稀疏架構 推理成本較MoE最高可降83%
- ▣ AI早報 | 小米輔助駕駛再迎大將;華爲昇騰AI計算平臺訓練出準萬億MoE模型
- ▣ 全球科技早參丨微軟推出輕量級AI模型
- ▣ 生數科技與清華聯合推出視頻大模型Vidu
- ▣ 影響市場大事件:宇樹科技兩款人形機器人京東線上剛上架就下架;字節豆包大模型團隊提出稀疏模型架構,推理成本最高可降低83%
- ▣ 上海稀宇科技申請人工智能模型控制方法和裝置專利,提高使用文本生成模型的對象的體驗效果
- ▣ AI早知道|Anthropic即將發佈“混合AI”模型Claude 4;宇樹科技推出G1機器人升級版
- ▣ 騰訊發佈最大開源MoE模型,3890億參數免費可商用
- ▣ 大模型初創企業MiniMax將發佈國內首個MoE大模型
- ▣ AI與機器人盤前速遞丨智元旗下機器人同時獲中美歐三方認證,華爲推出準萬億模型盤古Ultra MoE
- ▣ 中國科技公司推出多款模型與OpenAI的Sora競爭