DeepSeek開源第一個用於混合專家模型訓練和推理的高效專家並行通信庫
2月25日,DeepSeek在“開源周”的第二天向公衆開源了DeepEP。據介紹,DeepEP是第一個用於MoE(混合專家)模型訓練和推理的EP(Expert Parallelism,專家並行)通信庫,可以實現高效且優化的全對全通信,支持包括FP8在內的低精度運算,適配現代高性能計算需求。
同時,DeepEP針對NVLink到RDMA的非對稱帶寬轉發場景進行了深度優化,不僅提供了高吞吐量,還支持SM(Streaming Multiprocessors)數量控制,兼顧訓練和推理任務的高吞吐量表現。對於延遲敏感的推理解碼場景,DeepEP還提供了純RDMA的低延遲內核,支持自適應路由,能實現更靈活的GPU資源控制,滿足不同場景需求。
相關資訊
- ▣ 浪潮電子申請模型訓練及數據處理相關專利,實現訓練和推理的並行計算
- ▣ OPPO申請模型處理及訓練相關專利,提高模型的運行效率
- ▣ 專家模型不要專家並行!微軟開源MoE新路徑
- ▣ 華爲宣佈開源盤古7B稠密和72B混合專家模型
- ▣ 芯朋微:公司近期已接入Deepseek,啓動基於開源大模型的自有垂直專業模型訓練計劃
- ▣ DeepSeek推出NSA 用於超快速的長上下文訓練和推理
- ▣ IBM申請訓練數據標識和模型選擇專利,提供用於訓練數據標識和模型選擇的技術
- ▣ 高通取得用於物理上行鏈路共享信道重複的混合波形專利
- ▣ 騰訊科技申請電池健康狀態估計模型訓練專利,提高用於電池健康狀態估計的模型的訓練效果
- ▣ 江西電信申請基於LLM大小模型協同訓練專利,大大提高模型學習能力和工作效率
- ▣ 賓理信息取得用於目標任務的機器學習模型訓練方法相關專利
- ▣ 騰訊混元推出首款開源混合推理模型
- ▣ 百度取得用於輔助模型訓練的方法等專利
- ▣ 騰訊公司申請模型訓練專利,提升模型訓練效果
- ▣ 騰訊混元開源首款混合推理MoE模型,擅長Agent工具調用和長文理解
- ▣ Meta首席AI科學家:DeepSeek的成功表明開源模型正在超越專有模型
- ▣ 華爲申請模型訓練方法和裝置專利,節省設備間訓練數據收集通信開銷
- ▣ 河南:每年對用於大模型開發、訓練和微調的高質量語料庫每個給予最高100萬元補助
- ▣ 浪潮雲申請針對 AI 大模型的模型數據錄入專利,提高模型訓練效率和準確性
- ▣ 小紅書開源首個大模型 預訓練未使用合成數據
- ▣ 外媒:DeepSeek省了訓練費,但推理模型應用成"燒錢黑洞"
- ▣ 華爲模型訓練和車輛控制專利公佈 可應用於AI領域
- ▣ 中屹通信申請通信基站用小型模塊化電源專利,提高對鋰電池組電源的散熱效果
- ▣ 浪潮通信申請用於多模態大模型的專利,提升視頻搜索效率
- ▣ 杭州深度思考人工智能申請用於人臉建模的克里金大模型自適應訓練方法及系統專利,通過採用主動學習和Kriging模型提高模型學習效率
- ▣ 支付寶申請一種用於微調大模型的訓練數據的獲取方法及裝置專利,可確定第一答案和第二答案是否一致用於微調目標大模型
- ▣ 北京微芯感知申請基於隱私保護的大模型的訓練方法專利,保證集中化訓練高效
- ▣ 百度申請基於大模型的規則推薦和數據治理專利,實現高效的數據治理
- ▣ 中新賽克:已積極接入Deepseek等新模型應用並推出安全運維AI專家