DeepSeek開源第一個用於混合專家模型訓練和推理的高效專家並行通信庫

2月25日,DeepSeek在“開源周”的第二天向公衆開源了DeepEP。據介紹,DeepEP是第一個用於MoE(混合專家)模型訓練和推理的EP(Expert Parallelism,專家並行)通信庫,可以實現高效且優化的全對全通信,支持包括FP8在內的低精度運算,適配現代高性能計算需求。

同時,DeepEP針對NVLink到RDMA的非對稱帶寬轉發場景進行了深度優化,不僅提供了高吞吐量,還支持SM(Streaming Multiprocessors)數量控制,兼顧訓練和推理任務的高吞吐量表現。對於延遲敏感的推理解碼場景,DeepEP還提供了純RDMA的低延遲內核,支持自適應路由,能實現更靈活的GPU資源控制,滿足不同場景需求。