DeepSeek“朋友圈”再擴容:華爲、京東相繼加入 雲計算、芯片、AI應用公司都來了

《科創板日報》2月5日訊(記者 黃心怡) 隨着DeepSeek熱度飆升,其“朋友圈”也在快速擴容。

今日,京東雲宣佈正式上線DeepSeek-R1和DeepSeek-V3模型,支持公有云在線部署、專混私有化實例部署兩種模式。前幾日,阿里雲、百度智能雲、華爲雲、騰訊雲、火山引擎、天翼雲已接入了DeepSeek模型。海外的亞馬遜AWS、微軟Azure等雲巨頭同樣官宣支持。

多家國產芯片廠商亦紛紛響應。華爲今天宣佈DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro上線昇騰社區;DeepSeek-V3滿血版在國產沐曦GPU首發體驗上線。天數智芯、摩爾線程、海光信息也在2月4日宣佈支持DeepSeek模型。而英偉達、AMD、英特爾等海外芯片巨頭在更早已完成支持。

此外,無問芯穹、硅基流動等AI基礎設施廠商,以及青雲科技、PPIO派歐雲、雲軸科技等獨立雲廠商,已宣佈適配及上架模型服務。

從底層芯片到雲服務商,隨着DeepSeek朋友圈的擴大,有望進一步推動大模型的低成本化,擴大AI的垂直應用場景。

目前,華爲小藝助手App的智能體廣場已上線DeepSeek-R1的Beta版。科創板上市公司光雲科技、當虹軟件等也接入DeepSeek系列模型開展應用探索。

▍六大雲巨頭上線DeepSeek系列模型 推動開源生態發展

DeepSeek旗下大模型“爆火”後,國內主流雲平臺均陸續上線了相關模型。

今日,京東雲言犀AI開發計算平臺宣佈支持DeepSeek-V3、DeepSeek-R1以及所有蒸餾小參數模型(DeepSeek-R1-Distill)的一鍵部署。

春節期間,華爲雲和硅基流動聯合首發並上線了基於華爲雲昇騰雲服務的DeepSeek-R1/V3推理服務。阿里、騰訊、百度、火山引擎等雲廠商也上線了DeepSeek系列模型。其中,百度智能雲還提出了限時免費的服務方案。至此,國內六大雲巨頭都已正式支持DeepSeek。

中國雲平臺集中上線DeepSeek,其背後是雲廠商們希望在DeepSeek的火爆浪潮中,吸引更多客戶使用其算力和服務。

AI產品榜的數據顯示,DeepSeek僅上線18天時日活就突破1500萬,而ChatGPT過1500萬花了244天,增速是ChatGPT的13倍。上線20天后,DeepSeek日活已達2215萬,實ChatGTP日活用戶的41.6%,超過豆包的日活用戶1695萬。

雲基礎設施廠商有望受益於DeepSeek帶來的新敘事,而DeepSeek的成功,也將提振整個開源社區的共建氛圍,使得更多開源模型能夠“站在巨人肩膀上”快速進步。

相比OpenAI的閉源路線,DeepSeek選擇了開源的開放路線,這類似於PC時代的Windows和Linux之爭。面對DeepSeek的爆火,OpenAI首席執行官薩姆·阿爾特曼此前承認稱,OpenAI在開源策略上“站在了歷史的錯誤一邊”,並表示需要考慮制定不同的開源策略。

華泰證券認爲,開源模型的優勢體現在社區共建和技術共享。理論上所有的小參數模型均能夠直接利用DeepSeek-R1蒸餾出的標籤數據,來增強推理性能。2025年或是開源模型快速進步的一年,國產大模型進展值得關注。

▍主流國產芯片兼容支持 挑戰和機遇並存

在芯片領域,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上線昇騰社區,支持一鍵獲取DeepSeek系列模型,支持昇騰硬件平臺上開箱即用,同時提供精度性能微調,推理服務化快速部署等能力,

摩爾線程也發文稱,已實現對DeepSeek蒸餾模型推理服務的部署。爲推進國產AI生態發展,摩爾線程即將開放自主設計的誇娥(KUAE)GPU智算集羣,全面支持DeepSeek-V3、R1模型及新一代蒸餾模型的分佈式部署。

天數智芯與Gitee AI成功完成了與DeepSeek-R1的適配工作,並且已正式上線多款大模型服務,其中包括DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B等。天數智芯還稱,正在與並行科技、算力互聯等多傢伙伴,開展DeepSeek包括R1在內的多款模型的適配與上線,後續即將上線的並行科技平臺,不僅面向普通用戶和開發者,更是主要面向企業用戶的AI服務平臺。

Gitee AI聯合沐曦於2月2日首發全套DeepSeek-R1千問蒸餾模型,實現了從芯片到平臺,從算力到模型,全國產研發、中國製造。2月5日,Gitee AI進一步表示,DeepSeek-V3滿血版在國產沐曦GPU首發體驗上線。

而海光信息也完成了DeepSeek V3和R1模型與海光DCU(深度計算單元)的適配,並正式上線。

此外,國家超算互聯網平臺已正式上線DeepSeek-R1模型的1.5B、7B、8B、14B版本,並將於近期陸續更新32B、70B等版本。除R1模型外,國家超算互聯網平臺還上線了DeepSeek-V3、DeepSeek-v2.5系列、DeepSeek-coder系列、DeepSeek-math系列(7b)和DeepSeek-v2系列(Lite)等模型。

“DeepSeek大模型與國產芯片的適配基本不花時間,而性能優化估計一週完成。”有算力領域人士介紹。

“當下,主流國產芯片已基本實現對DeepSeek 蒸餾版小模型的兼容支持。這意味着,只要此前能夠運行Llama、Qwen這類常見模型,如今便可直接無修改地運行DeepSeek蒸餾版小模型。”魔形智能聯合創始人徐凌傑對記者表示,“可以預見,隨着基於 DeepSeek的應用如雨後春筍般爆發,越來越多芯片廠商的入局,新一輪市場競爭與價格調整或許即將拉開帷幕。”

不過,徐凌傑也指出,滿血版的V3和R1擁有6710億參數,這使得它們對硬件的要求大幅提升。同時,由於採用了此前未被廣泛應用的MoE專家並行(EP)策略,其運行需要額外的推理框架支持。

“目前,僅有少數幾家國產芯片成功上線了滿血版。要想完全解鎖DeepSeek高性能、低成本的推理優勢,按照官方推薦配置,需在推理的解碼部分部署320個GPU,以實現完全的專家並行。這種‘超節點’式的部署方式,對所有國產芯片廠商而言,既是全新的挑戰,也是難得的機遇。”徐凌傑提到。

▍擴大AI的應用場景

談及未來DeepSeek對國內AI產業鏈的利好影響,沐曦聯合創始人楊建表示,最大的影響是強化學習的蒸餾流程開源,讓大模型在垂直領域的後訓練和推理成本急劇下降,同時在垂直領域的可用性急劇上升,同時催生大模型在各行各業的認知,拉昇私有化垂直模型部署的願望。R1蒸餾32B模型的能力逼近OpenAI的O1,使得企業可以私有化低成本部署而不用擔心泄密問題,部署意願極大提高。

TrendForce集邦諮詢研究指出,DeepSeek模型雖然降低了AI訓練成本,但AI模型的低成本化可望擴大應用場景,進而增加全球數據中心建置量。光收發模塊作爲數據中心互連的關鍵組件,將受惠於高速數據傳輸的需求。未來AI服務器之間的數據傳輸,都需要大量的高速光收發模塊,這些模塊負責將電信號轉換爲光信號並通過光纖傳輸,再將接收到的光信號轉換回電信號。TrendForce數據顯示,2023年400Gbps以上的光收發模塊全球出貨量爲640萬個,2024年約2040萬個,預估至2025年將超過3190萬個,年增長率達56.5%。

“實際上從22-24年對大模型應用的風險投資在減少,今年可能會逆轉。因爲後訓練成本急劇下降。”楊建對《科創板日報》表示。

隨着DeepSeek帶動模型成本的下降,有望推動AI應用的爆發。科創板上市公司光雲科技、當虹科技等都在探索DeepSeek模型的落地應用。其中,快麥小智是光雲科技旗下智能客服機器人,其基於大模型的智能體產品綾智的多項業務場景和功能支持DeepSeek各個版本。光雲科技方面稱,將持續推動旗下AI產品與包括DeepSeek在內的大模型深度適配。

當虹科技BlackEye多模態視聽大模型正式融合DeepSeek-R1和DeepSeek Janus Pro,並完成視聽傳媒、工業與衛星、車載智能座艙等多行業垂類場景的數據調優訓練。

DeepSeek給AI應用帶來更大的想象力,今日金山辦公一度觸及20cm漲停。不過《科創板日報》瞭解到,金山辦公尚未與DeepSeek正式合作,有接近金山辦公的人士對《科創板日報》記者表示,金山辦公正在與Deepseek進行對接測試,未來是否合作要看後續發展。

在研究層面,楊建預計,各大研究機構都會研究新技術來做預訓練和後訓練,加快新算法落地。“實際上DeepSeek使用的很多方法是高校研究成果的優秀集成,每年出現那麼多新方法,究竟哪些組合才能產生最大產出和價值,可能有很多組合沒有被發現,今年肯定有更多的算法創新爆發。DeepSeek只是一個星星之火的燃點。”

在人才方面,楊建判斷,大模型應用人才培養會更受重視。“2022-2024年聚集在少數企業,整體業界水平在萎縮。同時,2022-2024年高校並沒有培養大模型應用人才。25年春節反應比較快的高校已經開始計劃春季大模型應用人才培養,到秋天會覆蓋數百所高校會跟隨,今年全國有望培養大模型應用開發人才30-50萬。