兩會建言|全國人大代表劉慶峰:建議加快構建國產算力平臺上的自主可控大模型及產業生態

本報記者 陳佳嵐 北京報道

“當前,通用人工智能在全球競爭和關注度方面又上了一個新臺階,尤其是DeepSeek推出之後,包括最近可以看到特朗普政府的新政策,以及臺積電和三星對我們芯片的製成工藝實現了更嚴格的限制。如何真正發揮舉國體制優勢,以市場爲導向,鼓勵龍頭企業、科研院所和廣大創業者,圍繞自主可控平臺實現生態體系繁榮,這是非常關鍵的事情。”2025年全國兩會召開之際,全國人大代表、科大訊飛董事長劉慶峰對《中國經營報》記者如是表示。

記者從科大訊飛方面獲悉,今年兩會上,劉慶峰提交了關於《加快構建國產算力平臺上的自主可控大模型及產業生態》的建議。針對當前高度依賴進口算力、產業生態薄弱等問題,劉慶峰提出了“基於自主可控國產算力平臺的大模型研發應用,構建數據資源共享機制,專項支持生態體系建設”三點細分建議,呼籲加快構建國產算力平臺上的自主可控大模型及產業生態,以推動我國人工智能產業的健康發展。

國產大模型發展需自主可控 劉慶峰提出三點建議

“國產大模型實現性能效果突破,引起國際社會對中國人工智能領域更深刻、更廣泛的警惕和限制。”劉慶峰表示,國產大模型訓練高度依賴進口算力,除訊飛星火外,其他全民可下載的大模型均基於英偉達卡訓練。還有DeepSeek最近開源了非常多的工具,這些工具也都是對以英偉達爲主的海外生態的豐富。若不能加快解決國產自主可控人工智能產業生態薄弱、適配困難等問題,無異於“在別人地基上建高樓”。

對此,劉慶峰提出了三點建議,呼籲加快構建國產算力平臺上的自主可控大模型及產業生態。

一是鼓勵基於自主可控國產算力平臺的大模型研發和應用。對做國產算力芯片的企業和使用國產芯片訓練大模型的企業給予資金專項支持,在國家公共算力上給予資源傾斜,加速基於國產算力的大模型算法創新;鼓勵央國企優先採購基於國產算力平臺研發的全棧自主可控大模型;優先推廣基於全棧自主可控大模型的行業垂直應用。

劉慶峰對記者表示,因爲在研發投入和前期生態相關工具鏈的打造上需要耗費額外精力、花費更多成本和時間,在這種情況下,無論是在應用採購上的傾斜,還是在我們搭建的公共算力平臺上優先給予相關算力支持,都是必要的。否則,大家都希望在別人完成後,我們仍然跟隨享受產業紅利,誰都不邁開第一步,最終會出現很大問題。

二是構建數據資源充分共享機制。“我們有這麼多的應用場景,如果能夠充分共享數據資源,將有助於我們更快地推廣大模型的應用,形成數據飛輪,從而在AI產業落地方面獲得先發優勢。”劉慶峰認爲,要依託中國廣泛的AI應用場景,積極推廣大模型在產業領域的應用,並形成數據飛輪,讓中國率先獲得AI產業落地紅利。

三是設立專項支持基於國產算力平臺的生態體系建設。“過去在CPU時代,雖然龍芯已經制造出優秀的CPU,但是無人使用,導致CPU產業未能良好發展。操作系統也是如此,如果無法形成從產業應用到技術開發再到源頭創新的良性互動,形成完整的生態體系,那麼長期發展將會受到巨大限制。我們不能將自己的大樓建在別人的院子裡,也不能在沙灘上建造大廈。自主可控的生態體系需要有一整套扶持政策和相關的打法。”劉慶峰建議,我們需要專項支持基於國產算力平臺的生態體系建設,鼓勵依託自主可控算力底座建立的大模型開發者生態發展和開源社區建設,專項支持加快形成國產大模型生態體系和工具鏈,加速我國自主可控人工智能產業生態發展。

關注AI生成虛假信息 呼籲構建可信信息環境

生成式人工智能的快速發展,也使得AI生成內容真假難辨。記者注意到,劉慶峰還帶來了《預防大模型生成“幻覺數據”充斥互聯網帶來的危害,從技術研發和管理機制上構建可信的信息環境數據》的相關建議。

中國互聯網絡信息中心(CNNIC)發佈的《生成式人工智能應用發展報告(2024)》顯示:我國生成式人工智能產品的用戶規模已達2.49億人。生成式人工智能存在幻覺,特別是深度推理模型的邏輯自洽性提升,使得AI生成內容真假難辨。帶有算法偏差的虛假信息會被新一代AI系統循環學習,形成惡性循環,影響公衆信任和社會穩定。

就此,劉慶峰呼籲,構建安全可信數據標籤體系,提升內容可靠性。建立安全可信、動態更新的信源和數據知識庫,對不同類型數據的可信度和危害程度建立標籤體系,降低人工智能幻覺出現概率,提升生成內容可靠性。

劉慶峰還建議,研發AIGC幻覺治理技術和平臺,定期清理幻覺數據。研究幻覺自動分析的技術和軟件平臺,開展幻覺自動分析、AIGC深度鑑僞、虛假信息檢測、有害內容識別以及互聯網傳播溯源,由中央網信辦、國家數據局等部門定期清理幻覺數據,爲公衆提供AIGC幻覺信息檢測工具與服務。

事實上,全國人大代表,TCL創始人、董事長李東生日前在接受記者採訪時也關注到了生成式人工智能技術的進步給各個領域帶來機遇的同時,也造成了AI深度僞造內容侵權現象、欺詐事件越來越頻發的情況。“我國相關立法雖關注這一議題,但已出臺的規章制度還不具備可操作的細則和明確的處罰標準。”李東生建議加快人工智能深度合成內容標識管理規章制度、明確對人工智能深度合成服務商未履行標識義務的懲罰制度、加強深度合成內容標識技術標準和發佈的管理、加強國際合作,強化形成人工智能生成合成內容的有效監管。

“AI生成虛假信息的治理和打擊力度,已成爲當前亟待解決的問題。”全國政協委員、四川大學華西醫院教授甘華田則從完善AI生成內容監管法律法規體系、加強技術監管與防範、建立健全監管機制、提高公衆素養與法律意識等方面,督促生成式人工智能信息行業的健康發展。

(編輯:吳清 審覈:李正豪 校對:翟軍)