兩會時間|聚焦大模型安全 直指AI濫用亂象 多位代表、委員建言獻策

財聯社3月4日訊(記者 付靜)國產大模型DeepSeek橫空出世驚豔業界,當前人工智能技術日新月異,但社會上藉助人工智能作惡的現象也層出不窮。

今年全國兩會,人工智能再成熱點話題,財聯社記者梳理採訪獲悉,截至發稿已有近十位代表、委員將打擊AIGC虛假新聞、完善AI視頻傳播管理機制、防止AI欺詐與侵權在內的諸多AI安全思考寫進兩會建議,對人工智能如何平衡技術創新與安全風險這一重要課題給出解法。

AI頻遭利用 虛假信息傳播引擔憂

財聯社記者前期採訪獲悉,近期一系列虛假信息藉由AI問答或AI內容生成大面積傳播,別有用心者試圖以此製造社會話題。有害信息“穿”上AI的外衣,其傳播隨之更隱蔽、更“可信”、也更具破壞性,不僅誤導公衆、擾亂輿論,甚至或將引發使用者對AI大模型技術本身的安全擔憂。

多位委員、代表圍繞這一現象發聲,例如:全國政協委員、四川大學華西醫院教授甘華田擬提出加強對AI生成虛假信息治理的建議;全國政協委員、新疆新的社會階層人士聯誼會副會長海尼扎提·託呼提擬提交“關於加強AI生成不實信息治理”等提案。

此前的2025上海兩會期間,上海市人大代表、合合信息(688615.SH)董事會秘書劉忱也提出建議:多方聯合,共同協作打擊AIGC虛假新聞;鼓勵企業研發AI防禦與鑑僞技術;構建倫理訓練與數據集體系;用科技強化知識產權保護法律“武器”。

據財聯社記者觀察,虛假信息傳播亂象頻發,形式已不僅限於文字。

“AI技術降低了視頻合成和製作的門檻,使得虛假內容的生成變得容易。網絡上出現的各類AI生成視頻中,有些是模仿明星或專家的形象和聲音進行傳播,有些則是虛構人設,用於推銷產品,誤導消費者購買不必要的商品,造成財產損失,甚至產生信任危機。還有些視頻通過流量變現的形式去獲利,加劇亂象。”全國人大代表、美的集團(000333. SZ)副總裁兼首席財務官鍾錚告訴財聯社記者。

她認爲,現在生成式人工智能在法律法規體系上仍不完善,特別是在界定AI生成內容的版權歸屬,以及侵權責任認定、隱私保護標準方面存在空白。此外,目前對於生成式人工智能視頻的審覈,技術條件有限,還需要繼續完善技術手段。

此次鍾錚計劃提出《關於完善生成式人工智能視頻傳播管理機制的建議》:一是修訂《著作權法》等相關法律法規,加強原創版權和隱私保護。二是平臺方應加強對AI生成視頻的審覈和監督,確保內容的真實性。對於AI生成的視頻,應強制標註警示性提示,提醒消費者注意辨別。三是利用AI技術審覈AI合成的視頻內容,同時投入更多資源開發高效的AI審覈工具,並結合人工審覈,通過雙重校驗提高識別準確率。四是加強行業自律與政府監管,對違法違規行爲進行嚴厲懲治,督促行業健康發展。

AI欺詐與侵權問題何解?

今年全國兩會期間,防止AI深度僞造欺詐亦受到關注。

全國人大代表,TCL創始人、董事長李東生帶來的《關於加強AI深度僞造欺詐管理的建議》提到,隨着生成式人工智能技術的發展,深度僞造技術也快速發展。要規範對於這一新興技術的不當利用,有必要要求深度合成服務提供商對人工智能生成的內容進行強制標識,減少惡意濫用,並有助於釐清責任、對違法犯罪行爲追責。近年來,我國相關立法雖有關注這一議題,但已出臺的規章制度尚不成體系,還不具備可操作的細則和明確的處罰標準。

“近期,中國也參加了法國等61個國家在巴黎的人工智能行動峰會,我們也簽署了《巴黎人工智能宣言》,這是全球AI治理的一個重要嘗試,也標誌着全球AI治理邁入新階段。考慮到技術創新和相關監管需要,可適度推後對未履行標識義務的AI深度合成服務商的懲罰制度,可提前明確相應處罰措施,有利於相關企業儘早做好合規的準備。”李東生在接受財聯社記者採訪時表示。

李東生建議:第一,加快人工智能深度合成內容標識管理規章制度的出臺。第二,明確對人工智能深度合成服務商未履行標識義務的懲罰制度。完善對深度合成內容服務提供商未按要求進行標識的行爲界定、分類細則,以及相應的處罰標準。第三,加強深度合成內容標識技術標準和發佈的管理。出臺深度合成內容標識的技術標準,保證標識的有效性;此外,對相關內容平臺出臺要求,用戶在發佈深度合成的視頻、音頻等內容時,有義務對其進行標識。第四,加強國際合作,形成人工智能生成合成內容的有效監管。

全國人大代表、小米集團董事長兼CEO雷軍也提出建議:加強“AI換臉擬聲”違法侵權重災區治理。

“‘AI換臉擬聲’不當濫用造成了違法侵權行爲的重災區,易引發侵犯肖像權、侵犯公民個人信息以及詐騙等犯罪行爲,甚至造成難以挽回的大規模形象和聲譽損害,帶來社會治理等風險。AI深度合成技術所需素材獲取便利、技術使用門檻低、侵權主體及其手段隱蔽性強等特點,給治理帶來較大挑戰。”雷軍稱。

雷軍認爲,首先應加快單行法立法進程,在安全與發展並重的基礎上提升立法位階;其次,強化行業自律共治,壓實平臺企業等各方的責任和義務;最後,加大普法宣傳的廣度力度,增強民衆的警惕性和鑑別力。

大模型仍面臨諸多安全挑戰

去年兩會,“人工智能+”被寫入政府工作報告,一度成爲科技行業熱詞。多家通信、計算機企業曾在接受財聯社記者採訪時表示,人工智能成爲新生產工具,系新質生產力的重要驅動因素之一。過去一年國內人工智能產業的快速發展有目共睹,特別是國產大模型DeepSeek橫空出世,在世界範圍內備受關注,不過,隨着人工智能技術的深度應用,大模型所面臨的、所帶來的安全挑戰也日益嚴峻。

“Deepseek一問世,針對性的高強度網絡攻擊就爆發了,給人工智能行業敲響了堅守安全底線的警鐘。我們發現,現在越來越多的企業、個人開始搭建DeepSeek大模型私有化部署,而將近90%的服務器都沒有采取安全措施,服務運行和數據安全岌岌可危。”第十四屆全國政協委員、全國工商聯副主席、奇安信(688561.SH)集團董事長齊向東在接受財聯社記者採訪時如是表示。

今年兩會前夕,全國政協委員、360集團創始人周鴻禕亦在接受記者採訪時談及了上述問題。他認爲,對DeepSeek來講,AI安全問題至少分四個層面,即基座模型、用戶端安全問題、知識庫引發的數據安全問題、“以模製模”問題。

齊向東告訴記者,人工智能發展面臨的安全問題大致可分三類:大模型自身安全問題、利用人工智能開展網絡攻擊的問題、通過攻擊人工智能引發的“網絡攻擊大爆炸”。

聚焦大模型自身安全問題,齊向東分析,“開發風險、數據風險、應用風險和基礎環境風險這四大安全風險比較突出。開發方面,開源大模型要重點防範代碼缺陷和預留後門等問題;應用方面要防‘內鬼’對訓練數據投毒,進行模型篡改、配置篡改;數據方面,要小心內部配置錯誤和弱口令等造成的數據庫暴露;基礎環境方面要重點關注雲、API、傳統設備漏洞等等。目前,已有團隊發現DeepSeek存在嚴重漏洞,並可藉此獲取後端隱私數據、API 密鑰、操作元數據,儘管漏洞很快被修補,但是根據我們的經驗,新漏洞會不斷被挖掘出來。”

周鴻禕則表示,爲保障大模型技術健康發展,需從大模型安全、網絡安全和數據安全三個方向發力。

針對前述大模型安全問題,齊向東告訴記者,要從技術保障、制度保障、成果應用三方面入手,包括建立適配大模型的縱深防禦體系,築牢人工智能的安全根基;制定大模型安全強制合規要求,夯實人工智能安全發展的制度保障;推廣“AI+安全”創新成果落地,走好提升安全能力的必經之路。

(財聯社記者王碧微、陸婷婷對本文亦有貢獻)