議事時刻 | 雷軍、靳東因AI換臉、換聲登上熱搜,AI治理道阻且長

AI(人工智能)技術飛速發展,逐漸在金融、商業、醫療等領域落地應用。然而,相關技術的快速普及也帶來了諸多治理和安全挑戰,尤其是在AI換臉、數據隱私、模型安全等方面。2025年兩會期間,多位代表和委員圍繞AI治理、AI安全等問題展開熱議。

全國人大代表、小米集團創始人雷軍提出應加快AI換臉擬聲技術的立法進程,明確技術應用邊界,完善侵權證據規則,並加大對利用AI技術實施犯罪行爲的刑事處罰力度。全國政協委員、360集團創始人周鴻禕提出“以模製模”概念,利用安全大模型來解決大模型應用中的安全問題,建議對大模型的“幻覺”問題給予柔性監管。全國政協委員、奇安信集團董事長齊向東指出,AI發展正面臨三個方面的安全問題,包括人工智能大模型自身的安全問題、利用人工智能開展網絡攻擊的問題,以及通過攻擊人工智能引發的“網絡攻擊大爆炸”。他認爲應從技術、制度、成果應用三方面入手,系統提升安全能力。

另外,“靳東兩會建議AI換臉立法”“雷軍迴應國慶7天被AI雷軍罵了8天” 等話題也在今年兩會期間登上微博熱搜,引發行業進一步討論AI換臉換聲的風險問題。對於AI僞造技術發展,瑞萊科技聯合創始人蕭子豪對第一財經表示,近一年來利用AI換聲、換臉進行詐騙、造謠等違法犯罪行爲屢禁不止、愈演愈烈,呈顯著上升趨勢。犯罪行爲變得更具迷惑性,也更加隱蔽。

在蕭子豪看來,背後的動機一方面是利益驅動,如AI詐騙迷惑性極強,顛覆普通人“眼見爲實”的常識,一旦受害者“上鉤”,不法分子不會輕易放過“大魚”。從瑞萊的統計數據來看,AI詐騙涉案金額遠超一般詐騙案件。AI造謠傳謠是爲了在短時間內博取關注、賺取流量,鋌而走險,再伺機變現。AI造謠傳謠的治理難點主要是造謠傳言的成本很低,但闢謠的成本很高且時效性滯後。另外一方面,近年來生成式AI技術能力突飛猛進並持續開源開放,大量工具、產品問世,極大降低了不法分子利用AI的門檻和成本。

目前針對氾濫的“AI換臉”情況,有專家建議通過水印標註進行防禦。但有業界人士指出,水印標註是主動式防禦,它的門檻較高,需要提前對圖片、視頻等內容進行處理。如在照片內嵌入一些視覺上不可感知的噪聲。當他人利用照片訓練模型,會因爲這種隱形干擾影響對視覺表徵的提取,此類爲對抗樣本攻擊。還有一種半脆弱性水印,是另一種主動防禦方式,即添加水印之後,如果有人編輯照片,水印就會被破壞,後期檢測能夠得知照片經過處理。但水印無法直接阻止照片、視頻被換臉,僅可以事後檢測和認證圖像的真實性。

對於AI換臉引發的安全風險,蕭子豪表示,AI技術衍生安全風險的治理問題是個非常複雜的社會問題,涉及很多方面。既要在法律法規層面事前規範引導、事後監管懲戒,也需要有技術手段令AI更加安全、可控。在技術層面,生成和鑑僞的對抗性非常強,需要持續長期投入,就像是“貓鼠遊戲”,此消彼長,相互博弈。與互聯網產品或者其他AI產品不同,AI鑑僞產品並非開發完就結束,而是要隨着生成技術的進展不斷研究、更新、迭代,沒有終點。