劉雲:打掉AI養號“黑”產業鏈,需要進一步系統治理
來源:環球時報
近期,有網友發現,短視頻平臺上出現了大量形象光鮮的AI數字人主播,他們在視頻裡聊天、帶貨,甚至還能在評論區高頻互動,但視頻未標註任何AI生成提示,一些警惕性較低的人很容易被誘導下單,成爲這種新型陷阱的受害者。而這背後是一條從“起號”到“養號”、以AI技術貫穿始終的黑色產業鏈。
“1人管控50個小紅書賬號”“3至15天收穫上萬粉絲”“10秒生成一篇文章”……AI技術本應成爲提升自媒體運營效能的賦能工具。隨着多模態大模型的功能升級和各種智能體工具的拓展,創作門檻與成本顯著降低,對於依託自媒體進行生活分享、產品推廣的主體而言,無疑是高效便捷的技術支撐。例如浙江義烏商販靠AI工具變成外語口播達人、拓展跨境社交電商;律師上傳專業知識庫、搭建法律智能體,代替自己與用戶7×24小時交互。這些都是AI在自媒體領域的正向應用,值得倡導與推廣。
然而強大的技術一旦被濫用,其危害也是巨大的。部分賬號將目標羣體鎖定中老年女性,在視頻中展示“完美熟齡女性形象”,搭配“40+、50+長這樣,怎麼樣”等話術,配合“水軍”互動、渲染“年齡焦慮”,藉機推送“三無”保健品,或編造虛假健康知識,實施欺詐牟利。實際上,這些視頻中保養良好的皮膚、身材和所謂“保健品”沒有關係,都是算法合成的“功勞”。
整個AI起號、養號的流程鏈路上,充滿了法律風險。首先,在註冊環節,一些公司爲了效率,普遍是批量起號、養號,僞造身份信息、虛構互動數據,明確違反《網絡信息內容生態治理規定》《互聯網用戶賬號信息管理規定》,觸碰了社交賬號實名制的紅線,其註冊環節的身份欺詐與流轉環節的主體錯位,不僅違反監管規定,更埋下數據安全與權益侵害的隱患。
其次,在“創作”環節,多數起號公司是利用AI洗稿生成“僞原創內容”,例如以技術手段實施同義詞替換、句式重組及片段拼接,在覈心表達與獨創性要素上與原作品是雷同的。這種看似“二次創作”的行爲,侵犯了原作者的複製權與改編權。此外,發佈未經審覈、可能存在事實錯誤、誤導性表述的內容,可能構成傳播虛假信息的違法行爲。尤其在醫療健康、金融財經、社會熱點等敏感領域,很容易引發公衆誤解或社會秩序混亂。
再次,在發佈環節,違規者爲規避監管審查,往往採用多種規避手段。例如改變視頻文件代碼結構、裁除AI生圖軟件水印、削弱特徵性技術痕跡、隱瞞AI生成屬性以逃避平臺識別。正是這類技術漏洞,導致大量虛假內容未經攔截,流向了較脆弱羣體。
最後,在轉讓環節,多數人可能不瞭解的是,反電信網絡詐騙法規定,任何單位和個人不得非法買賣、出租、出借互聯網賬號。若私下轉讓的賬號在後續經營中違法犯罪,原使用者可能需承擔相關責任甚至構成共同犯罪,面臨刑事處罰。
對於AI在自媒體行業的應用,我國已通過《生成式人工智能服務管理辦法》《人工智能生成合成內容標識辦法》等法律法規構建起針對性監管框架。而在實踐中,監管部門也會同平臺,持續大力打擊各類亂象。今年4月啓動的“清朗·整治AI技術濫用”專項行動,處置違規賬號3700餘個,多家平臺也同步開展AI批量造假賬號整治。
但隨着AI技術的進步,違規行爲也愈發隱蔽化,因此整治AI造假起號亂象必須久久爲功,構建多方協同治理體系。平臺應升級AI識別技術,縮小各類規避手段造成的檢測盲區;對教程售賣、批量起號商家,應實施流量封禁與商業變現限制,阻斷“造假方法論”的傳播,並建立違規賬號“黑名單”制度。監管部門則可沿起號、養號鏈條溯源,嚴厲打擊背後機構。此外還要強化老年羣體數字素養教育,普及辨別AI生成內容的技巧,如關注表情僵硬度、背景違和感等特徵,提升其風險防範能力。
AI作爲工具,其本身不具備價值屬性,如何使用決定了其結果。只有在法律法規框架內,引導AI技術正向應用,方能使AI真正成爲自媒體的好幫手,守護網絡空間清朗生態,讓全體網民安心共享數字時代紅利。(作者是清華大學智庫中心、法學院助理研究員)