AI,既要用好也要管好(社會雜談)

石 暢

不久前,某機場出現一張由人工智能(以下簡稱“AI”)生成的廣告畫面,因人物主體有六根手指引發熱議。這一失誤看似荒誕,卻也揭示出“AI幻覺”的問題。

當算法能夠驅動內容生產,AI迅速響應用戶指令,生成各類文本、圖像和音視頻內容,“一鍵生成”帶來的快感,讓越來越多的人陷入“技術依賴”,同時也產生了信息混淆和傳播誤導的風險。

近日,國家互聯網信息辦公室等四部門聯合發佈《人工智能生成合成內容標識辦法》(以下簡稱《標識辦法》)。《標識辦法》聚焦人工智能“生成合成內容標識”關鍵點,通過標識提醒用戶辨別虛假信息,明確相關服務主體的標識責任義務,規範內容製作、傳播各環節標識行爲。

《標識辦法》要求,由人工智能生成的文本、圖片、音頻以及視頻等內容,均需添加顯式或隱式的標識。顯式標識,如文字、語音提示,能夠直觀地告知用戶內容的生成來源;隱式標識,如元數據、數字水印,則能在不影響用戶體驗的前提下,暗中標記內容的生成信息。這一舉措有效破解了內容溯源的問題,還有助於重建網絡空間的信任秩序。

技術的發展同風險挑戰,從來都是相伴而生。從實驗室裡助力前沿探索到醫療影像輔助診斷,從城市交通智慧調度到農業精準種植指導……AI爲人們帶來了更便捷智能的體驗,但也出現了一系列因濫用AI而生的問題:深度僞造技術製造的虛假影像難辨真僞,AI換臉技術催生的身份盜用防不勝防,惡意生成內容更成爲網絡空間的新型污染源。

既要用好,也要管好。近年來,我國已相繼出臺《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等政策文件,既爲技術創新開闢航道,又爲公共利益築牢堤壩。通過不斷對新出現的問題實施針對性治理措施,並與算法備案、安全評估等制度相銜接,科技向善的願景得以更好地維護和發展。

公衆如何使用AI也顯得尤爲重要。人工智能最終是要爲人服務的,需要人來做出選擇和判定。我們需要形成批判性使用AI內容的共識,提高人們對AI生成內容的辨識能力和防範意識。只有這樣,我們才能讓AI爲工作和生活賦能,避免被AI“挖坑”。

當前,AI以“周更”速度迭代且更爲深入地介入現實生活,生成內容日均億萬量級地井噴,可以預見,相伴而生的AI治理問題還將持續出現。在創新的同時築牢安全底線,實現動態平衡中的持續優化,將是AI時代長期面臨的課題。只有將技術的“快”與人類的“慎”結合起來,才能更好地讓技術爲人類所用,服務社會發展。