原創作品被判定AI生成平臺怎麼防止“冤假錯案”

來源:滾動播報

(來源:千龍網)

人與AI之間的界線可能越來越模糊,但權利與責任的界線必須越畫越清。

“手敲了一下午的劇本被以爲是AI”。據報道,隨着AI的廣泛應用,一些“真人創作者”也面臨窘境:自己發佈的內容被平臺誤判爲AI生成,甚至面臨作品被限流、下架的境遇。

不久前,一句評論引發全國首例AI誤判案或能帶來啓示。一位普通網民李先生在某平臺發表評論,被機器判定爲“AI生成”,內容遭隱藏,賬號被禁言一天。向平臺申訴未果後,李先生選擇起訴平臺,北京互聯網法院經審理支持了李先生的訴求,判決平臺刪除對李先生評論的違規處理記錄,撤銷隱藏內容。

表面上,這只是一次輕微的網絡糾紛,但因身處“算法”和“AI”生成兩大前沿科技的交匯點而別具意義。比如應該如何對待AI生成內容?平臺算法在其中承擔了什麼角色,產生誤判又該怎麼辦,用戶與平臺出現爭議誰來舉證等問題。

在此案例中,法院並沒有親自下場釐清李先生的評論到底是不是AI生成,而是通過明確兩個原則進行判定,其一,平臺有權對涉案內容是否屬於AI生成合成內容進行審查和處理;其二,平臺應該有合理依據。這實際上把舉證的責任交給了平臺,而平臺又無法對算法決策依據和結果進行適度的解釋和說明,因此敗訴。

9月1日起,國家互聯網信息辦公室、工業和信息化部等部門聯合發佈《人工智能生成合成內容標識辦法》將施行,要求上游AI模型需要對生成內容、元數據文件添加標識,平臺亦應根據不同情形添加相應標識。

現實遠比規則複雜。未來靠人力對AI生成內容標識顯然不可能,“用AI對抗AI”將成爲常態,AI檢測技術難免出錯。更大問題在於,當算法的判定缺乏解釋性、申訴機制不透明時,誤判不僅是一時的技術錯誤,而是對創作者聲譽和作品可見度的直接傷害。

北京互聯網法院此次判決的意義在於,它首先認可了平臺的“守門員”角色,認爲平臺具有相關內容的審覈權,但同時又限制了平臺的“裁判員”角色。這不僅是法律邏輯,也是權力與責任的平衡。

判定一條網友評論是否AI生成事小,但確定原則、防患於未然事大。2016年,澳大利亞政府通過技術手段檢測社會福利欺詐,簡單對比稅務與福利數據,自動判定了大量低收入者涉嫌騙保,這一過程中超過50萬人受到影響。但這是一次誤判事件,最終政府公開道歉並啓動賠償計劃。如無合理制度,類似事件並非不可能重演。

由此也可讓公衆知曉,在AI時代,被誤判後是可以主張合法權益的;平臺應建立更高效、更可追溯的複覈機制,同時要加強算法的“可解釋性”。

在未來的數字世界裡,人與AI之間的界線可能越來越模糊,但權利與責任的界線必須越畫越清。否則,我們將生活在一個諷刺的場景中:最擅長模仿人類的AI安然無恙,而真正的人類卻要四處證明自己“不是機器”。