優化知情同意規則促進生成式人工智能向善發展

葉欣

【析理論道】

第55次《中國互聯網絡發展狀況統計報告》顯示,截至2024年12月,中國生成式人工智能產品用戶規模達2.49億人。生成式人工智能通過數據分析、技術處理、邏輯推演,能夠具備人類的思考、推理、分析和交互等能力,在很多行業領域應用廣泛。隨着數字經濟的發展,以及人們對隱私權、人格權保護的日益重視,如何實現法律規制與技術創新相協調,進一步防範生成式人工智能的風險,促使生成式人工智能領域治理的法治化、規範化、科學化,成爲一項重要課題。在此背景下,優化立法中的知情同意規則尤爲關鍵。

從發展淵源看,知情同意規則源起於醫療領域,最初是指患者在對健康狀況、治療方案、醫療風險充分了解的基礎上,進行自我決定和決策,體現的是對患者人格尊嚴的尊重和健康利益的保護。在信息領域,知情同意規則發揮着重要作用,強調在獲得信息主體的同意和確認後,個人信息的使用、處理行爲方具有正當性基礎,注重對信息主體的人格尊嚴及信息自決的尊重、保護。大數據時代,知情同意規則對信息自決權和隱私保護的重要性毋庸置疑。

實踐中,在個人信息的獲取、使用、流轉等環節,信息主體的知情同意授權已成爲常規操作,但受一些因素影響,知情同意的“強同意”在諸多領域逐步衍變爲“弱同意”,權利保護和信息利用的平衡治理亟待關注。一是同意的形式化。知情同意協議長篇累牘,專業術語生澀、難以理解,信息主體出於迫切性和時間考量,不得不選擇全部同意。二是捆綁性選擇。即不同意就無法繼續使用相關服務,信息主體需在授權與退出之間二選一。三是後續監管難。信息主體一鍵授權,同意即爲永久有效,後續信息的使用者和使用環節不確定或不可控,面臨擴展性使用和泄露的風險,監管治理難度較大。

數據資源是生成式人工智能訓練的來源和養料,而知情同意規則是生成式人工智能確保數據溯源可信、使用合規的重要基石。國家發展改革委等六部門2025年1月6日印發的《關於完善數據流通安全治理 更好促進數據要素市場化價值化的實施方案》,從事前安全治理、事中安全支撐、事後安全保障等方面對數據流通進行了全方位規劃,強調個人數據流通中取得個人同意的合法性。生成式人工智能應具備法律規則的規範性、技術應用的安全性,可以通過優化知情同意規則,形成發展向善、安全可信、治理可靠、救濟有效、規範完備的法律體系,以促進其向善發展。

一是樹立合理限度、最小必要的治理理念。我國發布的《全球人工智能治理倡議》提出了“以人爲本、智能向善”的人工智能發展方向。最小必要是生成式人工智能收集個人信息、獲得授權同意所需要遵循的基本理念,在立法和司法過程中需要秉承這一理念,加強對立法完善及司法實踐的引導。生成式人工智能涉及全方位、深層次挖掘個人信息的處理過程,在利用數據信息的各環節中,對數據信息的收集、處理應秉持合理、必要的限度,避免過分收集、提取私密的個人信息,通過加強算法規則的技術審查、預先評估風險、嚴格執行備案機制等方式,儘可能降低信息泄露的風險,在數字經濟發展與個人信息保護之間尋求有效的平衡點。

二是落實分級分類的治理模式,差異化配置不同的同意模式。一方面,區分不同信息的保護邊界和保護方式。例如,對個人普通信息,獲得信息主體默示同意;個人敏感信息,需要獲得信息主體明示同意;人臉信息、金融信息等識別特徵、私密特徵強的信息,需要獲得信息主體明確的書面同意。另一方面,告知方式不僅應當簡潔、明晰、容易理解,而且如後續用於生成式人工智能的數據訓練、人機交互等用途還應明示告知,對於可能改變數據處理範圍或向其他機構提供的情形,則需動態獲得信息主體的同意,進行二次授權確認,保證處理過程的透明度。此外,信息主體需要掌握信息控制的靈活性與主動權,如享有刪除、更正、撤回同意的退出性權利,使得生成式人工智能利用信息的風險更加可控。

三是促進數據信息的合規流通,實現知情同意等全流程的可追溯式監管。運用區塊鏈等技術手段對信息利用、流轉的環節進行監管,使得每個環節能夠實現可追溯管理,建立動態的治理體系,堅守數據安全底線。利用自動化檢測程序、工具加強對數據流通的實時監管,保證每一階段的處理合規、透明,並建立識別和預警機制,實現流程化操作的留痕,確保過程可追溯、責任可界定。破除監管壁壘,各部門形成常態化的監管合力,實現監管部門的聯動性、一致性、協調性,打造多元共治的格局。構建治理閉環,通過行政監管、企業自治、社會參與、第三方監督等多方協同,形成監管機構主導、企業強化自律、公衆積極參與、外部獨立監督的有效治理機制。

四是適用舉證責任的倒置,細化司法程序,推進生成式人工智能權益救濟的法律路徑更加有效。由於生成式人工智能運行過程主要涉及電子證據,其具有易變性、多樣性、技術依賴性等特點,適用“誰主張誰舉證”的一般證據規則可能會引發取證難等問題。信息處理者是具有地位優勢和技術優勢的一方,負責信息的收集、存儲、使用、加工等環節,舉證能力強,在司法程序中應當舉證倒置,加大其舉證責任,從而降低信息主體的維權難度和成本,以彌補技術優勢等因素在信息主體和信息處理者之間造成的差距和不足。

五是推進統合式立法,助力生成式人工智能法律體系更加完備。當前,網絡安全法、數據安全法、個人信息保護法以及《生成式人工智能服務管理暫行辦法》等法律法規,爲加強對人工智能的監管提供了制度支撐,體現了多維度、多層次性的特點,明確了人工智能發展的規則和秩序,但法律法規之間存在一定交叉,需要結合生成式人工智能複雜、多樣的發展趨勢進行整合,形成系統、規範的人工智能法律體系。生成式人工智能的良好發展既要技術賦能,又要受到法律規則的約束,進而築牢數字信任體系基礎,助推數字經濟發展。

(作者:葉欣,系武漢大學國際教育學院副教授)