謝堯雯:生成式人工智能價值鏈行政監管與侵權責任的匹配 | 政法論壇202502
【作者】謝堯雯( 中國政法大學法與經濟學研究院副教授)
【來源】北大法寶法學期刊庫《政法論壇》2025年第2期(文末附本期期刊目錄)。因篇幅較長,已略去原文註釋。
內容提要:生成式人工智能價值鏈具有多主體參與、機器自主學習的特徵,法律規制需要實現行政監管與侵權責任的效率匹配。行政監管旨在預防系統性風險,爲基礎模型研發者、專業模型研發者、服務提供者設定基礎行爲義務,增強價值鏈透明度,從而促進價值鏈各主體形成秩序互動與協同治理。行政監管設置的風險預防規則將影響侵權責任歸責原則與構成要件的判定,侵權責任則需要發揮其獲取場景信息的規制優勢,彌補行政監管迴應科技發展的制度缺陷。生成式人工智能服務提供者應適用產品責任,通過完善產品缺陷認定實現侵權與監管的銜接。法院以行政監管設置的績效標準與內部管理型標準爲框架,判斷行業守則與標準是否符合合理技術設計要求,並激勵行業層面不斷完善自我規制、探尋最佳技術實踐,實現軟法與硬法的互動。
關鍵詞:生成式人工智能;價值鏈;行政監管;侵權責任
一
問題的提出
生成式人工智能技術蘊含着推動各行各業發展的重大潛力。這一技術系統基於價值鏈開展研發、生產、應用活動,牽涉多個主體的複雜互動且伴隨機器自主學習。如何爲價值鏈不同主體合理設定行爲義務以確保系統安全與公正,成爲法律規制難點。行政監管與侵權責任是約束價值鏈參與者行爲的核心規制框架,二者有效匹配對於優化人工智能規制設計至關重要。這一議題在實踐中亦得到了初步關注。2024年2月,廣州互聯網法院在判決中對生成式人工智能行政監管與侵權責任關係作出了初步評價。法院在判決說理中明晰,由於被告違反了《生成式人工智能服務管理暫行辦法》第15條、第4條、第12條,未盡到合理注意義務,因此存在過錯。
該判決將“生成式人工智能服務提供者”違反公法義務視爲侵權責任過錯評價標準之一,這一做法值得審視。一方面,《生成式人工智能服務管理暫行辦法》與現行法院判決都將責任主體限定爲“生成式人工智能服務提供者”,並沒有關注到價值鏈其他參與者,是否符合技術邏輯有待深入探討。另一方面,關於行政監管與侵權責任之間如何構建匹配機制,違反公法義務構成侵權過錯判斷標準是否會導致公私法界限模糊,仍有待進一步思考。在這一問題意識下,本文以生成式人工智能價值鏈技術邏輯爲基礎,探討行政監管與侵權責任如何實現效率匹配。
二
生成式人工智能價值鏈規制的核心理念
——實現行政監管與侵權責任的匹配
生成式人工智能系統價值鏈具有多主體參與、各主體相互依賴與影響、機器自主學習等特徵,這爲有效規制各主體行爲、保障技術系統的安全與公正帶來了挑戰。法律規制需要綜合考量行政監管與侵權責任在行爲規制方面的優勢與不足,構建兩者間的協調匹配機制。
(一)生成式人工智能價值鏈技術特徵
價值鏈概念最初用於描述商業運營流程。商業運營中,每項活動都涉及將輸入資源轉化爲有價值的輸出,上游行動者基於線性鏈條逐次將輸出轉移至下游行動者,進而構成了一個由多主體共同參與的價值創造鏈條。人工智能系統由一系列活動和環節構成,牽涉多主體共同創造價值,體現了價值鏈特徵。價值鏈概念所揭示的各主體間複雜的行爲關係以及價值累積效應,成爲人工智能法律規制設計必須考量的重要因素,也因此被衆多國家的監管機構引入至人工智能的監管討論之中。生成式人工智能系統價值鏈與一般人工智能系統價值鏈在覈心運行機制上是一致的,其主要呈現以下兩大特徵。
1.多主體參與
人工智能系統發展包括如下步驟:問題界定,數據收集與預先處理,模型訓練,模型再訓練,模型測試與評估,嵌入軟件,人工智能產品或服務的部署與使用。每一個步驟都牽涉諸多主體參與,包括軟件委託方、數據收集者、數據清洗者、標註者、代碼設計者、模型調試者、訓練者、產品或服務運營的後臺操作者、終端使用者等。事實上,軟件研發一直是多主體參與的過程,導致責任歸屬不明,形成“多手問題”(Many Hands Problem)。與傳統軟件相比,人工智能系統涵蓋的數據、軟件工具與研發主體更爲多樣化,各參與者間的關聯錯綜複雜,彼此高度依賴且影響深遠。
生成式人工智能系統價值鏈主要由六個核心階段組成,每個階段都會定期進行調整與優化以更好地滿足其他階段的需求。具體階段如下:數據收集與訓練;模型預先訓練—模型訓練者選擇訓練數據集、模型架構、訓練算法,並設定訓練過程中的隨機種子值,以研發出具有廣泛適用性的基礎模型;模型微調——對預訓練模型進行調整,使其在特定領域能夠完成更專業化任務;模型發佈與系統部署—模型可以以開源形式發佈、供公衆使用與改進,也可以被嵌入到軟件應用中進行部署,還可以直接與用戶交互生成內容;內容生成—系統根據用戶輸入生成內容;模型對齊—整合人類反饋數據和強化學習算法對模型進行更新與優化,以確保模型輸出符合預設的特定偏好或標準。
2.機器自主學習
人工智能系統以機器學習技術爲核心,它不是一個具體產品或者一次性服務,而是以數據爲導向、與環境進行動態交互的“技術—社會”系統。系統的持續性發展以及用戶、研發者與系統之間的反饋循環,爲新風險發生提供了空間。這表明,即使人工智能系統在某一時刻被判定爲安全,但實際應用仍可能導致模型不穩定及性能下降。
(二)行政監管與侵權責任的效率匹配
從行爲規制視角來看,行政監管與侵權責任是約束價值鏈參與者行爲的主要規制框架。行政監管旨在於在損害發生前,設定統一行爲標準,並通過責令改正、警告、罰款、限制或剝奪行爲資質等一系列公共執法方式威懾行爲人遵守義務規則。侵權責任是受害人在損害發生後提起侵權訴訟,法院結合個案確定行爲人是否承擔賠償責任。
隨着現代規制國家不斷髮展,行政法律規範與民事法律規範不再是截然區分的運行體系。在公私法界限逐漸模糊背景下,如何鏈接行政監管與侵權責任,構成規制理論與實踐的重要議題。傳統法教義學方法從規則適用角度探討二者關係。一是探討違反公法規範是否應承擔侵權責任。公法與私法存在不同規範目標,前者保護公共利益,後者保護個體民事權益。若特定的行政法律規範兼具保護私人利益的目標,則構成“保護規範”,將成爲侵權責任的評價依據。二是探討公民權利的公法權利與私法權利屬性。如果特定法律條文既保護公共利益也保護私人利益,構成保護規範,則公民據此享有主觀公權利,可請求行政主體介入保護其權益;如果特定法律條文不構成保護規範,則公民不得主張公法上的救濟,只能通過向法院提起民事訴訟方式保護其權益。
當下科技發展的重要特點是,科技與社會互相影響、關係錯綜複雜,公共利益與私人利益難以界分。因此,從規範保護目的的規則適用視角審視行政監管與侵權責任的關係,無法爲設計科技規制制度提供有價值的邊際增量。法經濟學方法以“事前觀點”審視侵權責任,即事後損害賠償構成對行爲人事前行爲的激勵。在此意義上,侵權賠償客觀上激勵了一般社會主體採取措施預防損害發生,促使侵權機制在一定程度上發揮了“設定行爲標準、監督與執行行爲標準”的規制功能。一直以來,法經濟學從行爲效率規制視角尋求公私法匹配的理念未得到廣泛推崇。原因在於,在我國強行政監管背景下,通過個案救濟發揮司法公共治理職能,不僅會給資源不足與專業薄弱的法院帶來訴訟負擔,亦會對社會主體產生過度威懾效應,因此理論與實踐多主張弱化侵權責任的行爲規制作用。
人工智能侵權與傳統侵權存在顯著區別,侵權責任的制度功能需要從個體救濟向公共治理傾斜。一方面,人工智能侵權是價值鏈多個主體共同創造的結果,且人工智能決策具有黑箱與涌現性特徵,使得判斷某一主體行爲是否構成過錯、行爲與結果之間是否具有因果關係存在困難。另一方面,人工智能侵權並非傳統的一對一侵權或多對一侵權,其具有大規模微型侵權特徵,會導致海量個體權益受損。在此背景下,更合理和可行的方式是直接在不同主體之間分配責任,而不是依賴主觀意志過錯和因果關係來判斷侵權責任。事實上,從工業化時代開始,侵權法就朝着責任分配方向發展,責任設置亦通常超越直接涉案主體,將社會保險、責任保險等制度納入分析框架。數字時代對這種責任分配轉變提出了更迫切的需求,這也表明侵權制度已不再是單純依賴個案救濟間接實現行爲規制,而是通過責任分配直接承擔起公共治理的職能。在此背景下,尋求行政監管與侵權責任在行爲規制層面的匹配機制,對於人工智能規制設計至關重要。
1.以制度比較優勢爲基礎明確行政監管的必要與目標
行政監管的優勢在於,監管部門可以通過專業性知識、規模化監控與多元執法手段預防損害發生。但在某些情形下,制定行爲標準所需的重要信息,是伴隨風險活動的開展而生成的附屬品,無法在活動發生前被監管者感知並獲取。侵權責任的場景信息獲取優勢對於人工智能效率規制至關重要。人工智能技術帶來的社會影響更多體現爲變革知識生產方式、個體生活方式、社會交互交往形式等價值性影響。在價值多元與變動的社會中,科技與社會是協同發展的關係,事前規制性規則試圖通過特定節點的價值理念來約束技術發展,很容易隨着時間的推移而喪失其合理性。侵權責任待損害發生後進行迴應,將更顯審慎性與針對性,減小了過度管制、扼制創新的風險。因此,行政監管制度設計需要明確其必要性與目標、限度,爲侵權機制制定符合場景特徵的最優風險預防行爲標準預留空間。
就必要性而言,人工智能價值鏈存在“多手問題”,而侵權機制難以有效獨立解決。人工智能系統產生的影響,可能源於價值鏈多環節的累積效應,也可能是某關鍵環節出現問題。因此,控制風險需要多主體協同行動,或者由單一主體獨立採取措施。一方面,如果人工智能系統中各方主體承擔過錯責任,則每一方主體都可能以其他主體沒有采取更有效的邊際預防措施爲由,主張減免自身責任。另一方面,如果由人工智能系統中某一方或多方主體承擔無過錯責任,則該主體將有動力通過合同等方式釐清並督促價值鏈中其他主體實施預防措施。然而,鑑於算法的不透明性以及機器具備自主學習特徵,承擔無過錯責任的主體很可能因價值鏈中其他主體的搭便車行爲而難以確保系統安全。而且,無過錯責任還可能使行爲主體減少行爲量,進而扼制創新。就行政監管目標而言,由於價值鏈中的每一方參與者都有可能對最終結果產生一定程度的影響,事前監管應當爲價值鏈主體設定基礎行爲義務,促使各主體形成秩序互動與協同治理,從而確保技術系統維繫一定程度的安全與公正水平。
2.完善行政監管與侵權責任的銜接機制
行政監管的必要性與目的得以論證後,接下來的問題是,行政監管對於侵權責任的作用是什麼,二者如何構建銜接機制。傳統理論認爲,二者在行爲規制層面存在三種基本銜接方式:規制性規範與侵權機制部分重合但彼此構成獨立行爲評價體系,違反了規制性規範並不當然構成侵權責任;規制性規範釐定了侵權責任的基礎框架,侵權機制依賴規制性規範設置的風險級別分配風險預防責任,而且違反規制性規範將構成侵權過錯責任中的過失;規制性規範設定了細密、嚴格的行爲標準,代表社會最優預防水平,侵權機制在個案中確定的行爲標準不應高於規制性規範。本文主張第二種銜接方式。人工智能技術迭代速率日益增進,法院具有獲取場景信息的優勢,能夠在具體個案中尋求與技術發展水平相一致的、符合“預防成本—技術效益”效率原則的行爲規制標準。然而,法院欠缺專業優勢,難以在權衡技術發展的社會影響與預防措施成本的基礎上獨立判斷責任歸屬。因此,行政監管規則應當成爲界分過錯責任與無過錯責任的框架,並作爲底線規則,納入侵權責任構成要件的考量之中。
其一,根據行政監管規則來確定侵權責任的歸責原則。侵權責任歸責原則存在過錯責任與無過錯責任兩種基本形式,不同歸責原則的行爲激勵效果存在區別。在過錯責任下,法院可以依據個案事實、雙方提供的信息,判定預防行爲投入成本與收益,明確行爲人在特定場景中的“適當注意水平”。如果法院在判斷行爲注意水平方面存在信息弱勢,則可以通過設定無過錯責任來激勵潛在侵權人積極採取預防措施。在過錯責任下,行爲人達到注意義務標準後缺乏動力進行更多預防投入,由於這一注意義務標準是由法院加以認定的,因此更多體現爲一種可被觀測的“行爲注意水平”。同時,過錯責任也激勵受害人積極預防損害,實現風險的雙邊預防。在無過錯責任下,潛在侵權人無論是否存在過錯都需要對結果承擔責任,這促使他們投入更多不可觀測的預防努力,構成風險的單邊預防機制。然而,理性經濟人亦不會過度投入預防,其會通過減少行爲量來最小化成本支出。
因此,過錯責任與無過錯責任的區分不僅會影響預防主體與成本,還會進一步影響人工智能研發的數量,以及使用者與公衆是否應當監督人工智能的使用,這些均與“人工智能技術不可預測性後果應由社會整體還是技術參與者承擔”“社會合理的人工智能應用規模”等重大社會議題息息相關。雖然無過錯責任需要以法律明確規定爲前提,但法院在判斷過錯責任時往往採用寬泛過錯標準,這使得過錯責任實質上發揮了類似無過錯責任的行爲激勵效果。法院在通過個案影響科技發展重大方向方面,欠缺專業優勢與民主基礎。鑑於此,有必要通過行政監管來制定人工智能技術風險分級標準,侵權機制則依據風險級別設置無過錯責任與過錯責任。對於高風險人工智能系統,採用無過錯責任可激勵技術研發者與使用者積極投入更多不可觀測的預防努力,以確保技術的安全與公正研發使用,並通過影響行爲量的方式逐步控制此類人工智能技術數量。對於低風險人工智能系統,則適用過錯責任,由社會共同承擔技術發展的剩餘風險,進而激發人工智能技術的創新活力。
其二,以行政監管規則框定侵權責任構成要件。爲實現最優預防,行政監管設置的風險預防規則將影響侵權責任構成要件判定,而侵權責任亦需要發揮其場景信息優勢,補足行政監管迴應科技發展的制度缺陷。人工智能行政監管規則通常包括具體行爲標準、績效標準與內部管理型標準,不同監管規則在影響侵權責任構成要件方面存在區別。一方面,具體行爲標準規定價值鏈主體應當或禁止採用的技術標準或行爲措施,違反該標準將被認定爲存在過錯。人工智能侵權存在因果關係認定難題,價值鏈各主體行爲均增加了損害發生的可能性,但難以判斷這些行爲對結果的促成是否具有相當性。爲應對大規模侵權,工業化時代的因果關係開始轉變爲責任判斷,即通過後者反推前者,而非通過前者推論後者。在人工智能侵權中,這種轉變更爲必要,侵權法應進一步朝着責任分配方向發展。因此,一旦違反具體行爲標準,即可視爲增加了損害發生概率,構成過錯,並應當承擔相應的侵權責任。另一方面,績效標準與內部管理型標準構成侵權責任鏈接政府監管與行業自治的中介。績效標準與內部管理型標準並不告知價值鏈主體如何行爲的具體標準與方式,而是爲其勾勒出大致目標與決策框架,留待社會自我規制補充規範細則。此種規制方式激勵科技主體完善自律行爲準則,迴應了生成式人工智能技術發展特徵。但是,依賴行業層面的軟法治理,亦可能導致倫理洗滌、行業治理逐底競爭等問題。在此意義上,侵權機制在個案中通過判定注意標準審查行業實踐是否適當,以此激勵行業層面積極完善實踐標準、推動發現共識,實現軟法與硬法的有序互動。
三
生成式人工智能價值鏈的行政監管
行政監管應當充分發揮其規模執法和預防系統性風險的功能,爲人工智能價值鏈主體設定基礎行爲義務,以促進價值鏈各主體之間形成有序的互動與協同治理機制,從而確保人工智能系統能夠維持在一定的安全與公正水平之上。
(一)人工智能價值鏈行政監管的基本邏輯
“多手問題”並非人工智能系統引發的新議題,傳統規制領域積累了解決該問題的制度經驗。典型如,在產品責任領域,法律將責任配置給最有能力控制風險與分散風險的核心主體,以此激勵核心主體通過合同、自我規制等方式積極採取行動,確保其他參與者行爲符合法律要求。這種責任配置理念深刻影響了當下人工智能規制實踐。在2020年《人工智能白皮書》中,歐盟委員會提出,爲解決人工智能系統多主體參與難題,應當將責任配置給最有能力解決相關問題的主體。然而,白皮書並沒有明確具體哪個行爲者最適合解決何種問題。《人工智能法案》則提出“提供者”(Provider)與“部署者”(Deployer)兩個定義明確的主體,由他們承擔主要規制義務。
各國人工智能監管在認定核心主體方面仍在持續探索,但基本共識是,將人工智能系統價值鏈劃分爲研發、生產階段與應用階段,並根據不同階段特徵爲核心主體設置公法行爲規範。行政監管的核心目標是,以核心主體爲規制抓手,推動價值鏈參與者形成秩序互動、確保人工智能系統維繫一定程度的安全水平。行政監管的核心路徑在於,對研發生產與應用階段的重要風險點實施風險緩解措施,並建立信息共享機制,爲研發者或提供者、部署者或使用者進行風險緩解提供信息基礎。
其一,研發與生產階段涉及將何種數據、算法、功能嵌入到人工智能系統中,這種“價值物化”直接決定了人工智能系統的核心性能。研發者與提供者對這一過程擁有較高程度控制權,行政監管重點在於規範“算法影響評估程序”,確保人工智能系統嵌入公平、公正、透明等重要價值理念。其二,在人工智能應用階段,使用者能夠通過調適使用方式來減小事故發生概率,這表明人工智能系統產生的損害是一種雙邊事故,即受影響者本身亦對損害發生有一定作用力。因此,行政監管規則發揮了關係建構作用,其通過影響使用者與人工智能系統的互動策略,型塑一種秩序化的人機關係。規範人機交互關係的核心在於,通過制定使用行爲規範,指導人類使用者合理確定對人工智能系統的信任。在輔助決策中,信任程度決定了人類在多大程度上採納機器建議;在替代決策中,信任程度則界定了使用者介入機器行爲的範圍與深度。其三,人工智能價值鏈各環節緊密相連、互相影響,且風險緩解具有疊加性與替代性特徵。因此,行政監管需要建立信息共享機制,爲核心主體履行義務提供必要支撐。信息共享至少應當包括:上游研發生產者之間的信息共享、上游提供者向下遊部署者提供系統性能信息、下游部署者向上遊提供者提供系統運行信息。
(二)釐定生成式人工智能價值鏈的核心義務主體
生成式人工智能系統的研發生產、商業運營與傳統人工智能系統存在顯著區別,須結合具體場景確定核心義務主體。一方面,生成式人工智能系統的基礎模型並非爲特定應用場景而研發,且區別於傳統人工智能系統與模型作爲整體研發,其研發通常獨立於整體系統。基礎模型對系統性能具有重要影響,因此有必要對其進行專門規制。另一方面,基礎模型存在多種部署方式。其一,基礎模型提供者開放應用程序接口,形成“模型即服務”(Maas)產業生態,向下遊部署者提供模型服務。其二,基礎模型提供者公開發布模型或其部分元素,其他部署者可根據許可條件使用或修改模型。其三,基礎模型提供者將模型服務直接嵌入到網絡頁面或其他應用程序中,向終端用戶提供內容生成服務。
就此而言,生成式人工智能系統的“研發生產—應用”可以劃分爲兩種商業模式:“基礎模型研發—基礎模型微調後進行服務供給—終端用戶使用”與“基礎模型研發—基礎模型垂直部署進行服務供給—終端用戶使用”。就第一種模式而言,研發生產階段的核心義務主體應確定爲基礎模型提供者與專業模型研發者;應用階段的義務主體應確定爲生成內容服務提供者。就第二種模式而言,系統研發生產階段與應用階段的核心主體都是基礎模型提供者。
(三)爲生成式人工智能價值鏈核心主體設定公法義務
1.基礎模型提供者應當履行數據公平保障義務和系統安全保障義務
基礎模型的訓練數據與生成結果之間的關係,並非僅存在算法黑箱的不可解釋性,在達到某個臨界點時,還會呈現涌現特徵。鑑於基礎模型的技術特徵及其對社會的強大賦能效應,規制重點應當集中於微觀層面的數據保護與宏觀層面的系統安全。
就數據保護而言,基礎模型研發要求更大規模的數據訓練,構建數據保護利益與模型經濟價值之間的權衡機制至關重要。數據處理方式需依據具體場景由處理者判斷,難以預設明確行爲標準。因此,行政監管應制定程序規則,如個人信息保護影響評估及負責人職責等,通過規範內部管理程序促使研發者將個人信息保護目標嵌入數據處理程序。就係統安全而言,基礎模型具有通用性,行政監管應當關注系統安全而非具體場景下的算法影響。當前,宜在激勵相容監管理念指引下,對普通基礎模型進行包容審慎監管,並對達到一定規模者提出安全保障要求。歐盟已實施基於風險的分層監管,爲達到一定規模的基礎模型設定安全標準。核心安全保障機制爲“對抗測試”,即驗證大模型是否會產生有害內容、不可預測的系統侷限或者與系統濫用有關的潛在風險等。法律應侷限於規範“對抗測試”的基礎程序,激勵、引導行業形成符合當下最優技術水平的測試標準。
2.專業模型研發者應當履行算法影響評估義務
算法影響評估根據不同技術設計可能引致的不同應用影響,選擇風險最小、最符合社會倫理規範的設計模式。相較於傳統人工智能系統,生成式人工智能價值鏈可能存在兩個研發階段,如何設計影響評估制度構成監管挑戰。這也成爲歐盟《人工智能法案》立法過程中關於生成式人工智能規制最具爭議的議題。2023年6月的草案文本提出,由於基礎模型應用必然包含高風險領域應用,因此基礎模型提供者需要承擔高風險人工智能系統提供者義務。但是,最終法案減輕了基礎模型提供者風險管控負擔,轉由專業模型研發者承擔。專業模型研發者基於特定應用目標訓練基礎模型,能夠感知人工智能系統的應用場景且控制了用戶界面,對生成內容進行了預先謀劃與控制。因此,從風險控制能力出發,法律要求專業模型研發者開展影響評估符合效率目標。事前監管應確立算法影響評估核心程序,涵蓋參與者、評估步驟及記錄要求。實際操作中,應鼓勵醫療、心理、法律、金融等專業應用領域制定技術標準與倫理準則,指導研發者進行算法影響評估:將基礎模型部署至具體領域會產生何種社會影響,緩解負面影響的措施是否適當?基礎模型部署要解決何種功能性問題,而衡量是否實現該功能的具體指標是什麼,爲什麼選擇該指標而非其他指標?測度該指標的具體數據集是按照何種標準選取的,其收集、維護、清洗過程是什麼,是否體現了現實決策環境的完整性?與其他方案相比,該算法決策方案在涉及利益相關方影響方面是否“中立”,這一結論是否經過測試和驗證?
3.生成式內容服務提供者應當履行內容管控義務
在具體應用階段,生成內容造成危害的場景包括用戶與機器交流場景以及用戶使用傳播場景。前者如,生成內容可能侵犯他人著作權與名譽權、錯誤虛假信息誤導用戶等。後者如,傳播侵犯他人權利的內容、傳播錯誤虛假內容、過度依賴生成內容減損教育秩序與創作倫理等。法律規制應用階段的核心目標是構建人機關係秩序。生成內容由人與機器共同完成,終端用戶的提問輸入行爲與傳播使用行爲對於促成損害結果至關重要。行政監管應當規範終端使用者、內容受衆與機器的交互方式,從而引導他們開展高效的風險預防行爲。當前,行政監管應當針對內容服務提供者,要求其通過規範“提示”引導用戶輸入,並完善“內容標識”來協調受衆對生成內容的信任程度。
就“提示”而言,內容服務提供者應當在技術上防範用戶惡意誘導生成違法內容、引導用戶輸入合理問題,並明確服務適用情境,引導終端使用者合法合理使用技術。就“內容標識”而言,虛假信息對公共秩序與個體權益的危害不僅源自內容本身失真,更在於公衆因不合理信任而形成認知與決策偏差;內容標識提示生成內容來源,助推信息受衆理性審視內容可靠性,並檢索更多信息論證生成內容是否合理,從而賦能公衆控制生成內容對其認知、決策與行爲的影響程度。
當前,提示監管取得較大共識,但內容標識監管仍待完善。一方面,法律要求的標識範圍與方式並不清晰。內容標識制度設計應當平衡技術發展與權益保護,依據內容種類與行業應用,確定顯性標識、隱性標識、提供者主動公示標識與提供者依據申請公示標識的具體適用。另一方面,內容標識技術發展滯後,法律有待爲產業界提供有效激勵。爲此,法律設置的內容標識公法義務之核心在於完善合作規制架構,一方面建立顯性標識與隱性標識、不同行業標識要求的基本程序框架,另一方面激勵產業層面發展標識技術,完善生成內容檢測追蹤。
4.增強價值鏈透明度
人工智能價值鏈各環節緊密相連,核心主體義務的履行依賴其能夠獲取的信息,行政監管亦需要建立一定程度的透明機制,確保核心主體具有充足信息進行風險防控。就生成式人工智能系統而言,這種透明機制應當包括上游向下遊傳達信息、下游向上遊反饋信息。一方面,基礎模型性能信息對於專業模型研發者進行風險管控至關重要。基礎模型提供者應當向部署者提供關鍵開發步驟、部署環境配置、模型性能、擴展和調整性能、故障排除、更新維護以及特定應用環境下的風險警示等信息,賦能部署者充分理解基礎模型的能力與侷限,從而在適配下游應用時提升風險管控能力。在此過程中,需妥善平衡技術信息共享與知識產權、商業秘密保護的關係。另一方面,專業模型研發者、生成內容服務提供者在具體應用場景中發現的模型風險信息或系統性偏差,亦應及時反饋給基礎模型研發者,並通過協議等方式與基礎模型研發者分配風險緩解責任。
四
行政監管與侵權責任的銜接
面對生成式人工智能技術的迅速迭代,侵權機制的行爲規制作用在於,它能夠在行政監管確立的底線規範基礎上,爲價值鏈主體設置符合具體場景特徵的更高標準的注意義務。同時,侵權機制還具備基礎性的信息生產功能,通過與監管的協作互動,爲監管部門不斷髮展規制規範提供必要信息支撐。
(一)基於行政監管邏輯設置人工智能侵權責任
價值鏈多元主體與機器自主學習特徵,成爲了侵權責任認定難題。一種較爲流行觀點認爲,可以適用代理人責任或僱主責任原則,即將人工智能與其管理人之間關係類比爲代理人與被代理人或僱員與僱主的關係,代理人或僱員的行爲後果由被代理人或僱主承擔。另一種觀點則主張賦予人工智能法律人格以承擔責任。然而,人工智能缺乏獨立人格,不符合代理人責任、僱主責任、民事主體責任的法律構成要件。同時,這種責任設置也未能充分考慮到價值鏈存在多元主體的實際情況。一個更爲可行的方案是,按照價值鏈行政監管的邏輯來設置侵權責任,依據研發生產環節與應用環節的區分,分別爲人工智能系統提供者與使用者設定相應的產品責任和使用責任。歐盟當下侵權責任立法動態即體現了這一思路:《產品責任指令》結合人工智能技術特徵,拓展“產品”與“損害”的範圍,爲人工智能產品提供者設定產品責任;《人工智能責任指令(提案)》則爲人工智能使用者與非產品類人工智能提供者設置過錯責任。基於價值鏈的研發生產與應用環節劃分設置侵權責任,將行政監管確定的核心義務主體及相應行爲規範適用於侵權責任認定,這符合“由能夠以最低成本預防風險者承擔責任”的責任配置理念,有助於加強行政監管與侵權責任在行爲規制層面的銜接。
其一,人工智能產品生產者享有更多技術信息、影響產品設計的能力,且有能力通過定價方式分散風險成本,要求生產者承擔傳統產品責任,符合行爲激勵效率。具體制度設計的核心要義在於,在個案中明確“產品缺陷”內涵與“風險發展抗辯”。就“產品缺陷”而言,事前監管規則構成底線行爲標準,法院在具體個案中綜合技術發展水平、技術收益與風險緩解成本對比等因素,判斷產品是否存在設計缺陷、製造缺陷與警示缺陷。就“風險發展抗辯”而言,鑑於人工智能系統具有自主學習特徵,針對由學習產生的不可預知風險,侵權機制可以給那些對個體權益與公衆生活產生重要影響的人工智能系統提供者分配更爲嚴格的責任,從而激勵提供者增加投入,加強人類對技術的控制能力;對於其他人工智能系統,有必要通過引入“風險發展抗辯”理念,以明確在人工智能系統自主學習過程中產生的部分損害,提供者可以享有責任豁免,從而實現由整體社會來承擔人工智能“剩餘風險”的風險分散效果。其二,在人工智能系統應用階段,行政監管規則通過要求提供者進行信息公示與要求使用者進行影響評估的方式,來規範人與機器之間的交互關係。如果使用者沒有依照提供者提供信息進行機器操作或沒有進行影響評估,且在此過程中造成損害,則當然需要承擔侵權責任。對於構成特別高風險的人工智能系統,可以通過設置使用者嚴格責任來激勵其減少行爲量;對於一般人工智能系統,則應設置過錯責任,依據機器的自動化水平、使用者對機器的控制能力、前端使用者與機器後端操作者之間的關係、使用者採取預防措施的成本與收益對比等,在具體場景中調整使用者注意水平。
(二)爲生成式人工智能服務提供者設置產品責任
在實踐應用中,生成式人工智能致人侵害主要包括兩種情形:一是生成式人工智能服務提供者直接向用戶提供服務的過程中對用戶或第三人造成損害;二是用戶利用該系統向第三人提供服務的過程中或用戶傳播系統生成內容,對第三人造成損害。由此看來,前者侵害源於技術系統缺陷,應當適用生產研發階段責任,後者侵害源於使用者的使用行爲,適用人工智能應用責任。現階段,生成式人工智能侵權責任難點在於生產研發階段責任,即生成式人工智能服務提供者責任。
生成式人工智能系統最初依託互聯網與用戶對話生成內容,因此,我國監管部門一直依賴互聯網內容規制理念開展制度設計。內容規制理念也深刻影響了侵權責任探討。既有研究多從“網絡服務提供者”與“網絡內容提供者”界分視角,分析生成式人工智能服務提供者的法律性質,進而探討其對生成內容的民事責任。但是,網絡服務提供者責任與網絡內容提供者責任都着重於規範與用戶直接交互的內容輸出端行爲,缺乏對“模型即服務”商業模式下模型提供者的行爲評價。而且,當下生成式人工智能技術既可以作爲獨立軟件,亦可以嵌入至硬件設備中提供服務,既能應用於決策輔助型人工智能場景,也能發展爲替代型人工智能應用。在生成式人工智能服務對各行各業賦能的背景下,現有網絡內容侵權責任規則難以迴應技術缺陷帶來的負面影響。
爲充分激勵生產研發階段的安全預防投入,一個更可行的路徑是,生成式人工智能服務提供者適用產品責任。但是,產品責任只適用於產品,排除服務的適用。生成式人工智能軟件可以被嵌入至產品中,亦可以作爲獨立軟件提供服務,後者可否適用產品責任不無疑問。解決該問題關鍵在於,從功能主義視角分析產品責任適用的制度目標。區分產品與服務的制度理念在於:產品具有批量生產、規模銷售的特點,生產者可以通過定價機制分散風險,因此適用嚴格責任符合風險最優預防理念;服務供給具有專業性與個性化特徵,要求服務提供者承擔嚴格責任會減損服務質量,因此服務提供者更適宜適用過錯責任。生成式人工智能作爲一種軟件,具有批量生產、規模銷售的特點,其是面向不特定用戶而非提供一對一定製化服務。同時,提供者能通過定價機制來分散風險,這與產品責任的制度目標相契合。正是基於人工智能時代軟件服務的特殊性,歐盟《產品責任指令》修訂案拓展了“產品”範圍,將獨立軟件、附加軟件、重要人工智能服務等數字服務納入了“產品”範疇。
作爲不真正連帶責任,產品責任亦有助於協調模型服務供給者與模型服務調用者之間的關係。因產品缺陷造成損害,被侵權人既可以向生成式內容服務提供者請求賠償,亦可以向模型服務提供者請求賠償。生成式內容服務提供者、模型服務提供者向用戶承擔責任後,可以根據模型卡技術記錄、模型服務提供者說明等信息,明確價值鏈其他主體是否存在不當行爲並向其追償。
(三)加強產品責任與行政監管的互動
通過精細化的產品責任制度設計可以實現侵權責任與行政監管的有序互動。通常來說,產品缺陷包括製造缺陷、設計缺陷、警示缺陷三種。製造缺陷關注產品性能和特徵,只要產品在物理上偏離既定設計就需要承擔嚴格責任。設計缺陷與警示缺陷關注生產者、設計者行爲的合理性,需要綜合安全、效用、市場需求等多種因素考量,在認定上融入了過錯責任的因素。其中,設計缺陷的認定是生成式人工智能產品責任的難點,亦構成撬動侵權與監管進行效率銜接的關鍵着力點。
根據《中華人民共和國產品質量法》第46條規定,缺陷判斷標準包括不合理危險與技術標準兩類。技術標準作爲行政監管規則,構成缺陷產品認定的底線規則,但如何判斷是否構成不合理危險,欠缺明晰標準。歐盟與美國的缺陷判斷標準成爲我國司法實踐的重要參考。歐盟確立了合理期待標準,如果產品安全沒有達到人們的合理期待即存在缺陷。美國確立了風險效用標準,強調對產品的安全設計進行成本—收益比較,判斷是否存在更好的替代設計。這兩種標準都不符合生成式人工智能技術特徵。就合理期待標準而言,普通消費者難以理解生成式人工智能的技術機理,往往會產生不切實際的期待。就風險效用標準而言,生成式人工智能正經歷迅速迭代,而行業內尚未就最佳實踐達成共識,因此難以判定何種替代設計更爲優越。這表明,法院在判斷技術運行邏輯、技術的社會影響、技術的社會選擇方面存在專業弱勢,應當依賴行業知識形成多元主體技術共治。就此而言,法院在判斷生成式人工智能是否構成設計缺陷時,有必要在行政監管規則框架下,綜合考慮行業自治因素。
生成式人工智能行政監管以抽象績效標準與內部管理型標準爲主:前者體現爲基本目標導向要求,如模型訓練使用具有合法來源的數據和基礎模型,增強訓練數據的真實性、準確性、客觀性、多樣性等,但法律並未給予“合法來源”“真實、準確、客觀、多樣”明確界定標準;後者體現爲程序性要求,如開展影響評估、對抗測試、在發現違法內容後進行模型優化,但具體的程序步驟與標準仍然非常模糊。行政監管設置的抽象績效標準與內部管理型標準並不告知價值鏈主體如何行爲的具體方式,而是爲其勾勒出大致目標與決策框架,留待社會自我規制補充規範細則。就此而言,法院應當以行政監管設置的抽象績效標準與內部管理型標準爲框架,在具體個案中判斷企業自我規制是否達到了合理注意要求。問題關鍵在於,在行業共識尚未統一時,法院如何確定符合合理注意的行業實踐?尤其是當下,生成式人工智能規制主要依賴軟法規範,儘管存在多種倫理原則和技術指引,但同時也面臨着倫理洗滌、倫理規範欠缺執行力、行業間的逐底競爭等問題,這爲法院評判行業實踐帶來了挑戰。
一方面,生成式人工智能研發實踐的重要特徵是專業性,即依賴專業團體的知識與能力,因此相應的合理注意應當以專業團體的合理注意而非一般理性人的合理注意爲標準。一般來說,專業性合理注意標準包括行業一般習慣標準與信義義務標準,前者強調根據該領域的一般實踐來確定合理性,後者強調專業團體以受託人身份承擔更高標準的忠實義務。行業一般習慣標準關注現有技術水平下的行業實踐,更適合生成式人工智能發展現狀。原因在於,在技術發展高度不確定背景下,負面結果是行業實踐固有的產物,且技術實踐發展會自行消納負面結果的產生原因。因此,應當將行業一般習慣標準適用於生成式人工智能技術研發缺陷判斷,並根據技術發展不斷調適缺陷判斷標準,以此發揮侵權機制場景優勢,促使科技穩健融入社會。另一方面,現階段行業實踐在生成式人工智能研發的有效性、安全性、問責性、可解釋性、公平性等方面仍存在諸多分歧。在共識難以達成時,尊重現有技術水平下的不同實踐方法比確定單一合理標準更合適。評估自我規制是否完善的核心在於內部管理程序是否規範,因此法院亦應當以程序爲抓手,通過評估技術研發實踐所遵從的標準或行爲守則的制定程序、技術研發的倫理審查程序、該實踐在行業內的接受程度等,判斷不同實踐是否達到合理注意標準。同時,基於行政監管確定的風險規制框架,對於達到一定規模的大模型研發以及應用於高風險領域的生成式人工智能服務,法院應當適用更嚴格的缺陷判斷標準。
通過這種方式,侵權機制將激勵行業層面不斷完善自我規制、探尋最佳技術實踐。同時,對於法院在個案中認可的達到高標準的部分實踐,亦可以推動監管部門將其轉化統一監管規則,以此實現軟法與硬法的銜接與互動。
-向上滑動,查看完整目錄-
《政法論壇》2025年第2期目錄
【專題·中國自主法學知識體系的構建】
1.《刑事訴訟法》再修改中再審程序的完善
陳光中(3)
【主題研討·數據法學】
2.處理者法律地位流變分析
溫昱(13)
3.生成式人工智能服務中“信息錯誤”的民事責任
郭金良(25)
4.生成式人工智能價值鏈行政監管與侵權責任的匹配
謝堯雯(36)
5.已公開個人信息處理規則及其重構
丁道勤(47)
【主題研討·新公司法適用】
6.財產權對抗視角下有限公司股權變動模式再反思
王毓瑩(58)
7.有限公司股權對外轉讓中的公司同意權
龔浩川(71)
8.公司歸入權規則的反思與重構
嶽萬兵(83)
【全面依法治國研究】
9.論共謀而未參與實行類型主犯的認定
黎宏(95)
10.過失危險犯立法模式的揚棄與替代
敦寧(109)
【論文】
11.腦機接口新發展背景下法律權利體系探析
吳旭陽(121)
12.行政法典編纂的憲法基礎
周維棟(134)
13.刑行銜接中“重複評價”的生成邏輯與概念辨證
羅建武(146)
14.刑事一體化視域中單位犯罪“名譽罰”應對模式研究
劉沛泉(158)
【讀書札記】
15.法學科學性的驗證邏輯與實現路徑
——以“活法”理論爲藍本
連賽君(170)
【馬克思主義法學本土化研究】
16.依法行政與權力清單
——以縣域法治取向爲重心
黃鵬航(181)
《政法論壇》是中國政法大學主辦的法學學術期刊,其前身爲1979年創刊的《北京政法學院院報》,1985年更名爲《政法論壇》,由彭真同志題寫刊名。歷經四十餘載的風雨洗禮與實踐發展,《政法論壇》已成爲引領學術潮流、促進學術交流、分享學術智識、承載學術思想的重要平臺。自創刊以來,《政法論壇》始終秉持政治性與學術性相結合,理論研究與法制實踐、教學實踐相結合的辦刊方針,着重反映法學研究的新成果和法制建設的新進展,培育源自本土的理論話語,不斷提升期刊理論品質。現爲中文核心期刊、法學類核心期刊、《中國學術期刊綜合評價數據庫》來源期刊、《中國人文社會科學引文數據庫》來源期刊、《中文社會科學引文索引》(CSSCI)來源期刊,同時也是教育部社科期刊“名刊工程”入選期刊,被中國高校社科期刊學會評爲高校社會科學名刊,入選第一批國家社科基金資助期刊。
智能寫作4.0
1. 私有智庫:單篇對話與向量檢索的智能融合
自建知識庫是智能寫作4.0的一大創新亮點,它賦予了用戶構建個性化知識體系的能力。這一功能不僅支持單篇對話的存儲,使得用戶可以輕鬆回顧和整理過往的交流內容,而且通過向量檢索技術,用戶能夠實現對知識庫內容的高效檢索。這意味着,無論您的知識庫多麼龐大,您都可以通過關鍵詞或短語快速定位到所需信息,極大地提升了信息檢索的準確性和便捷性。
2. 一劃即達:法寶全庫數據的劃詞能力
劃詞檢索法寶全庫數據功能是智能寫作4.0的另一項革命性創新。用戶在閱讀或編輯文檔時,只需輕輕一劃,選中的文本即可觸發智能檢索,系統會立即從法寶全庫中檢索出相關數據和信息。這一功能不僅極大地簡化了信息查找的過程,而且通過實時更新的數據庫,確保了檢索結果的時效性和準確性,使得用戶能夠快速獲取到最相關的資料和數據。
3. 語言無界:19種語言的智能翻譯大師
智能寫作4.0的智能翻譯功能,支持多達19種語言的互譯,覆蓋了全球大部分主要語言。這一功能不僅能夠實現文本的即時翻譯,而且通過先進的算法優化,確保了翻譯的流暢性和準確性。無論您是需要將中文文檔翻譯成英文,還是需要將西班牙文翻譯成法文,智能寫作4.0都能爲您提供準確、自然的翻譯結果,讓您的跨語言溝通和創作更加輕鬆。
4. 模板王國:6000+文書模板與個性化定製的創意工具
智能寫作4.0提供了6000+的文書模板,覆蓋了法律、商務、教育等多個領域,滿足不同用戶的需求。這些模板由專業人士設計,確保了其專業性和實用性。此外,智能寫作4.0還支持自建文書模板,用戶可以根據自己的需求和喜好,創建個性化的模板,這不僅提高了文書創作的效率,而且使得文書更具個性化和專業性。
5. 實用工具:賦能司法案例的深度檢索報告
智能寫作4.0賦能司法案例檢索報告功能,是法律專業人士的得力助手。它不僅能夠檢索到最新的司法案例,而且通過智能分析,爲用戶提供案例的詳細報告,包括案件的基本情況、判決結果、爭議焦點、法律依據等關鍵信息。這一功能不僅極大地提高了法律研究的效率,而且通過深入的案例分析,幫助用戶更好地理解法律條文和司法實踐,爲法律實務工作提供了強有力的支持。
責任編輯 | 郭晴晴
審覈人員 | 張文碩 宋思婕
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。