AI的承諾是否具有法律效力?
探討
當AI生成的內容出現事實性差錯時,其在對話中承諾的賠償或者獎勵,儘管看起來“漏洞百出”,但是否具有一定的法律效力? 記者查閱了DeepSeek官網的《用戶協議》,其中有條款寫道:“本服務提供的所有輸出均由人工智能模型答覆,可能出現錯誤或遺漏,僅供您參考,您不應將輸出的內容作爲專業建議……本軟件的輸出不應成爲您進一步作爲或不作爲的依據……您應科學理性認識和依法使用生成式人工智能技術。” 對此,記者採訪了相關法律從業者及專家。
觀點1《用戶協議》有效,索賠不太現實
泰和泰律師事務所(成都辦公室)合夥人、律師陳福中認爲,AI平臺提前約定的《用戶協議》是有效的。“在有《用戶協議》明確進行了風險提示的情況下,大家因爲AI生成的內容不準確而向服務提供者索賠,根據現行的法律規則和監管政策,以及AI產業和市場的實際情況來看,我認爲不太現實。” 陳福中指出,目前人工智能的發展遠沒有達到大家理想中的地步,在技術完善上還有很長的路要走,對於其生成的內容,一定要謹慎甄別。“目前,AI正處於高速發展當中,需要完善的地方很多,我建議廣大用戶多一些包容,這樣技術才能發展。”
觀點2主動承諾應履約,相關問題有探討空間
四川明炬律師事務所律師鄧海明表示,如果AI所屬平臺公司確實有設置“指出AI錯誤後,可得到賠償”的程序,且AI也作出了賠償承諾,那麼在AI作出賠償承諾但未實際賠償時,“用戶能否找AI平臺公司進行索賠”是有一定可探討空間的。 鄧海明認爲,“平臺的《用戶協議》提到,AI輸出的內容僅供參考,如出現錯誤,造成損失,它不擔責。但我認爲,這一條款並不包括AI主動作出的賠償承諾。” 鄧海明進一步解釋道:AI代表平臺公司作出了承諾,該“承諾”理由充分,是因爲“用戶發現並幫助平臺修補了錯誤,平臺是受益方”,且該“承諾”信息完整。所以,用戶基於對該承諾的信賴而採取了相應措施或產生了合理期待,平臺公司未履行承諾,違反了誠實信用原則,用戶有權要求其承擔相應責任,以維護自身的合理信賴利益。
觀點3AI非法定主體,追責缺乏法律依據
電子科技大學公共管理學院法學系副教授、碩士生導師黃小洵指出,“目前沒有明確的證據和授權機制表明,AI作出的承諾行爲可以代表開發者或運營方,所以也就難以構成法律約束力。” “就現階段來說,AI並不具備法律主體地位。AI被視爲輔助性工具,其生成行爲不能視爲法律行爲,因此無法對其追責。而AI的開發者或運營方要來承擔相應責任的說法,也缺乏一定的法律依據。”黃小洵補充說,AI平臺向廣大用戶提供的服務是免費的,並且已在《用戶協議》中聲明內容可能不準確,使用者有義務進行覈實。因此依賴AI內容造成的損失,也難以構成法律意義上的損害。 黃小洵表示,這些案例揭示了AI技術發展過程中的諸多問題。AI訓練數據中的虛假、偏見甚至欺詐行爲,可能被放大並應用於實際場景中。“因此,除了技術層面的優化,AI相關的監管與責任機制、使用與倫理規範、法律框架等也需同步推進,確保AI在輔助人類的同時,不成爲社會風險的源頭。” 華西都市報-封面新聞記者 楊旭斌