AI治理面臨嚴峻挑戰,國際合作更有利於化解風險

隨着AI在各行各業中廣泛應用,一些新的問題也涌現出來。

比如,在自動駕駛等關乎生命權、道德決策和社會責任的應用場景中,AI缺乏具有普遍性的倫理尺度,可能引發新的“電車難題”;在信息傳播等涉及公共利益的場景中,圖片、視頻生成模型的能力越來越強,已經能夠達到以假亂真的程度,導致謠言問題頻發,但多數國家的深度僞造檢測標準尚未建立,監管工具迭代速度遠不及技術發展速度。

在2025世界人工智能大會暨人工智能全球治理高級別會議上,圖靈獎和諾貝爾獎得主、神經網絡之父傑弗裡·辛頓提出了一個更嚴峻的問題:如果我們生產出比人類更智能的AI,世界會變成什麼樣?

在傑弗裡·辛頓看來,到那個時候,人類就像3歲的小孩子,而AI就像是成年人,AI操控人類就會變成一件很容易的事,人類把更聰明的AI關掉反而變得不現實。

無論是AI給當下各種生活、工作場景帶來的問題,還是未來AI可能會出現的“失控”風險,都給監管部門以及AI從業者帶來越來越多警醒:人類必須找到一些更好地辦法來訓練AI,讓AI真正解決生活、工作場景的問題,提升效率,而且能夠被人類所完全掌控。

但從全球來看,AI治理仍然呈現分化的態勢,不同國家的治理思路甚至還出現了對立,這給解決AI帶來的風險帶來了更大的挑戰。

一方面,不同國家和組織對AI治理並未形成統一的規範。根據《中國科學院院刊》的研究統計,全球不同國家、組織在過去10年所出臺的人工智能規範框架、標準原則、治理倡議超過3000份。這些人工智能規範體系相互交叉、彼此重疊,不僅加劇了各類治理規則間的衝突與摩擦,更對治理效能造成了制約。

另一方面,歐美等傳統技術強國試圖繼續鞏固其在國際規則制定中主導地位的意圖,很多發展中國家僅獲得參與討論的機會。這種話語權上的差異導致治理成果很難反應發展中國家的利益和文化訴求,有失公平,也會帶來更大的AI鴻溝。

在2025世界人工智能大會暨人工智能全球治理高級別會議的小組討論上,美國加州大學伯克利分校計算機科學傑出教授斯圖爾特·羅素(Stuart Russell)表示,當下AI治理的一個障礙是AI公司所在的國家都在進行某種程度的“競賽”,他們的心態都是要做第一個打造出AGI通用人工智能的國家。

在斯圖爾特·羅素看來,這樣的競賽是沒有意義的,因爲AGI一旦創造出來之後,一定是無限的財富創造者。“我們應該提前承諾一件事,那就是AGI通用人工智能成爲全球公共資源,所有人類都面對的公共資源,對這一點進行競爭沒有意義。”

在去年舉辦的第78屆聯合國大會上,中國提出的加強人工智能能力建設國際合作決議獲得通過。該決議強調人工智能發展應堅持以人爲本、智能向善、造福人類的原則,鼓勵通過國際合作和實際行動幫助各國特別是發展中國家加強人工智能能力建設,增強發展中國家在人工智能全球治理中的代表性和發言權,倡導開放、公平、非歧視的商業環境。

在2025世界人工智能大會暨人工智能全球治理高級別會議的爐邊對話中,Relativity Space執行董事長、首席執行官埃裡克·施密特對通過國際合作來進行AI治理的思路表達了認可。他表示,“總體來說,我們在治理相關討論上還沒做好準備。作爲最大的以及最重要的經濟體,美國和中國應該一起合作,因爲我們的利益在於要讓世界穩定,讓世界不打仗,讓世界和平,確保人類能夠控制住這些工具。”