AI浪潮洶涌,中國走出平衡與合作之路

(原標題:AI浪潮洶涌,中國走出平衡與合作之路)

“相較於人工智能,我覺得自己一無是處。”

這是ChatGPT-5面世前夕,OpenAI首席執行官奧爾特曼面向公衆發出的警告。

在他眼中,最新的大模型已經聰明到讓人感到害怕。他將GPT-5的發展比作二戰時期的“曼哈頓計劃”——人類創造的能力,已經超過了自身能理解或控制其後果的準備程度。

他坦言,目前AI進步過快,監管卻明顯滯後,“房間裡沒有成年人”。

無獨有偶。今年年初,xAI創始人馬斯克也形容Grok 3模型“聰明得令人害怕”。

儘管有商業造勢的成分,但這種聲音頻繁出現,背後的隱憂並非空穴來風。

現實中已經有案例。《華爾街日報》報道,一名自閉症譜系障礙患者在與ChatGPT對話後陷入危險妄想。但ChatGPT並未及時停止或糾正,還反覆強化並讚揚了他的虛構理論。

一名患有自閉症譜系障礙的男性與ChatGPT對話後出現了躁狂和妄想症狀。圖/華爾街日報

美國非營利機構Palisade Research的測試顯示,某些AI模型已經表現出令人擔憂的自主性,比如自行修改代碼以避免被關閉,甚至對研發人員進行要挾。

AI的自主性正在擴張,如何確保可控,已成爲現實挑戰。

全球監管困境

當AI進入日常生活時,風險逐步顯現:

一是深度僞造。韓國已出現嚴重AI換臉事件,嚴重影響了個人合法權益與社會公共利益。

二是隱私保護。AI模型在訓練與應用過程中頻繁使用個人數據,可能導致隱私泄露或濫用,進而引發法律問題。

三是基礎設施安全。當大模型接入交通、能源、金融等關鍵基礎設施,一旦失控或受到攻擊,後果難以估量。

BBC調查顯示,多款生成式AI在生成新聞摘要時,超過一半內容存在嚴重錯誤或扭曲。這些信息一旦進入社交網絡,會被無限放大。

監管勢在必行,但尺度難以拿捏。監管過嚴,創新受阻;監管過鬆,安全風險又難以控制。更爲困難的是,在當前局勢下,各國協調步調並建立統一規則的難度正日益增加。

IBM沃森系統前負責人皮埃爾·哈倫悲觀斷言:“全球AI監管註定失敗。”聯合國秘書長古特雷斯雖多次呼籲,但困難遠超想象。

目前,歐盟在監管領域邁出最快一步。《人工智能法案》正式生效,是全球第一個正式落地的人工智能監管橫向立法。美國則走向另一個極端。特朗普政府上臺以來,監管逐漸放鬆,明確提出要進行最少的監管限制,追求技術領先和全球市場的主導地位。

全球監管的中國方案

中國選擇了一條更平衡的路。

2023年7月出臺的《生成式人工智能服務管理暫行辦法》,明確了生成式人工智能服務提供者應當依法開展的活動、遵守的規定,以及具體的服務規範,落實了監督檢查和法律責任。

這既是採取有效措施鼓勵人工智能創新發展,更是對AI技術發展進行良性引導和分類分級監管。

不僅如此,中國還積極在國際層面尋求更廣泛的治理共識。

2025世界人工智能大會上,中方倡議成立世界人工智能合作組織,致力於推動AI技術的開源共享與全球治理規則的協同建立。

目前全球最強的大語言模型是由美國研發,但開源免費的最佳模型來自中國。美國媒體援引全球知名AI基準測試機構的數據顯示,自去年11月以來,中國頂尖開源模型的綜合性能已超越美國的冠軍模型。

反觀美國,特朗普政府最新推出的“人工智能行動計劃”,則將發展人工智能描述爲一場“競賽”,要“不惜一切代價”贏得比賽。

這種明顯的零和博弈思路,與國際社會需要的多邊合作與開源共享模式漸行漸遠。

歷史上的每一次技術革命,都是伴隨巨大興奮與深刻不安一同到來。從蒸汽時代、電氣時代再到信息時代,人類總能在興奮與焦慮之間找到平衡點,並最終制定出相應的規範。

人工智能的故事纔剛剛開始,國際社會已經看到了它的光亮,也觸摸到了它的鋒刃。

奧爾特曼與馬斯克的“害怕”實則是提醒,人類需要的不是盲目的狂熱追逐,而是全球合作與治理路徑。

人工智能要引領人類走向何處,答案並不取決於誰更快抵達終點,而是它能否被安全地帶往正確的方向。

(“三里河”工作室)