(聚焦博鰲)AI迅猛發展,人類能否穩控“方向盤”

來源:中國新聞網

中新社博鰲3月26日電 題:AI迅猛發展,人類能否穩控“方向盤”

中新社記者 王曉斌

全球各大企業在AI(人工智能)技術賽道上競相追逐,博鰲亞洲論壇2025年年會於3月26日舉辦的一場AI主題分論壇,關注相關的深層次話題:在AI技術迅猛發展的時代,人類能否繼續穩坐“駕駛艙”,確保自己是掌控方向的司機,而非被動的乘客?

爲何人類必須掌控AI“方向盤”

AI近年來的快速發展既令人振奮,又暗藏隱憂。上海科學智能研究院首席戰略官、復旦大學經濟學教授楊燕青指出,AI可能是人類歷史上最強大的通用技術。“與蒸汽機、電力等增強人類體力的技術不同,AI直接賦能人類大腦,涉及計算與認知的深度融合。”楊燕青將AI特性描述爲“類人”,這使得AI既能帶來生產力提升,也可能引發威脅人類生存的風險。

中國工程院院士、清華大學智能產業研究院院長張亞勤介紹,2025年人工智能發展呈現三大趨勢:從生成式大模型邁向智能體,從預訓練走向推理,從信息智能走向物理智能和具身智能。

隨着AI的快速迭代,一個令人不安的場景或從科幻電影中走向現實:本應協助人類的AI,可能因爲算法偏差或外部操縱,做出違背倫理、危及人類利益的決策。

人類如何掌控AI“方向盤”

面對未知的AI風險,人類如何應對?中國科學院自動化研究所研究員、聯合國人工智能高層顧問機構專家曾毅主張,將倫理安全融入AI開發的底層設計,視其爲“第一性原則”,不可刪除、不可違背。他強調,AI的倫理安全應成爲技術發展的基因,確保其與人類價值觀保持一致。

張亞勤進一步將AI風險分解爲可信度與可控性兩個層面。可信度要求AI在執行任務時遵循人類期望、倫理規範和社會法律,不產生誤導性、有害或不公平的結果;可控性則確保人類能有效監控、干預和糾正AI行爲,避免失控或不可預測的後果。他提出,設定技術紅線與邊界是關鍵,如限制智能體自我複製,以降低失控風險。

在具體實踐上,國際社會已採取行動。歐盟《人工智能法案》於2024年實施,對高風險AI系統設定了嚴格的透明度和問責要求;中國2023年發佈的《生成式人工智能服務管理暫行辦法》則明確要求企業對AI輸出內容負責。這些技術與倫理並重的措施,旨在確保人類腳踩AI超速的“剎車片”,手握AI發展的“方向盤”。

平衡AI:發展與治理的共生之道

有人擔憂,給AI“裝上剎車片”會削弱其競爭力。曾毅介紹,其所在的團隊通過對大模型進行微調,可以將安全能力提升20%至30%,對其性能幾乎沒有負面影響。這一發現證明,安全治理與技術發展可以並行不悖。

當天在博鰲的討論最終匯聚成共識:AI治理需要構建一個多元、立體的全方位治理體系。這一體系如同一個精密的生態系統,既有自上而下的宏觀規劃,也有自下而上的微觀參與,涵蓋技術、社會、經濟等多元維度。

“我們怎麼和人工智能共處?如何讓人工智能使得整個世界變得更好,人類應有更大的責任。”楊燕青認爲,AI治理是每個人的使命。社會大衆應保持自身的價值觀和創新力,在多元的理念中把握好自己的“方向盤”。(完)