新質觀察|“虎崽論”背後的當下AI瓶頸和極限
2025 世界人工智能大會 (WAIC)已經落幕,但它激起的討論仍在持續。
其中,主論壇上深度學習“教父”傑弗裡·辛頓(Geoffrey Hinton)提出的AI“虎崽論”尤爲引人關注——他將超級智能的馴化比作“飼養幼虎”,今日可愛可控,明日或反噬其主。而不止辛頓,僅在這屆WAIC的主論壇上,約書亞·本吉奧(Yoshua Bengio)、埃裡克·施密特(Eric Schmidt)等衆多重量級嘉賓,也都表達了對AI快速發展的警惕和憂慮。
然而,聯繫上下文審視這些警示的核心便會發現,他們敲響警鐘的共同指向——強調構建全球性人工智能協作治理網絡的重要性和緊迫性。所以說,如果僅僅因此就陷入對“超級”智能的“超級”擔憂,那麼就有如禪宗偈語所警示的——只見“指月”之指,而忽略月亮本身了。
因爲就當下現實而言,實現超級AI還有一系列難以跨越的極限和瓶頸。對於從業者和更廣大的公衆來說,比起對於未知未來的擔憂,正視這些侷限並尋求突破之道,恐怕是更切實際的選擇。具體而言,至少具有三個方面的瓶頸,限定着現下AI路徑的發展極限。
AI模型的成本極限
大模型的算力成本早已不是一個新鮮話題了。而筆者的一個直觀體會便來自不久前。一位從事大模型研發的朋友,邀我體驗他們最新研發的大模型產品。他特別叮囑我,千萬不要對他們的模型“客氣”——因爲我輸入的每一句誇獎,甚至每一個“請爲我”,都會轉化爲token,成爲他們算力資源的額外開銷。而他們“子彈”有限,“自己人”就幫忙省一點。
這次體驗充分展示了一個大模型經濟的特徵,就是不僅有着極高的訓練成本,更有可觀的每一次的推理成本。究其源頭,這種成本來自現有大模型的共同鼻祖Transformer架構的工作原理。無論輸入的問題多麼簡單(比如簡單問候“你好”),或多麼複雜(比如“請解釋量子糾纏並原創一首七律來描述它”),每一次推理都要遍歷模型的所有參數(通常的數量級是數百億甚至數千億)。雖然現在已有一些技術優化手段,能夠在一定程度上降低簡單請求的計算消耗,但面對龐大的基礎參數量,這種優化仍然是相當有限的。
訓練是“一次性”鉅額投入,推理則是持續不斷的“燒錢”。而這種持續消耗的規模和成本,遠遠不是互聯網時代寬帶費用能夠相提並論的。因此,大模型並不符合邊際成本趨近零的特點,嚴格來說目前並不能視爲一種數字經濟模式(儘管當前政府和民間都習慣性這樣認定)。
更富有挑戰性的是新近漸成趨勢的“記憶模型”。其目標是讓AI能夠像人一樣記住所有的對話歷史,甚至需求、習慣和偏好。而在現有架構下,這些無疑會帶來模型推理成本的爆炸。最新的技術報告顯示,50輪對話規模的回答成本大約是每條几美元。而在100輪規模的對話中,成本會激增至50至100美元。對此,我們可以想想:我們體驗過的在線知識付費問答和在線診療服務的價格。在這樣的規模成本之下(還僅僅是每一次的推理成本),一名人類專家助手顯然是更具有成本優勢的。由此可見,智能未來可能很美好,但在算法、算力、能源完成突破性進展之前,人類專家還是能牢牢“端住飯碗”的。
AI推理的責任極限
最近,“懂車帝”對各大車企的智駕測評震驚了全網。拋開對於測評本身的技術性爭議,AI“闖禍”,究竟誰來“背鍋”,又成爲拷問當事各方的“靈魂之問”。相較於到底智駕實現了L幾級?到底AI智能水平幾何?這一問題顯然更爲深刻,也更爲棘手。
其根源在於,當前以深度學習爲核心的AI技術,“黑箱”決策仍然是智能範式的絕對主流。這意味着AI決策過程的“黑箱”化,也就是針對具體結果無法精確歸因。放到智駕場景中,一次駕駛判斷失誤的背後,到底是算法設計缺陷、訓練數據偏差,還是特定環境(如天氣、特殊路況等),抑或傳感器硬件瞬間故障,這一切問題的答案都是“不好說”“說不好”。
正是這種技術本身“不好說”,使得責任劃分也成爲了“糊塗賬”。出了事故,到底是駕駛員賠、車企賠,還是程序員賠?還是都不賠?誠然,這裡存在着法律和監管的滯後性問題。但更爲根本的是,當技術邊界和責任邊界本身都模糊不明的時候,再完備的監管規則也只能是“無的放矢”。而這一問題的解決,恐怕在可解釋AI獲得長足進步之前,還需要經歷相當長時間的探索和等待。
除此之外,目前的AI還難以解決幻覺問題、偏見問題,包括還存在間或性的“智障”問題。疊加權責歸屬的模糊,這在大量需要“當回事”的政務、司法、醫療、風控、商業等嚴肅場景中,無疑是根本性的缺陷。事實上,在一片“擁抱AI”的衝鋒號中,全球範圍內第一批“開倒車”的企業已經出現了。2024年,外語學習“獨角獸”多鄰國(Duolingo)曾高調宣佈“AI- First”戰略並裁撤10%的員工,以AI代替。然而最新報道顯示,因爲大量的用戶投訴和退訂,該公司正回調部分被裁崗位。無獨有偶,今年5月多家官媒集中發聲,痛批AI智能客服“已讀亂回”現象。從技術上看,這固然反映了AI能力還需提升的技術現狀。然而從管理角度來說,何嘗不是組織目標和技術能力間權責失衡的表現?
唯一可喜的是,這次智駕測評以及此前累積的圍繞責任歸屬的種種現實困境,終於讓很多人想明白了一件事——在AI沒法坐牢之前,還是自己多費點力氣把牢方向盤吧。
AI智能的體驗極限
從誕生以來,人腦就是智能技術的終極摹本。艾倫·圖靈(Alan Turing)、馮·諾依曼(John von Neumann)等先驅都深受腦機制的啓發。而辛頓更是在早年直接從事認知心理學研究。後來他將神經原理轉化爲計算模型,由此開創了當下鼎盛的深度學習新紀元。
然而,很顯然的是就算當下的大語言模型外在表現(如語言能力)再像人類,也不意味着其內在機制亦是如此。一個鮮明的例證是,現在的大模型已能展現出博士級的數學處理能力,但它的算法機制,對於理解人類如何進行運算推演幾乎毫無作用。
更何況,人類還有獨特的、內在的情感和體驗。當然,大模型可以通過語言,例如使用特定詞彙、句式、語氣來模擬“共情”。但這背後,依舊來自海量文本“高頻詞組合”的概率性生成,而不是源自它“心”的真實感受。也正因此,在處理諷刺、幽默、潛臺詞、文化差異、微妙情緒變化時,大模型總是顯得格外笨拙“不解風情”。
相反,對於人類而言,儘管可能不懂怎麼模擬兩個黑洞碰撞併產生引力波的過程,但屬於人類的情感反饋也難以被現在的AI所替代。尤其是對於“喜不喜歡”“滿意不滿意”“好不好”——這樣需要出自本心的問題,只有人類才能真正給出答案。而深入、細膩的人類評估和反饋,恰恰纔是大量真實商業場景中的“金標準”。
正是因爲這種根本性的差異,AI到BI(Brain Intelligence,腦智能)的演進才更加令人期待。類腦計算、腦機接口也被視爲未來AI突破的重大方向。值得一提的是,腦機接口領域不單只是依賴於神經外科手術植入的侵入式模式。更多的非侵入式、可穿戴的BI應用,完全有理由在更廣泛的商業領域中獲得更大的增長潛力。通過幫助人們解析潛意識中的思維和情緒,從而開闢一條超越冰冷數理計算,融合人類情感體驗獨特優勢,有溫度的人機協同新路徑。
回到辛頓的“虎崽論”,其警示意義毋庸置疑。然而,回望歷史,一代人總會有一代人的“洪水猛獸”。它可以是電報、火車,可以是鄧麗君、徐小鳳,金庸、瓊瑤,也可以是動漫、電視、遊戲機、互聯網、智能手機等等等,件件都有“可怖非常”的充足理由。但我們還是一路走來,並且能力越來越強,生活越來越好。因此,我們應該有理由相信“人”的智慧和力量,終究是推動時代進步的終極保障。
(作者錢學勝爲復旦大學智慧城市研究中心高級研究員,連續多年參與WAIC開幕式和主論壇內容策劃)
來源:錢學勝