李國傑院士:智能計算引領科技邁向智能時代

近幾年掀起的人工智能浪潮本質上是智能計算技術的突破,智能計算技術已成爲推動社會進步的關鍵力量。11月22日,由中科雲計算研究院與東莞理工學院聯合主辦,世界數字科學院傾力協辦的“智・算國際學術交流會”在東莞松山湖成功舉辦。中國工程院院士李國傑在會上發表了《智能計算技術的突破與挑戰》視頻演講,引起了業內人士的高度稱讚。媒體對李國傑院士進行了專訪,深入探討了智能計算技術的發展現狀與未來前景。

智能計算技術的歷史性突破和發展趨勢

面對媒體的採訪,李國傑院士首先從全球範圍內的實際案例,爲我們深入且全面地剖析了現代智能計算技術所取得的具有重大歷史意義的突破,以及對其發展趨勢的多種判斷,具體表現在以下十個方面:

一是人工智能在應用廣度上的突破。人工智能歷經70年的發展,在符號主義、連接主義和行爲主義等研究路線上均取得了重大進展。此次人工智能的浪潮中,連接主義一馬當先,基於神經網絡的機器學習取得了歷史性的突破,爲人工智能的普及應用帶來了新的希望。這一波人工智能的突破具有劃時代的意義,它將顯著加快人類進入智能時代的進程。人工智能不再侷限於特定領域的應用,而是在各個領域展現出了強大的潛力。從醫療保健到金融服務,從交通運輸到教育領域,人工智能的應用正在改變着人們的生活和工作方式。

二是大語言模型(LLM)可能已形成趨同的“世界統計模型”。OpenAI創始人之一Ilya Sutskever 曾對某MIT團隊發表的論文“柏拉圖表徵假說”給予高度評價,該論文指出,神經網絡在不同數據和模態上以不同目標進行訓練,正趨向於在其表示空間中形成一個共享現實世界的統計模型。MIT另一團隊的最新研究成果進一步顯示,大模型中已形成一種類似人類大腦的“腦葉”結構和“語義晶體”。這一發現似乎驗證了 Hinton 一直堅持的“人工神經網絡與人類大腦有某種相似性”的猜想,爲人工智能的發展提供了新的理論支持。

三是規模定律(Scaling law )可能已遇到天花板。2010年代被稱爲AI “規模化”的時代,然而,隨着預訓練大模型性能增長放緩,機器學習正進入一個“發現和探索”的新階段。Ilya Sutskever過去一直在講“Scaling law”, 最近他承認,關於 Scaling law 的樂觀判斷可能是錯的。如今,訓練模型不再是單純地追求“越大越好”,而是要找出Scaling的對象究竟應該是什麼。這一轉變標誌着人工智能行業從追求規模擴張向更加精細化、實用化的方向發展。

四是深度學習還沒有撞牆。通過語言大模型來實現通用人工智能(AGI)不一定是最佳途徑,但深度學習不等於大模型的預訓練,還在繼續發展。爲了應對 GPT 改進放緩的挑戰,業界正在轉向改進預訓練後的模型,這可能會產生不同類型的 Scaling Law。即使預訓練技術不再有重大突破,人工智能仍然有很大的發展空間,可以探索新的實現機器智能的途徑,也可以在現有基礎上創新個人消費產品和企業產品。

五是以數據爲中心和以模型爲中心都有出路。曾經擔任過百度公司首席科學家的吳恩達認爲,在過去十年中,人工智能最大的轉變是向深度學習轉變。而在未來十年,人工智能將轉向以數據爲中心。他指出,現在更有效的方法是固定神經網絡架構,尋找改善數據的方法,從“大數據”轉向“好數據”。與之不同的是,圖靈獎得主楊立昆則認爲,基於自監督的語言模型無法獲得關於真實世界的知識。我們需要學習一個具備常識推理與預測能力的世界模型,這纔是 AI 大模型未來的理想道路。

六是必須從原理上改進機器學習算法,才能用廣域分佈式計算做大模型預訓練。大模型的訓練對算力需求最爲旺盛。目前,大模型訓練通常採用相對集中的集羣系統(一兩千米的園區以內),而非異地分佈式計算。這是因爲訓練過程中需要頻繁地交換模型參數和梯度信息,實現反向傳播的延遲通常需要控制在毫秒級別甚至更低。我國在西部建設的智算中心,如果要訓練超大規模的模型,單個集羣的計算能力要足夠強。如果仍採用反向傳播算法,靠距離遙遠的多個小智算中心分佈式計算來訓練大模型,未必是可行的出路。

七是人工智能基礎設施的投入和實際收入之間,存在巨大差距。在美國,算力規模決定企業勝負仍是主流理念。微軟、谷歌、Meta、亞馬遜等巨頭都在投入數百億美元建設新的數據中心,爲訓練模型提供更大的算力。最近,馬斯克創建的xAI公司僅用122天就建成10萬張H100 GPU卡的AI集羣,未來還要構建更大規模的智能超算中心。美國龍頭企業堅信,誰能率先建成全球最大的AI訓練系統,誰就能掌握市場的主導權。然而,投資界普遍認爲,AI的預期收入和基建投入之間,存在6000億美元缺口。巨大的算力投入是否能帶來與之匹配的回報,仍是一個未知數。算力不是收入,而是成本,要把算力的投入變成實實在在的收入,必須爲終端用戶提供真正的價值。人工智能是惠及各行各業的智能技術,長期而言,智能技術帶來的收入增長肯定遠遠超過6000億美元。目前人工智能處在技術成熟曲線的期望膨脹期,我們面對的問題是如何度過未來的泡沫化谷底期,儘快走向實質生產的高峰期。

八是AI加速芯片將進入多芯片競爭的“XPU”時代。GPU不一定是人工智能的最優算力芯片,越來越多的專用芯片正在不斷涌現。例如,谷歌 TPU(張量處理單元)發明者之一Jonathan Ross 創立的 Groq公司,推出了ASIC芯片LPU(語言處理器),其推理性能是英偉達 GPU的10倍,成本僅爲其十分之一。美國新興芯片創業公司 Etched發佈的首款 ASIC AI芯片 ——Sohu,將 Transformer 架構嵌入芯片內部,性能是英偉達B200的10倍。華爲昇騰 920 芯片也引發了業內對國產AI加速芯片的期待。Nvidia的GUGPU芯片通用性較強,CUDA生態對用戶有一定的吸引力,可能會在市場上延續相當長的時間。但GPU芯片一片難求的局面已在改變。針對一類AI應用的專用芯片也可能成爲主流。

九是超算和智算正在實現“歷史性的匯合”。超算和智算之間的界限正變得越來越模糊,本質上它們是同類。超級計算和以深度學習爲代表的智能計算已逐步融合,CPU在智算中將發揮越來越大的作用。一個案例是中國科學院大學等單位的研究人員聯合開發的T-MAC算法,實現了矩陣乘不要做乘法,只需查表,CPU推理速度超過AI專用加速器。中科曙光公司牽頭的超算互聯網今年 4 月上線以來,已鏈接 280 家服務商,爲上百個行業 1000 多個應用場景提供算力服務。這一舉措爲國家先進算力提供了堅實的基礎。

十是數據工廠將是未來的大產業。Scale AI 作爲一家人工智能數據標註企業,已實現近10億美元的年度收入。數據工廠貌似勞動力密集的低端產業,但數據標註等服務是人工智能產業鏈中不可或缺的環節,爲人工智能的發展提供了高質量的數據支持,大有可爲。螞蟻數科發佈的新一代數據標註產品,向企業客戶提供 AI 驅動的全流程數據服務,爲人工智能的發展注入了新的活力。

智能計算技術的困惑與挑戰

隨後,李國傑院士以其淵博的學識和深刻的洞察力,又從多個重要方面爲我們深入且系統地分析了現代智能計算技術所面臨的困惑與挑戰。這些困惑與挑戰是橫亙在智能計算技術發展道路上的一道道難關,亟待我們去攻克和突破。李國傑院士的分析爲我們清晰地勾勒出了當前智能計算技術領域的複雜形勢,也爲相關領域的研究人員和從業者提供了寶貴的思考方向和研究路徑。

一是人工智能還有很長的路要走。幾千年來,人類探索的基本科學問題包括“天問”、“物問”、“命問”和“腦問”。其中,關於人的智慧從何而來的“腦問” 是最難攻克的科學問題。目前,人工智能的基礎理論並沒有取得根本性的突破,仍處在伽利略時代。人工智能在工程上取得了巨大成功,但在理論層面上,我們還知之甚少。要真正進入智能時代,還要走很長的路。

二是發展人工智能需要突破圖靈計算的侷限。圖靈機存在很多限制,如所有輸入的信息必須是現成的,計算過程中與輸入源不能交互,機器必須按照有限的確定性規則運行等。目前數字計算機的每一步具體操作是按照圖靈計算做的,但機器學習整個過程合起來已經不是圖靈計算。這其中可能隱含着許多深層次的奧妙,需要我們進一步探索和研究。揭開大模型的黑盒子可能也要在計算模型上打開缺口。

三是突破還原論的複雜性極限。智能化科研是一次認識論的革命,它挑戰的是還原論“信仰”。聖塔菲研究所所長大衛・克拉考爾撰文,嘗試從理論層面實現複雜性科學與機器學習的統一。這一挑戰將推動我們對人工智能的認識從簡單的還原論向更加複雜的系統論轉變,爲人工智能的發展提供新的理論基礎。目前許多學者懷疑大模型有理解和推理能力,是基於還原論的思維邏輯,突破還原論的框框,可能會發現一片新天地。

四是要突破大語言模型的本質性侷限。大語言模型採用類似心理學研究的描述性推理,靠樣本的統計相似性猜測答案,難以保證正確性。這些問題是神經網絡模型的“本性” 所決定的,無法用技術手段徹底解決。這一侷限性提醒我們,在使用大語言模型時,需要保持謹慎,並結合人類的判斷和思考,以提高結果的準確性和可靠性。

五是實現 AI 的統計優勢與人類的理論驅動的結合。AI通過處理海量數據,提取模式並基於概率分佈進行預測,本質上侷限於對已有知識的模仿,而非對新知識的原創性探索。人類認知的本質是 “理論驅動”,能夠在數據缺乏甚至矛盾的情況下,基於理論、假設和想象力形成前瞻性的信念,並通過實驗加以驗證。如何實現AI的統計優勢與人類的理論能力的結合,是下一階段智能研究的重要方向。只有在明確AI的侷限性併發揮人類獨特優勢的基礎上,才能真正邁向智能技術的黃金時代。

六是不要追求絕對的無條件的通用人工智能。人工智能是對人類智能某一個方面的再現,在科學技術領域,所謂“通用”一定是相對的,有一定的條件或範圍。大模型追求的AGI是行爲表現和解決所有人能解決的問題,只是十餘種“通用”目標的一種 。我們要認識人工智能的侷限性,不能盲目追求天下通吃的人工智能,重點還是要根據實際需求,在相對通用的人工智能技術基礎上落地到各個行業,讓一定範圍內的人工智能技術見到實效。

七是低精度計算可能不是AI計算的主要優勢。最近的實驗發現,模型訓練和推理時使用的精度,是影響成本和性能的重要因素。訓練所需的 token 越多,所需的精度就越高,這對 GPU 的大規模應用可能會產生影響。這一發現提醒我們,在選擇計算精度時,需要綜合考慮成本和性能的平衡,以實現最優的計算效果。

智能計算技術引領未來

最後,李國傑院士指出,人工智能技術是迎接新時代的顛覆性技術,我們一定要高度重視,不能因爲擔心失控而錯過發展機遇。另一方面,我們也要認識到人工智能還處在初級階段,要下深功夫解決基礎的理論問題,才能真正進入智能時代。我們要做理智的人工智能促進派,不要做觀潮派,更不要做促退派。

在當前這個充滿機遇與挑戰的時代,智能計算技術的發展既需要我們積極探索創新,又需要我們冷靜思考面臨的困惑與挑戰。我們相信,在衆多科學家和工程師的共同努力下,智能計算技術將不斷取得新的突破,爲人類社會進入智能時代做出更大的貢獻。

總之,智能計算技術的發展前景廣闊,但也面臨着諸多挑戰。我們需要在技術創新、理論研究和應用實踐等方面不斷努力,推動智能計算技術健康發展,引領科技邁向智能時代。(即播 左朝勝 王祥明 王義海)