對話深勢科技柯國霖:AI for Science是實現AGI的必經之路
出品 | 本站科技態度AGI欄目
作者 | 袁寧
編輯 | 丁廣勝
如果說大語言模型是語言的造夢人,那 AI for Science 更像是現實世界的建構者。
前者讓 AI 能寫詩、畫圖、編程,但它畢竟只活在數字世界裡;後者卻試圖讓 AI 學會物理定律、化學反應、分子結構——它想讓 AI 理解世界是如何運轉的,並親自參與其中。
“你讓大語言模型生成一個圖片,它可能會畫出一隻三條腿的貓;讓它理解一個瓶子摔到地上的反應,它卻分不清是摔碎還是彈起來。這是因爲它不懂物理規律,AI for Science 試圖補足的正是這部分。”
深勢科技合夥人、AI算法負責人柯國霖告訴《本站科技態度 AGI》。在他看來,想要真正實現AGI,必然要走出數字世界,理解物理世界,那 AI for Science 是必不可少的道路。
2024年 GTC 大會上,黃仁勳提到 AI 領域的三個關鍵方向:大語言模型、具身智能,以及AI for Science。
相比前兩者的熱度,AI for Science 或許聽上去冷門得多。但實際上,它正悄然成爲全球科學界的戰略高地。
一個直觀的例子是,過去一個訓練成熟的博士研究生在整個課業生涯,利用冷凍電鏡等昂貴的科學儀器,可能也只能解出幾個蛋白質的結果。而 Google DeepMind 團隊提出的 AlphaFold 算法,可以在GPU上快速預測一個新蛋白的結構。
2024年諾貝爾化學獎頒給 AlphaFold 和 AI 蛋白質設計團隊,也標誌着 AI 不再是實驗室裡的邊角角色,而是站到了科學發現的中央。“解放的是科學家的重複勞動,他們可以把時間投入到更核心的科研問題上去。”柯國霖表示。
在這場範式轉移中,深勢科技走在前列,是中國 AI for Science 領域的代表性公司之一。
深勢宇知大模型矩陣
這家成立於2018年的公司,構建了一套完整的 AI for Science 科學大模型體系“深勢宇知”,並以“微尺度工業設計與仿真”爲切口,開發了自動化設計系統,打通了分子模擬、蛋白結構預測、藥物篩選、材料計算等鏈條,還在此基礎上開發了科研平臺“玻爾®科研空間站”,構建了一整套微尺度工業基礎設施。
作爲深勢科技的技術合夥人,柯國霖曾在微軟亞洲研究院工作多年,論文被引用超過22,000次,他開發了知名的機器學習工具LightGBM,並連續多年入選全球前2% 頂尖科學家榜單。今年3月底,他和合作者發佈了首個通過自迴歸預測下一 token 的模式,將3D 結構的生成與理解統一起來的框架 Uni-3DAR。
在與本站科技的對談中,柯國霖對AI能做到什麼、還做不到什麼,有着剋制而冷靜的判斷。他說:“如果去暢想很久的未來,不考慮任何限制的話,那AI必然是可以實現一切。但更關鍵的是它在中短期會發展成什麼樣子,我們在有生之年能見到的未來會是怎樣。”
整場談話涉及了以ChatGPT、Deepseek爲代表的大語言模型與AI for Science的差異,AI for Science 領域正在做什麼事情、深勢科技的方向選擇,AI for Science給科學界帶來的改變,以及未來科技的發展方向……
柯國霖表示:“對普通人來說,AI for Science 或許看起來還很遠,但其實很近。你日常生活用到各類產品,小到手機屏幕,大到汽車電池,背後其實都有AI for Science的功勞。”
這場對話讓本站科技態度AGI意識到,AI for Science 可能並不等於“在科學研究過程中使用一些 AI 技術”。在柯國霖理性又剋制的回答中,我們看到了這個領域的真實狀態——它不依賴想象力驅動,而是在真實世界的摩擦中前行。
以下爲深勢科技的合夥人、AI算法負責人柯國霖與《本站科技態度AGI》的交流,內容經不改變原意的編輯。
今天的大語言模型,還是以數字世界爲主
本站科技:AI for Science領域的大模型和我們熟悉的大模型有什麼區別?
柯國霖:這個區別還是很明顯的,大語言模型是對人類智能的擬合,而AI for Science大模型是對物理客觀世界的建模。
人是自然界最聰明的物種,而語言是人類智能的體現,大語言模型試圖通過語言來擬合人類智能。然而,雖然人類文明已經高度發展,但對於我們生存的物理客觀世界,還存在着大量的未知。即便想把已知的規律應用起來,也需要複雜且耗時的計算模擬,難以用在實際場景。
AI for Science 大模型的核心就是要解決這個問題,實現關於物理世界更精確也更高效的建模,以用於加速科學研究。
例如說,我們之前做的蛋白質、分子動力學、晶體材料等各類模型,本質上都是在用機器學習模型來刻畫微觀原子尺度的物理規律。藉助這些模型,我們可以加速新藥物或新材料的篩選與設計,從而輔助科學研究。
我們常說人與自然。這兩類模型也分別是對人和自然世界的模擬。它們是兩條不同的發展路徑,但也有很多人在嘗試將它們結合起來。
本站科技:觀察到我們發佈Uni-3DAR之前已經發布了近上百個模型,Uni-3DAR和深勢科技此前的模型有什麼區別?爲什麼會做這麼多模型?
柯國霖:我們過去確實做了很多不同的模型,主要原因是,科學研究本身已高度分工,它們使用的方法和手段也各不相同,即便在同個學科下的細分領域也可能差異很大。
我們剛開始做AI for Science的時候,首先還是聚焦於一些關鍵問題和核心場景,根據它們的實際需求進行建模。這時候場景可能不算多,主要還是蛋白還有小分子。但慢慢隨着我們深入,發現每個場景的差異挺大,需要自己的模型,但按這種大量小模型的思路去做是無窮無盡的。
因此,我們其實很早就把大模型的思路用起來了,我們在22年提出的Uni-Mol,也是第一個小分子領域的通用大模型,後面還有 DPA,Uni-RNA等等。它們都在一個相對比較大的範圍內,實現了數據和任務的統一。最近的Uni-3DAR,是我們野心更大的一個模型:我們能不能更進一步,把所有三維結構,包括微觀和宏觀的,都統一到一個模型下?
本站科技:Uni-3DAR 有什麼獨特性呢?它帶來的統一意味着什麼?
柯國霖:Uni-3DAR 實現了幾個層面的統一。
首先是上面說的跨尺度的三維結構的統一,它不僅可以用在微觀的三維結構,如蛋白小分子晶體,還有宏觀的三維形狀等等。通過它我們可以建模所有的三維結構,而不需要每個數據類型專門開發一個新的模型。
然後是任務的統一。任務通常可以分爲兩大類:生成任務和理解任務。
生成任務是根據已有數據的分佈生成新數據,比如圖像生成、文本生成等。在科研場景下,我們也需要生成新分子、新材料,例如給定一個蛋白質,生成一個可以與之結合的分子。
理解任務則是對已有數據進行分析,比如分類或迴歸。常見的例子包括圖像檢測或分割,或者預測某個分子的毒性、溶解度、吸收性等。
物理學家費曼有個經典名言:What I cannot create, I do not understand。這個名言很好闡釋了生成和理解統一的必要性。我們在AI領域確實也發現了這樣的現象:如果不把生成與理解統一建模,模型的scaling law會被限制。
我要講的這個例子,從業人員應都很熟悉,就是關於BERT和GPT的歷史。
它們是語言模型的兩個流派:BERT以理解能力爲主;GPT以生成能力爲主。其實GPT-1比BERT還要更早出來一會,但在那個時候,因爲大家都更關注理解任務,也更容易用客觀指標來評價理解能力,所以BERT受到的關注要大很多,很多做大模型的都以BERT爲主。
但是,當我們嘗試擴大模型參數(例如達到十億參數)時,BERT 的理解能力開始遇到瓶頸,沒有展示出很好的scaling law。而 GPT 雖然早期理解能力不如 BERT,但隨着模型規模的擴大,它的理解能力也逐漸超過了 BERT,並具備極強的生成能力。後面的故事大家也知道了,ChatGPT這類生成式的方法成爲了主流。
這也給了我們啓發,我們的Uni-3DAR,也是以生成能力爲主,將理解任務和生成任務統一到一個生成式建模的框架中。
本站科技:大語言模型發展中的技術路徑可以遷移到 AI for Science 領域的大模型中嗎?
柯國霖:嚴格來說,大語言模型的技術路徑並不能完全照搬過來,因爲它們處理的對象差異較大,但其中很多思路是可以共通的,比如我們剛剛提到的理解與生成的統一。我接下來要說的Uni-3DAR實現的第三個統一,多模態的統一,也是從大語言模型那邊得到的啓發。
我想說的例子是最近的 GPT-4o ,大家也應該都體驗過了,它在圖像生成上的表現比過去強了很多。一個非常關鍵的進步點在於:GPT-4o 將圖像與文本等模態真正統一到了同一個模型框架中。
在此之前,大語言模型只能處理文字信息,對於圖像或其他多模態數據,需要額外的獨立模型來處理。
因此,當你想要生成圖片的時候,大模型實際上把你的提示詞輸入給另外的模型,然後生成圖像;如果你想繼續修改這張圖,它會再過另外的模型,把圖像轉成文字,結合你的修改意圖,再調用其他模型重新生成一張圖像。
可以看到,這個過程中,所有的操作都需要通過文本來轉譯,很多圖像細節信息在轉換中丟失,最終生成的圖像就會出現明顯的不一致——比如你只是想修改一個細節,結果模型卻重畫了一整張圖。
而 GPT-4o 的做法通過自迴歸的形式,把圖像數據和文本數據直接輸入到同一個模型中,從而讓模型可以真正“看到”上下文中的原圖細節,實現更連貫的生成。這種設計本質上是對輸入格式的一種統一,充分發揮了自迴歸模型的能力。
這是自迴歸技術的強大之處:“統一”。前面我們講的是理解與生成的統一,而這裡的核心是多模態的統一。GPT 系列已經基本完成了對文本、圖像、音頻、及視頻的整合。
我們在做的 Uni-3DAR,其實也是延續了這種思路:基於自迴歸框架,去實現關於三維結構的理解、生成,以及多模態的統一。這樣一來,後續我們可以非常自然地支持用戶用文本描述輸入需求,甚至輸入其他模態的信息(比如圖像、分子結構圖等),模型則可以基於這些輸入生成三維結構、微觀物質,像是蛋白、小分子、晶體等等。
更進一步,用戶還可以通過自然語言與這些結構進行交互與編輯。這種模型最終的目標,是成爲一個能夠理解自然世界的大模型,並且可以和我們的科研模型體系真正融合在一起。
本站科技:你在X上寫道,世界是3D 的,物理定律都植根於3D 空間。如果我們想要一個世界模型,3D 結構建模是必不可少的。這句話怎麼理解?你們所做的工作,是否也是走向通用人工智能的重要路徑之一?
柯國霖:是的,我們在做AI for Science大模型,本質上是對於物理世界的建模,這是實現通用人工智能的必要一步。
具體來說,要實現AGI,我認爲具備三大要素:身體、大腦和世界,並通過它們構成一個完整的感知––決策––行動––反饋閉環。大腦接收來自身體的多模態信息,進行規劃和思考;身體承擔感知與執行的雙重功能;世界則不斷以物理的因果規律回饋結果。正是這種閉環,使得智能體在“感知–行動–反饋–再感知”的循環中,持續修正、積累經驗。
人類智能的進化與形成,主要也是因爲這個反饋鏈路。最原始的單細胞生物就能感知周圍環境,趨利避害,以適應生存需要。
現在最接近大腦的,或許是大語言模型,但它們還被限制在數字世界裡。它們擅長“文本對齊”——比如文本生成、對話、代碼編寫,能識別一些圖像和視頻信息,甚至可以調用一些計算工具。它們確實在這些任務上做得挺好,尤其類似寫代碼的能力。但你也容易發現,它擅長的這些事情都在數字世界裡容易獲取反饋的。例如說寫代碼,可以容易驗證它的正確性和運行效率。
如果我們想給大語言模型裝個身體,讓它真正在現實的物理世界裡進行探索和反饋的迭代,以實現更進一步的智能。說實話,即便我們假設“身體”的硬件水平沒問題,想要實現這個目標也還比較遠。
核心的原因在於,物理世界反饋不僅慢,成本也高,無法像在數字世界裡一樣快速閉環迭代。你可以想想,人類的進化可是花了幾億年。
所以,我們就需要AI for Science了,通過它對於物理世界建模的能力,實現對於物理世界的模擬,提供一個可以快速反饋迭代的虛擬物理世界。這其實也就是大家經常說的“世界模型”。
如果我們能構建出一個足夠真實、足夠高保真的世界模型,在其中運行模擬的“智能體”,並讓它們學會感知環境、行動反饋、理解物理規律,那它們就可以在模擬世界中快速完成學習與迭代。在這個基礎之上,再把所學遷移到真實世界,就像是“左腳踩右腳”一樣,一步步推動模型能力從虛擬走向現實。
本站科技:也就是說,AI for Science可以更好地理解現實世界。雖然深勢現在聚焦的可能是生命科學和物質科學這兩個相對微觀的領域,但如果未來繼續發展,也有可能擴展到更宏觀的世界?
柯國霖:是的,本質上來說,AI for Science就是一整套物理規律的集合。我們目前專注於微觀層面,主要是因爲它在現階段具備更清晰的商業化路徑,比如新藥研發、新材料設計等。
但在更宏觀的方向,很多研究和應用其實也在同步進行,比如流體力學建模。像是設計汽車時,就需要做風阻模擬;再比如火箭發動機的開發,也依賴大量的仿真計算。這些都是三維仿真的典型應用場景,也是很經典的AI for Science的應用場景。
除了科學工程領域,在更偏向娛樂或消費技術的場景中,三維仿真同樣不可或缺。比如在動畫製作、遊戲開發中,需要大量的物理引擎來支撐真實感的表現。過去,這些物理規則大多是由工程師手動編寫設定的,例如物體的運動方式、表面反應參數等,依賴大量人工參與和調試。
而如果我們的世界模型能做到足夠精確和通用,那麼這些設定就不再需要人工一條條寫規則,而是可以由模型自動完成。這不僅提升效率,還能極大地拓展建模和交互的能力邊界。
深勢想做的是一個真正意義的一站式科研操作系統
本站科技:科學研究本質上是探索科學規律,而作爲企業,我們還要考慮如何將這些研究成果的商業化應用。所以我還想了解一下,深勢科技目前的客戶主要是哪幾類?
柯國霖:我們目前的客戶可以分成兩大類,B端和C端。B端用戶會有比較具體的場景和需求,我們會根據我們的產品和能力提供服務。C端用戶主要是直接從事科研工作的科學家羣體。這裡麪包括泛科研人員,比如高校的學生、老師、教授,以及企業裡的研究員。
我們現在主推的是“玻爾®科研空間站”服務平臺,主要是面向C端用戶。
這個平臺的目標是讓科研人員可以一站式完成一整套科研流程——比如閱讀論文、運行計算模型、調用實驗模塊,甚至包括儀器設備及溼實驗的平臺,進一步實現從理論到實踐的閉環。
這背後有兩個核心支撐。第一個是文獻數據庫,我們目前已經積累了非常龐大的論文資源,尤其是集中在自然科學方向。第二個是計算工具平臺,可以通過智能體的方式,調用我們積累的大量Science領域的科學計算和AI模型的工具。
本站科技:提到「玻爾」,我有一個疑問,現在像ChatGPT、DeepSeek這樣的大語言模型現在不是也能直接搜論文嗎?
柯國霖:確實,大模型在檢索和理解文本方面已經做得很好,在多模態數據的理解和生成能力也在快速進步,可以處理一些自然圖片、或簡單的表格數據等等。但這裡面存在一個明顯的“Gap”,特別是在科研場景下。
我們在科研中常見的多模態數據形式,跟自然圖像差異很大。比如:一個分子的結構圖,一個化學反應的反應式,一張X射線衍射譜,或者某種材料的拉曼光譜圖等等。他們大多也以圖像來表示,但和我們日常生產拍攝的“自然圖像”差別很大。這些我們稱之爲“科學多模態”數據。
因爲現有工具也很難處理好這些科學多模態數據,目前的大語言模型基本上也沒有把他們作爲訓練數據,所以面對這些專業信息時,往往無法正確解析或者根本無法識別。
這也是爲什麼現在的大模型在科學專業領域,特別是化學、生物等方向,只能提供泛泛的建議或靈感啓發,比如一些研究思路或實驗設想,但沒法輸出精確的信息,例如文獻裡的化學反應的具體產物和產率,或某個靶點的活性值等等。
而我們現在做的事情,尤其是在玻爾平臺上,核心就是解決這一類“科學多模態”的理解問題。我們有專門的模型訓練和優化這個能力,真正讓AI能看懂這些科研多模態數據,爲科研人員提供專業、深入的支持。
本站科技:我瞭解深勢在B端也有大量合作客戶,我們和他們的合作模式是怎樣的?是通過平臺授權,還是其他形式?
柯國霖:合作模式其實也比較靈活,用戶類型不同,合作形式也會不同。
一類是SaaS模式,企業可以直接在線使用我們的平臺功能,比如跑模型、查文獻、做計算等。
但還有一類企業對數據隱私非常敏感,不希望科研數據離開自己的內網。這種情況下,我們會提供私有化部署,比如將平臺整體打包進一臺一體機,部署在他們的本地環境中,我們也無法訪問他們的數據。
這種模式能滿足企業對數據安全的高要求,同時也確保他們可以用上我們完整的科研計算能力。
本站科技:兩種模式哪個會更多一些?
柯國霖:國內客戶更多是私有化部署的形式。
本站科技:從技術層面來看,深勢科技下一步的重點方向會是什麼?
柯國霖:我們更希望往統一的、通用的大模型方向走。比如說我們前面說的Uni-3DAR,目標是統一物理世界裡的三維結構。然後對於科學文獻裡面的多模態數據,我們也在建設統一的多模態模型方案。
我們這兩個方向,也會和現在的大語言模型結合起來,讓它以多模態統一的方式,更好理解客觀的物理世界,以及大量的科學文獻。
本站科技:如果只面對科研人員的話,這部分會是一個多大的市場規模?
柯國霖:這個具體要問我們的商業化同事了。我可以提供一些數字,首先是科學家的羣體,我們每年有個2%的科學家名單,它從發表過論文的學者裡面,找出前2%,然後今年這個名單大概是20萬人,也就是說,發表過論文的科學家有千萬的規模。
如果我們再把學生和企業的研發人員算進來,那量級就更大了。隨着生活水平和教育水平的提高,做科研的人也會越來越多。也就是說,這會是一個存量很大,且還在持續增長的市場。
此外,其實這個領域目前全球範圍內參與者還不多。國外像DeepMind、薛定諤(Schrödinger)等公司都相對垂直,主要集中在生物醫藥領域。而國內在做AI for Science這條完整路徑的企業更是屈指可數,大多也專注在垂直方向。像我們這樣以一站式科研平臺爲主的公司屈指可數。
本站科技:而且這部分市場我理解應該是一個全球性的機會,因爲物理規律這類基礎科學的東西本身就是通用的。那麼深勢和這些國外企業相比,差異化的優勢或者說獨特的價值體現在哪些方面?
柯國霖:是的,這確實是一個全球性的市場,而且現在真正專門做這件事的公司其實非常少。我們和它們最大的不同,是我們的定位不在於去做某一個具體科研方向的突破,而是更像在搭建一個完整的平臺,讓科研工作者能在一個統一的環境裡,把科研流程跑通。
這個定位本身在業內就非常稀缺。現在市面上,可能有的公司專門做文獻閱讀,有的專門提供實驗平臺,有的只做計算模擬。但像我們這樣把這些環節整合到一個平臺裡,讓用戶可以一站式完成科研全過程的,目前幾乎沒有。
我們的差異在於,我們不和每個垂直環節直接競爭,而是把這些工具和能力有機組合在一起,打通爲一個完整的科研工作流。用戶只需要進來一次,在我們平臺上就可以讀文獻、跑模擬、調模型,甚至做實驗。
這樣做的好處就是,一方面提升效率,另一方面減少了用戶在多個平臺之間切換的成本。
從技術能力上講,我們的路徑也不是簡單調用已有工具、拼湊服務,而是很多能力都是自己一點點做出來的。
比如我們在科研領域很關鍵的“科學多模態理解”上,其實是很早就開始投入的,這不只是看圖識字那麼簡單,它包括像化學分子的結構圖、反應路徑、各種複雜的譜圖等等,這些都是大模型默認不會的數據格式。但我們從2023年就開始專門做這一塊,積累了大量標註數據,也建立起了比較深的技術護城河。
再加上我們早期做出的一些自研模型,在業內已經有一定的認知度,很多用戶上來就可以直接用,非常方便。所以我們的優勢不只是“功能多”,更在於這些能力是深度集成在一起的,而且是真正面向科研痛點來設計的。
你可以理解爲,其他公司可能在做單點突破,而我們想做的是一個真正意義上的一站式科研操作系統。
本站科技:我們今年的一個重點是什麼?
柯國霖:今年的話,我們還是希望能多拓展一些C端用戶。因爲對我們來說,這部分用戶除了是重要的使用羣體之外,其實也構成了一個非常寶貴的產品反饋機制。
你做產品,最怕的是沒人用、沒有反饋。但我們現在的情況是,每天首頁的提問框都有幾萬到十幾萬個問題涌進來,源源不斷。這個數據量不僅說明了活躍度,也讓我們能快速捕捉用戶真實的科研需求,及時調整方向,迭代產品。
目前,我們的波爾平臺註冊用戶已經突破了70萬。對於一個偏科研的工具平臺來說,這個體量其實非常可觀了。
每天一睜眼就有幾萬人在上面提科研相關的問題、交流研究思路,這種活躍度,在整個科研產品領域其實是很少見的。我們也希望通過這種高頻的用戶互動,持續打磨出更貼合一線科研場景的功能,把這個平臺真正做成科研人員離不開的工作入口。
AI for Science落地後帶給普通人的是更直接的影響
本站科技:談到AI for Science,可能更多人理解是在科學研究過程中使用一些 AI 技術,在你看來AI 對科研的改變,是如何體現出來的?
柯國霖:按我們現在在做的,可以分成兩個層面來看。
一方面,是提升科學家本身的研究效率。這也是我們玻爾平臺最核心要解決的問題,比如說讀文獻、跑計算、做實驗,全流程都可以在平臺上完成。剛剛前面也講了很多,我就不贅述了。
另一方面,其實更深層的是 AI 對科學規律本身的一種建模能力。科研分很多種,但我們現在關注的更多是“應用型科研”,也就是那些真正能夠落地的,比如說做出一個藥,最終可以真的被用在臨牀上的那種。不是純理論推演,不是停留在紙面上的。
但現實是,即便科學理論已經發展了這麼多年,實際應用科研其實還是非常依賴試錯的。例如說藥物研發,雖然看着也有一些理論指導,但真要做出來也需要大量的實驗驗證。此外,試出來有效的東西,我們也很難完全理解它爲什麼有效。副作用也好,機制也好,理解和解釋都是滯後的。
所以在這種模式下,我們現在的應用科研流程其實特別像一個漏斗。從大量的可能性開始,一層層篩,越往後成本越高,準確度也越高,但能試的數量就越少。比如說你想測試一個新藥,傳統流程可能要一一合成、拿動物做實驗,甚至進入人體試驗,每一步都要花很大的錢和時間。所以爲了節約成本,大家慢慢在前面加一些新的流程,比如說用細胞實驗、分子屬性檢測,再往前的話,就類似用計算模擬的方法。
AI 在這裡的作用,就是在這個漏斗的前半段慢慢切進去,逐漸加速或替代原來的環節。因爲越靠近漏斗前端,數據越多,模型效果越好,AI起到的效果會越明顯。隨着數據積累,AI 的作用會逐步往後拓展,向更接近真實實驗的環節靠近。
你像 AlphaFold 就是個很典型的例子,它成功的主要原因也是數據---用了大量科學家幾十年積累的幾十萬條蛋白實驗數據,才能把結構預測做到幾乎接近實驗精度。
但不是所有方向都像蛋白這樣,已經積累了大量的數據。所以 AI 對應用科研的加速不會是一蹴而就的,需要結合實際的情況,不斷地往前推進。
本站科技:可以再舉一些更具體的例子嗎?
柯國霖:其實最典型的例子還是 AlphaFold。這個例子很多人應該都聽過,它背後的突破非常有代表性。
比如說在 AlphaFold 出現之前,很多博士生其實都在做蛋白結構解析的工作。這個過程非常複雜,首先要把蛋白質先合出來,然後還要做分離純化、結晶,整個過程非常耗時耗力,也有失敗的可能性。它需要的設備也比較昂貴,一臺冷凍電鏡設備動輒上千萬甚至上億。
在過去,一個訓練成熟的博士研究生,要順利完成一次蛋白結構的解析,快的也要一兩年,慢的甚至四五年。這還只是“解一個蛋白”的工作量。你想,一個博士讀下來,可能就只能解出幾個蛋白結構。
但 AlphaFold 出現之後,這種情況發生了質變。AI 的泛化能力非常強,它不是隻幫你解決一個具體結構,而是可以推廣到所有蛋白結構的建模。雖然對一些複雜結構可能還是需要人來微調,但絕大多數情況下,它已經不需要人再逐個去從頭解析了。這是一個真正意義上的效率躍遷。
另一個例子來自我們自己平臺的實踐。比如說我們平臺上支持的一種典型科研流程——藥物研發中的靶點調研。以前的做法是,研究員要先把靶點相關的所有藥物專利都整理出來,然後一個個閱讀、篩選,從中提取出被專利過的分子結構和它們對應的活性屬性。這是非常耗時的過程,我們自己內部的藥物研發團隊也做過,通常需要兩三個人全職做上一兩個月。
而現在,用我們波爾平臺的多模態文獻理解能力,這個過程幾乎可以完全自動化。研究員只需要輸入靶點名稱,平臺就能自動幫你收集所有相關文獻,自動提取裡面藥物的分子信息和活性屬性,自動整理成結構化的數據表格,生成一個完整的數據庫。
而且這個過程不需要人工干預。等於說,我們通過 AI,把原來需要兩三個人一兩個月做的事情,壓縮成了幾分鐘。這就是我們真正看到的一個落地的變化,解放的是科學家的重複勞動,他們可以把時間投入到更核心的科研問題上去。
本站科技:當AI進入科學研究中,您覺得像科學家爲代表的“人”和“技術”之間應該是怎樣的一種關係?
柯國霖:我覺得可以這樣理解——我們現在用 AI,本質上是希望它能幫我們解決問題。但這個“解決問題”的前提,是你已經把問題定義得比較清楚了。只要目標明確,AI 的表現往往不錯,甚至可以不斷優化,越做越好。
其實在科研裡最難的,不是解決問題,而是發現問題。你得先知道“什麼是一個好問題”,哪些問題值得做,哪些方向可能有價值。比如在藥物研發中,你要能判斷哪個靶點值得投入,這一步判斷本身,是一個高門檻的科研洞察。
而這一塊,AI 目前是很難勝任的。它可以幫你處理已有的問題,但如果你指望它自己去“提出一個新問題”,你會發現它往往是胡說八道,缺乏邏輯或科學性。
所以我覺得,科學家的核心價值依然是在前端——提出假設、發現問題的階段。而這並不是憑空臆想的過程。很多時候,我們是在真實世界的實踐中,通過實驗、觀察,才意識到某些地方“有問題”,或者結果和預期有差異,從而意識到這裡可能存在一個“未知”。這些預期外的異常,纔是科研創新的突破口。
但目前的大模型還是停留在數據層面,它理解的是已有數據的結構和規律,卻沒法像人一樣,去和物理世界互動、觀察異常、生成洞察。所以它很難真正發現新問題。未來如果 AI 擁有了“身體”,能感知世界、行動反饋,也許會改變這種局面,但至少現在,還差得遠。
本站科技:在 AI for Science 的推動下,未來科學會朝着什麼方向發展?
柯國霖:做科學,或者說做科學的應用,歸根結底就是爲了找到一些真正有用的東西。那 AI 的加入,會讓這件事變得更高效、更系統。
如果去暢想很久的未來,不考慮任何限制的話,那AI必然是可以實現一切,所以很長遠的假設沒太大意義。更關鍵的是它在中短期會發展成什麼樣子,我們在有生之年能見到的未來會是怎樣。更具體來說,就是考慮現階段的數據、算力、硬件等客觀條件的限制,以及它們在中短期內的發展,我們能實現什麼?
在這個限制下,我認爲可以實現的是AI for Science的自主智能體。 舉個例子,比如我們想要開發一種新材料,就在對話框裡輸入一句話:“我想要一種又輕又隔熱的材料。”系統就開始自動搜文獻、查數據庫、比對已有的研究成果。如果有類似的,它會直接給你合成;如果沒有,它就從零開始設計,再進入實驗、驗證,最後把結果反饋給你。
這個過程就像是你身邊有一個“全能科學家”——思路清晰、執行力強,而且很能卷,不睡覺不喊累。你只需要告訴它目標,它就能幫你實現。如果我們實現了這個目標,那我們就徹底改變了應用科研的研發範式,它會大幅提高現在各類新物質研發的效率,例如新藥研發,新材料研發等等。
當然,要實現這個也還沒那麼簡單,它需要智能體能夠在物理世界裡做實驗,並獲取反饋。但這個目標也沒那麼遙遠,我們已經在一些場景上驗證了這個思路的可行性。這裡最核心的瓶頸,還是在於跟物理世界進行迭代反饋的效率和質量,所以智能化的儀器表證,以及自動化的實驗設備,都是實現這個目標的關鍵因素。
如果考慮更短期的未來的話,那就是我們玻爾所提供的平臺功能:更好的文獻理解以及科學工具的智能調用。這些功能已經可以大幅提高科研人員的工作效率,把更多的時間用在更關鍵的環節上。
對普通人來說,AI for Science 或許看起來還很遠,但其實也很近。你日常生活用到各類產品,小到手機屏幕,大到汽車電池,背後其實都有AI for Science的功勞。它的快速進步也會給我們的生活水平和技術發展持續帶來切切實實的影響。
值得注意的是,在柯國霖接受採訪後不久,國際科學智能聯盟在北京成立,該聯盟由北京大學、上海交通大學、中國科學技術大學、北京科學智能研究院等50餘家頂尖高校、科研院所及行業領軍企業共同發起,旨在通過人工智能技術驅動科研範式變革,加速科學發現與產業轉化協同發展,正式開啓“大科研時代”新篇章。
而在昨天,5月21日,由北京科學智能研究院與深勢科技聯合打造的AI科研平臺“Science Navigator(科學導航)”,也在北京大學正式上線。
該平臺是全球首個覆蓋“讀文獻-做計算-做實驗-多學科協同”全流程的AI科研系統,後續也將服務更多院校的科研體系,爲高校科研人員探索學術前沿提供技術支撐。