萬字專訪譚待:火山引擎從不賠錢換市場,給豆包大模型打80分

2010年中國IT(互聯網技術)領袖峰會上,BAT三家創始人李彥宏、馬雲、馬化騰同場激辯雲計算:李彥宏認爲雲計算是“新瓶裝舊酒”,馬化騰認同雲計算的作用,但作爲基礎設施可能要很多年,馬雲則堅信雲計算對阿里有極大用處。三位創始人的態度,決定了此後幾年三家公司在雲計算業務上的發展速度。

十餘年後,一向在業務探索上不設限的字節跳動也殺入該領域,旗下雲計算平臺火山引擎迅速成爲了國內增速最快的“一朵雲”。12月19日,在上海世博中心和煦的陽光裡,新京報記者獨家專訪了火山引擎總裁譚待,這位年輕的領軍者身着一襲黑衣,雖然在兩天的會議中頻繁登臺演講、會見,卻依然活力滿滿。他透露,今年以來,火山引擎的收入比去年實現翻倍增長。

▲火山引擎總裁譚待

企業服務之一的雲計算很考驗時間積累,現在的市場份額就與上述大廠入局的早晚有關,同時阿里雲、騰訊雲、華爲雲在IaaS(基礎設施即服務)、PaaS(平臺即服務)和政企業務上有着不同的資源稟賦,而運營商雲在骨幹網絡上有着得天獨厚的優勢,火山引擎將如何實現後發先至、彎道超車?

譚待認爲,雲計算行業的第一次浪潮是在線化,在線化積累了很多數據,但這些數據價值可能只發揮了1%到5%。第二次浪潮是智能化,智能化不止能發揮出數據的價值,還能端到端地做很多事,包括MaaS(模型即服務)、AI Agent(智能體),而在智能化的浪潮下,大家都在同一條起跑線上,都要使勁跑。“我的要求是不能有短板,因爲雲計算的客戶很多元,行業差異很大。當然智能化的事情,比如豆包大模型、AI雲原生要做得更好。”

巨頭下場廝殺,MaaS戰事進入白熱化。作爲新入局者,火山引擎給外界最深的印象就是兇猛、降價——今年5月豆包主力模型將推理輸入價格降至“釐時代”,12月火山引擎又讓視覺理解模型進入“釐時代”,甚至一度被貼上“價格戰”的標籤。

譚待在專訪中詳細解答了兩次降價的決策過程,以及是如何通過算法、軟硬件和工程的方法將大模型的價格“打下來”,並表示火山引擎從不賠錢換市場,也不通過投資來換市場。他不認同“價格戰”的說法,“平臺公司就像池塘裡的魚,未來魚能多大,都取決於池塘多大,我們要想盡量把池塘做大,而不是把別的魚吃掉。”

對於全新升級的“豆包大模型”家族,他表示,謙虛一點可以打80分,多模態模型有更高的社會和經濟價值。在專訪中,他還透露了火山引擎的人員結構、組織目標和客戶構成,解答了豆包大模型和火山引擎團隊的協作模式,分享了對合成數據、Scaling law、大模型應用的見解。

▲新京報貝殼財經首席記者白金蕾專訪火山引擎譚待

(以下爲新京報記者12月19日對譚待的專訪實錄,已經過壓縮整理)

迴應“價格戰”:火山引擎從不賠錢換市場,降價源於技術創新和規模效應

貝殼財經:今年5月豆包主力模型的推理輸入價格降到“釐時代”,12月火山引擎讓視覺理解模型進入“釐時代”,是如何將價格打下來的?

譚待:首先要講爲什麼要做這件事情,這個是很關鍵的。大家花這麼多的資源去做大模型的訓練,是爲了更多企業能把模型用起來,用起來之後,才能通過AI(人工智能)幫助更多個人和企業提效,特別是中小企業。要做到這一點,模型能力要更好,使用成本也要更低,大家才能踊躍地去創新,才能涌現越來越多方案去解決個人和中小企業的實際問題,這就是爲什麼我們要做“AI普惠”的工作。

當然對於to B(面向企業的)業務來說,它的商業模式很直接,所以不管再怎麼普惠,一定是要做到可持續,不能用虧損換規模。所以我們其實在技術上做了大量優化,既實現了大模型普惠理念,也能讓我們的業務做到有毛利。

貝殼財經:降價是通過哪些手段達成的?

譚待:降價的做法其實分好幾塊,是算法、軟件、工程和硬件結合的方案。比如算法上,我們採用更好的模型結構,用更低的成本做更復雜的推理。工程上很重要的是規模化,因爲不同業務的負載存在波峰和波谷,科研場景可能半夜調用量比較大,辦公場景白天調用量比較大,當我們的客戶量越來越多時,就能通過規模化調整,把成本降低好幾倍。我們還在軟硬件結合上做了很多事情,因爲不同推理過程,對於芯片的帶寬和算力要求是不同的,我們就把這個過程分離,放到不同的池化資源去處理,通過這種方式也能降低成本。再加上對庫存和供應鏈的管理,綜合起來每一個環節都有好幾倍的效率提升,整體提升是非常大的。

通過上面的一系列操作,就能實現大模型普惠,讓更多的中小企業和個人創業企業能釋放自己的生產力,然後對於火山引擎也是可持續的。而且你看全球,OpenAI也在不斷降價,他們也是用類似的方法。

貝殼財經:即使在“釐時代”,火山引擎也不是賠錢換市場?

譚待:對,這很重要,我們肯定要保持毛利是正的,不然做得越大,虧得越多,商業模式不成立。

貝殼財經:兩次降價的內部決策過程是怎樣的?

譚待:我們目的是要做好AI(人工智能)服務,讓更多人用起來,同時也要保證自身業務可持續。

這裡就有兩個限制條件,一個條件要求我跟開發者、企業瞭解他們在使用過程中對成本的痛點在哪裡,價格降到多少,他們就能用起來。比如一個創業企業,基於豆包大模型做了一個應用,它有自己的ARPU值(每用戶平均收入),就能推算出每token(自然語言處理領域的計費和收費標準)的成本要低到多少,才能達到正向現金流,這個很好算出來。

另一方面,火山引擎自己也來算,我們通過技術優化能把成本打到多低。這兩個值的中間段就是火山引擎可以定下的價格。

貝殼財經:很多雲計算廠商都是可以接受一定的虧損,先把量擴起來?

譚待:To B行業這個模式不成立,最近也有很多雲計算廠商都在反思總包的模式,反思用收入換規模的事情,發現這個模式是不成立的。

因爲對於企業級(To B)市場來說,獲取收入的方式,就是當前賣出去的量。它不是像to C(面向用戶)的應用,給用戶免費使用,將來通過廣告、電商或者別的方式賺錢。所以,不能用虧損換規模,我沒看過任何一家to B的企業把這條路走通。

貝殼財經:5月降價後,百度、阿里、騰訊還有很多創企均跟進了“降價”,是否有考慮到行業其他廠家的跟進?

譚待:他們肯定會跟進的,因爲我想大家都有一樣的初心,還是希望把大模型做好,賦能更多的企業和開發者。如果大家初心一致,肯定就會走這條路,無非就是我們走得快一點,他們走得慢一點。

貝殼財經:有人說你們打“價格戰”,你怎麼看?

譚待:不能這麼來講這件事,我們更重要的是做AI普惠,對不對?

我們做這件事(降價)並不是考慮市場競爭,因爲這個市場目前的開發程度也就是千分之一,還有99.9%沒有開發。昨天我公佈的日均token使用量是超4萬億,這其實並不大,幾年以後,可能日均token使用量就能到百萬億,所以這個市場還是很早期。

打個比方,我們(大模型企業)都是池塘裡的魚,未來魚能多大,都取決於池塘多大,我們要想盡量把池塘做大,而不是我把別的魚吃掉。

貝殼財經:剛聽你講述降價的邏輯,一方面是考慮客戶願意花多少錢,另一方面是內部能有毛利的底線,但你忽略了大模型的研發成本。

譚待:對業務來說,最重要的是在保持毛利率的情況下,做大規模擴張,只要規模上去了、毛利率是可以的,研發成本最終都會被攤銷掉。

談收入增長:今年以來火山引擎收入比去年增長翻倍

貝殼財經:阿里財報披露由AI帶來的收入增長是三位數的,火山引擎這個數據是怎樣的?

譚待:5月以來,我們光日均token使用量增長就超33倍,這就是四位數增長,token的使用量就是實在的收費標準。

回到火山引擎本身,第一個我們把規模優勢放大了,第二個我們在AI上的投入是堅定的,所以整個火山引擎整體都漲得非常好,增速是三位數。

貝殼財經:多大的三位數增長?

譚待:翻倍吧。

貝殼財經:上面這些由AI帶來的增量,佔火山引擎收入的幾成?

譚待:AI還是在早期階段,我現在不太關注它佔收入多少,而是關注它有沒有讓更多企業來到火山引擎,有沒有讓企業降本增效、加速創新。從這個角度來說,AI目前已經起到了非常大的作用。

貝殼財經:有觀點認爲Web、數據和AI分別是雲計算行業的三次浪潮,你覺得火山引擎能否通過這次浪潮,實現對國內頭部雲計算企業的超越?

譚待:我更願意用雲1.0、2.0來劃分。雲計算行業第一次浪潮的核心原因是在線化,在線化能分爲PC(個人電腦)、移動互聯網和IoT(物聯網)等階段,在線化積累了很多數據,但數據價值可能只發揮了1%到5%。第二次浪潮就是因爲智能化,就像我們常說的“數據是新時代的石油”,智能化不止能發揮出數據的價值,還能端到端的做很多事。

我認爲未來10至20年都很重要,也就是雲2.0階段,是以大模型爲基礎端到端的去做更多的事,包括MaaS、AI Agent(智能體)。在2.0階段,技術架構要轉向AI原生和大模型,以GPU(圖形處理器)爲核心重構計算、存儲、安全,我們也推出了很多新產品。

貝殼財經:火山引擎能利用這個機遇彎道超車?

譚待:都升級到2.0時代了,大家都是同一起跑線,就不存在彎道了,大家都要使勁跑。1.0階段取決於部署規模,規模大就能帶來成本降低、彈性增強,但1.0階段我們也很有信心,因爲我們的內外部的部署規模也很大,只不過這個階段(市場規模)變化會很慢。2.0階段會讓大家都走得更快,這個機會是對所有人開放的。

貝殼財經:國內阿里雲可能長於IaaS(基礎設施即服務),騰訊可能優勢在PaaS(平臺即服務)、SaaS(軟件即服務),華爲則在政企領域有獨特的優勢,火山引擎相比其他幾家的優勢和劣勢是什麼?

譚待:我覺得這些更多是第三方評論,你去問其他家,他們肯定說自己什麼都好。我們的要求是不能有短板,因爲雲計算的客戶很多元,行業差異也很大。當然新的事情,比如豆包大模型、AI雲原生上要做得更好,這塊我們很多產品都是國內首發。

To B是很考驗時間積累的行業,現在的市場份額更多反映的是大家進入市場的時間,早十年進場的絕對值肯定更大。所以不應該看份額,而應該看份額變化和增速。

貝殼財經:字節內部對你是否有相關的OKR(即目標與關鍵成果法)要求?長、中、短期的目標是什麼?

譚待:OKR最重要的是Objectives,也就是目標。我們的目標是用技術服務企業,讓它們降本增效、加速創新,只要能做到,雲計算的業務天然就變大了。我們更多強調自驅,我自己寫我的OKR,寫火山引擎十年的BP(商業計劃)。

貝殼財經:能不能透露一下這個十年BP?

譚待:我還是說下明年我們想要做什麼。今年因爲我們推出了更好的模型、更低的價格,所以看到了應用量的爆發。但我認爲,目前大模型的應用還只能摘一些低垂的果實,能輔助人類解決的任務也比較簡單。明年我們一方面會讓更多人用好大模型,同時希望嘗試用大模型幫助人類做更長時間的任務,做真正複雜的Agent(智能體)。

貝殼財經:明確了目標之後,火山引擎的人才和經費將要怎麼分配?

譚待:想要把雲計算和AI做好,是一件很複雜的事情,人是少不了的。火山引擎幾年前剛成立時,雖然收入規模小,但研發投入非常大,我們就是照着未來1000億(收入)目標去投入研發的,所以目前產品和研發團隊在小1萬人。產品和研發團隊相當於是固定資產,銷售、運營是規模化團隊,做多大規模就招多少人,規模化團隊目前加起來大概有1000人。

區域和行業是做to B業務很重要的內容,需要平衡好。火山引擎也會成立本地化團隊,相當於客戶在哪裡,團隊就在哪裡。火山引擎的實施和交付則更多依靠合作伙伴,我們自己會少做一些。

貝殼財經:你的時間會怎麼分配?

譚待:跟階段有關係,在沒有大模型之前,精力會更多放在管理、組織和市場上,但現在產品發生了巨大的變化,所以我會更關注產品進程。因爲我本來也是技術出身的,做這個事情也很擅長,現在超過60%的時間都花在技術上。

貝殼財經:火山引擎目前的客戶主要分佈於哪些行業?

譚待:我們全行業都會做,但看重有C端產品、場景的行業,例如金融、零售、手機、汽車、民生相關等面向C端的行業。因爲面向C端的場景會積累更多數據,數據越多的產品,在線化程度越高,AI和雲才能更好地發揮價值。

貝殼財經:目前會更願意做標杆案例嗎?是大客戶居多,還是中小客戶居多?

譚待:是否做標杆案例得看階段。一個新產品出來,肯定要找一個標杆,這個標杆不一定越大越好。當一個產品完成了從零到一,要實現從一到一百的時候,就要講究覆蓋了,特別是中小企業可以用更高效的方式來覆蓋。

目前,從收入角度來說,肯定是大客戶多一些,從數量角度來說,肯定是中小企業多一點。我會自己去見一些創業公司,一年至少見100多個。AI時代,創業公司有很多新想法,動得特別快,跟他們交流,能學到很多東西。

給“豆包”打分:謙虛一點打80分,多模態模型有更高的社會和經濟價值

貝殼財經:最近豆包大模型家族全面換新,行業中OpenAI(一家美國人工智能企業)、月之暗面、騰訊、快手等也都在年底對自家的大模型產品進行了大規模的更新,你們都選擇在年底更新產品的原因是什麼?

譚待:我覺得並不是大家都選在年底,回顧這一年,會發現這一年全球大模型的進展都非常快,3月份有一大批的更新,然後5月、6月和9月都有更新,應該是每個季度都會有新東西出來。所以我覺得,剛好四季度又有一批新的出來。

反過來,也說明大模型不管是技術還是應用上,都是很快的。

貝殼財經:你曾表示“不急於推出只有30分的大模型,核心是賦能其他人做這件事。”你給這次換新的豆包大模型家族打多少分,爲什麼?

譚待:打80分,謙虛一點。

這次有幾個大的更新,第一個,我們推出了視覺理解模型。因爲語言是人類用來描述世界的很重要的方式,但(人類)認知這個世界、理解這個世界最重要的還是視覺,大模型也是同理,它必須要同時具備語言和視覺能力,才能在現實生活中去幫人類解決更多問題。

所以我們推出視覺理解模型,是把很重要的版圖補上了,不管是我們自己的Demo(演示樣本),還是過去兩個月邀請了幾百家企業的測試情況,反饋結果都很好。未來豆包視覺模型還能在教育、電商和直播等場景上進行應用。

第二個,我們的語言模型豆包PRO(專業版)也有非常大的提升,特別是在企業生產力相關的辦公產品裡,比如複雜指令的遵循,綜合任務的處理,然後數學邏輯、推理能力等,整體上已經對齊了 Gpt-4o(OpenAI發佈的語言模型)。除了應用在娛樂生活場景外,豆包語言模型在工作場景,比如信息處理、銷售客服,都有很高的調用量。還有硬件終端,目前80%的車企都和豆包大模型有合作,通過手機終端的合作覆蓋了超3億用戶。

這兩個模型的價格其實是(企業)非常可接受、可持續的,是能夠讓企業和開發者放心大膽地去做嘗試的。除了這兩個最重要的基礎模型之外,我們在很多垂直領域,比如文生圖、音樂模型,其實都有進一步的升級。

貝殼財經:最近國內幾家大廠的動作比較分化,百度文心一言和阿里通義千問都在深耕大語言模型或者基座大模型,而字節、快手、騰訊等都在做AI(人工智能)生成視頻,這是爲什麼?

譚待:其實我不太能猜測他們的想法,只能說一下我的想法。

以終爲始地看問題,企業做大模型是爲了輔助人去做各種事情,人做事情的時候需要很完整的能力,包括語言、視覺、創作甚至完成更復雜的指令。這就需要模型具備多模態能力,才能端到端的幫個人創業者和企業去解決具體的問題,也纔能有更高的社會價值和經濟價值。

貝殼財經:市場上有人統計了字節在各個行業推出的AI產品的數量,並稱你們是“AI工廠”,豆包大模型能持續快速推出新產品的方法論是什麼?

譚待:還不知道我們被叫“AI工廠”。我們做事情還是從產品和需求出發,需求是從用戶和客戶來的。抖音、頭條有非常多人使用,這些人的需求就會誕生對模型的要求。火山引擎現在做企業級市場,有非常多的企業客戶,這些企業的需求也會促進我們來做不同的事情滿足他們。

所以,是因爲我們有這麼多的C端用戶和這麼多企業客戶,他們的需求會促進我們研發對應的方向。拿到對他們的反饋後,反過來又能促進我們技術的進步。

貝殼財經:以豆包大模型的實踐來看,Scaling Law(規模化法則)是否還成立?

譚待:Scaling Law是一個普世的概念,在沒有大模型的時候,我們做深度學習、機器學習或者推薦廣告時,都發現有數據、算力加大,效果提升的情況。

回到大模型本身,其實大模型訓練有很多階段,比如Pretraining(預訓練)、SFT(監督微調)和RLHF(強化學習)。在不同階段都有Scaling Law,區別就在於到底在哪個階段優化模型的性價比最高。以前可能大家覺得在Pretraining階段進行優化性價比高,現在可能覺得在強化學習階段優化性價比高。未來,由於數據合成的進步,Pretraining的性價比又上來了,我覺得是交替上升的過程。

貝殼財經:豆包大模型目前用來訓練的數據量是否足夠,有沒有開始使用合成數據?

譚待:數據枯竭是一個相對而言的概念。比如說文本的數據很多都被用了,但還有很多高質量的數據沒有提煉好,多模態數據還有很大量沒有被使用好。

數據合成其實是很重要的方法,即使沒有數據枯竭的事情,在很多場合也會用。比如我們在做to B(面向企業)服務的時候,信任和安全是很重要的事情,我們不會看任何企業的prompt(提示詞),但又需要對模型進行優化,我們就可以通過理解他們的場景,去做一些數據合成,對模型進行訓練和提升。

貝殼財經:早期火山引擎並沒有急於發佈自己的通用大模型,而是選擇和多家AI科技公司聯合推出大模型服務平臺“火山方舟”,目前在火山引擎既有不同大模型組成的MaaS(模型即服務),也有自研的豆包大模型,這二者是否存在左右手互搏?

譚待:完全沒有。因爲火山引擎的定位一直沒變過,豆包大模型其實並不是火山引擎來做的,火山引擎的定位就是做好雲計算服務。但現在雲計算的定義發生了變化,雲計算的1.0時代就是傳統的CPU、IaaS等,雲計算的2.0時代其實是Model as a Service(模型即服務)爲核心,火山方舟是圍繞這個事情來做的。它的定義是要做最好的MaaS平臺,把模型的生命週期管理好,通過工程優化把推理性能、延遲優化、安全做好,把企業落地的解決方案做好。

一年前,火山方舟推出時,豆包大模型還沒有對外開放,所以我們就選了市面上比較好的幾家模型放到火山方舟上。現在我們深信豆包大模型是更好的模型,所以就把豆包也放到火山方舟上。

客戶在用火山引擎時,可能90%以上都在用豆包大模型,但他也會在某些垂直領域用一些第三方模型,可以搭配使用。

貝殼財經:從客戶角度講,有百分之多少用豆包大模型,有多少用第三方模型?

譚待:站在企業角度去看,中小企業可能沒有太多資源去做多雲、多模型的策略,所以用豆包大模型就好了。大的企業不管是因爲供給安全性還是使用多樣性的考慮,它可能90%在用豆包大模型,剩下10%會保留一些三方的或者其他開源的模型。

貝殼財經:早期火山引擎其實一直在打的是“數據飛輪”概念,目前更多講的是大模型,這個是企業數字化的“一體兩面”?

譚待:它是從不同層面來描述這個事情(企業數字化),數據飛輪講的是企業怎麼做好數據驅動。原來企業都說要建設一箇中臺,但中臺只強調了數據中臺的建設,但沒有強調把數據的價值發揮出來,這個我們叫數據消費。

數據飛輪其實有兩個閉環,一個是業務對數據的應用,一個是數據資產的建設,然後通過數據消費把兩個連在一起。業務做得越多,數據資產就越好,數據資產越好,給業務帶來的價值就越大,整個過程中都有對應的產品和工具。

大模型其實是一個技術的問題,以前我們用傳統技術來處理問題,現在用大模型來處理,大模型其實可以讓數據飛輪轉得更快。因爲在業務用數據時可以用自然語言來表達,或者用數據智能體來做這個事,這樣對數據的應用會更好。而在數字資產層面,大模型會極大釋放非結構化數據的價值。

所以,我認爲說數據飛輪仍然是企業數據驅動中非常重要的東西,但在豆包大模型上這個事情做得更加高效。

▲火山引擎總裁譚待

貝殼財經:如果火山引擎的客戶對豆包大模型有一些修改、調優的需求,你們和豆包大模型團隊是如何內部協同的?

譚待:火山引擎有一個團隊可以深入到豆包大模型團隊裡,和他們一起做開發,我們通過這個團隊來實現B端需求的閉環。可以理解爲豆包大模型團隊中有個和火山引擎共同開發的小分隊,專門爲火山引擎服務。

貝殼財經:豆包智能助手是不是客觀上對火山引擎做to B業務起到了推介作用?

譚待:數字化轉型都是一把手關注、一把手工程。以前的數字化轉型,比如大數據這些,決策者用不到,只能聽彙報,但大模型可以自己用,這也是技術能夠更快落地的原因。

火山引擎一定程度上對豆包有優化。to B場景更復雜,任務要求難度更高。所以很多很難的產品能夠在to B場景裡做好,反過來讓基礎大模型的能力更強。

研判未來方向:火山不下場做硬件,明年行業會涌現更多AI應用

貝殼財經:最近AI眼鏡在風口上,字節推出了首款AI智能體耳機Ola Friend,火山引擎是否會自己下場或者和合作夥伴一起推出硬件?

譚待:我們是做企業服務的,不是做硬件的。但我們會推出對應的方案,比如基於豆包的IoT(物聯網)解決方案,會有很多硬件來搭載。我們還是想把平臺、SDK(軟件開發工具包)、模型做好,我們也會跟硬件廠商合作,終端也是我們看好的一個方向。

貝殼財經:很多雲計算廠商都在投資AI大模型企業,一般是給“一部分投資款+一部分算力”,火山引擎是否有類似的計劃?會採取怎樣的計劃構建生態企業?

譚待:我認爲用投資來換收入是一件沒有意義的事情。我們也有投資團隊,但我們更多是做戰略投資,比如說被投企業的能力,是火山引擎整體對外服務比較重要的能力,我們就會進行投資。

雲計算的生態的確很重要,核心還是利益互惠,比如一些垂直場景的應用,它們加上豆包大模型的能力,能做很多事情,我們會和他們深度合作,聯合做一些產品開發。

貝殼財經:大家現在對GPU(圖形處理器)有一些擔憂,你覺得未來人才、技術、算力和數據,哪個會成爲限制中國基座大模型更新迭代的短板?

譚待:就不說哪個是短板了。我覺得人才更重要一些,因爲所有事情都是人做出來的。

貝殼財經:這幾年大模型企業經歷了怎樣的發展?2025年會有哪些趨勢?

譚待:我認爲這幾年乃至未來模型的訓練量每年還是會增加的,但把應用做起來也很重要,不然前期投入的資源可能就浪費了,最後應該是應用的市場空間要比訓練的市場空間大5倍左右,投入才能算得正。做好應用則需要好的模型、需要AI普惠,這是我們雲計算企業要做的事情。所以我覺得2025年更適合去推好的模型,我相信2025年不管是中國還是世界會涌現更多AI應用,不管是to C還是to B的。

貝殼財經:2025年是否會出現殺手級應用(Killer APP)?

譚待:現在還是AI早期,就像移動互聯網早期時候,大家說殺手級應用是LBS(基於位置的服務)或者圖片社區,但真正的殺手級應用是美團、滴滴、抖音。殺手級應用是發展到了一定階段後,有更復雜的形態出來之後纔會出現,現在大模型才發展一兩年,還不用着急。今年模型的發展速度已經超過過往任何一項技術的變革速度,所以耐心等待就好,不用焦慮。

貝殼財經:行業內對大模型開始反思,包括消耗了過多能源卻製作出了不少無用的“垃圾”,包括紅杉提出的AI大模型的6000億美元陷阱,也包括對人工智能倫理和技術進步之間的平衡,你怎麼看這些反思?

譚待:我沒有看紅杉的完整報告,但看了一些分析。這個報告提出問題的最終目的是要讓大家把模型應用做起來,而且它覺得明年會有大的亮點出來。所以價值鏈的終局是,所有模型的投資、訓練等,最終還是要應用和落地。

貝殼財經:2025年你個人有哪些新期待?

譚待:世界和平,這很重要。世界和平,經濟就能發展,技術就能進步。

新京報首席記者 白金蕾 記者 韋英姿

圖片來源 受訪者供圖

編輯 丁爽

校對 趙琳