Sam Altman: 在風暴中心引領AI革命——動盪與技術未來的對話 | 最新2萬字長訪(附視頻)
未經許可不得轉載,務必保留原文出處鏈接和公衆號按鈕
(關注本城公衆號並設爲星標,
第一時間獲取最新頂級商業科技認知)
文:Web3天空之城 · 城主
一段時間不見,OpenAI的首席執行官Sam Altman出來面對面訪談了。在Greg休假,Ilya新公司成立,OpenAI持續虧損和新融資消息傳出的現在,正當時。
這次訪談還是著名主持人崔娃Trevor主持的,有點意外的是Trevor對AI科技有挺深入的理解,比95%的非技術主持人都要強。
在這次訪談中,Trevor和Sam展開了一場廣泛的對話,探討了人工智能,OpenAI以及Sam個人的職業生涯和心路歷程。Sam從他的重返OpenAI事件切入,分享了自己如何在一系列混亂和不確定中反思個人與公司使命的關係,並且談到了AGI的未來發展方向。
Sam 不僅詳細闡述了AGI在認知、生產力和社會效應上的巨大潛力,還針對性地迴應了AI安全性、倫理問題、資本主義的權衡與技術革命的挑戰。同時,他坦誠討論了自己對OpenAI公司治理的思考,如何平衡技術進步與社會責任,並強調了透明性與民主化技術治理的重要性。
B站傳送:OpenAI CEO Sam Altman最新九月訪談@崔娃Trevor 2024.9.5 【中英字幕】-嗶哩嗶哩】
https://b23.tv/MEr0Xna
重新掌舵OpenAI的歷程:Sam Altman回顧了他短暫的離職經歷,並分享瞭如何在這段動盪中重新認識自己對OpenAI及其使命的熱愛。儘管他短暫被解僱,他強調自己從中汲取了深刻的經驗,並深感繼續推進AGI發展的重要性。
AGI的未來與技術革命:Sam Altman堅信AGI將帶來前所未有的技術革命,儘管社會和經濟的變化可能不會如預期迅速。他認爲,儘管技術將越來越接近AGI,但其對社會的實際影響將是漸進的,允許社會逐步適應新科技所帶來的變化。
資本主義與AI的平衡:訪談中,Sam Altman詳細討論了OpenAI如何在資本主義體制下運行,同時保持其創建時的初衷,即確保AGI的利益廣泛分配。儘管OpenAI需要在資本主義中競爭以獲得發展所需的資源,他強調,技術進步不應以犧牲倫理與社會責任爲代價。
AI的民主治理與社會影響:Sam Altman提出了一個重要觀點,即AI技術治理應更加民主化。他相信,公衆應更多參與決定AI系統的使用方式和規則設定,並強調了技術透明性和多樣化治理的重要性。
對AI安全性和倫理的擔憂:訪談中,Sam Altman坦言,儘管AI有着巨大的潛力,但也有很多潛在的安全隱患。他特別指出了AI在計算機安全、合成生物學等方面的風險,並呼籲社會應當以負責任的方式推進技術發展。
關於人工智能的更廣泛願景:Sam Altman對未來充滿了樂觀。他認爲,隨着AGI的成熟,每個人都將擁有更多機會去追求個人興趣,並且技術將極大改善全球教育和醫療水平。儘管技術革新將帶來工作和社會模式的改變,他認爲,最終人類精神和創造力將推動我們進入一個更繁榮的未來。
-=Web3天空之城書面全文版=-
Trevor:
謝謝你抽時間接受採訪。
Sam:謝謝。
Trevor:你不覺得現在是一個瘋狂的時間嗎?
Sam:感覺是我所經歷的最瘋狂的時刻。
Trevor:
是啊,你處在這一切的中心。我想知道那種感覺是什麼樣的。因爲我只是這個領域和這個世界的一名狂熱觀察者,你知道嗎?我感覺你是受到這一切影響的人。我指的是,Sam Altman進入了《時代》雜誌年度人物的候選名單。
Sam:很高興沒有得到那個。
Trevor:很高興沒得到?
Sam:是的,當然。
Trevor:爲什麼?
Sam:今年我已經比我整個生命中都得到更多的關注了。
Trevor:好吧,好吧。所以你不喜歡關注?你不想要關注?
Sam:
不,這太殘酷了。在某些方面這很有趣。在某些方面這很有用。但對個人生活而言,生活質量的權衡上。是啊,絕對不喜歡。但這就是現在的情況了。這是我簽約的內容。
Trevor:對,現在是惡名昭著的時候了。
Sam:是的。
Trevor:人們在街上會認出你嗎?
Sam:這是一個非常糟糕的權衡。是的,我覺得你永遠… 我肯定你也會遇到這種情況,但我再也無法保持匿名了。
Trevor:是的,但是人們不會問我關於未來的問題。
Sam:他們不會問你是否會毀滅世界。沒錯。有一點點區別。人們可能會想跟我合影。這就是它的程度了。很多合影。
Trevor:好吧,恭喜你。你是《時代》雜誌的年度CEO。
Sam:是的。
Trevor:
這可能是最奇怪的時刻之一,因爲我猜是在《時代》雜誌做出這個決定的時候。幾周前,你可能還不是年度CEO。我不知道他們是否還能給你這個獎。我猜這是爲了你之前的工作。
Sam:是的,我不知道。我不知道這是怎麼運作的。
Trevor:重新擔任CEO的感覺如何?
Sam:
我仍然在重編現實,老實說。從某種意義上說,這感覺很棒,因爲在整個過程中,我學到了很多關於我有多愛這家公司、使命和員工的東西。而且,在整個過程中,我經歷了幾次,短時間內體驗了全部的人類情感。但對我來說,一個非常清晰的時刻是,這一切都發生在星期五的下午,星期五中午。第二天早上,星期六,幾位董事會成員打電話給我,詢問是否願意討論迴歸的問題。
對此,我的感受非常複雜。但最終,我非常清晰地意識到,我願意迴歸。
我真的很愛這個地方和我們正在做的事情。我認爲這對世界很重要,這也是我最關心的事情。
Trevor:
在科技領域,招聘和解僱是每個人都必須習慣的事情。
我知道在過去,你曾在Y Combinator被解僱。每個人在這種情況下都有一個故事。
Sam:我不想說這個。
Trevor:告訴我,告訴我。這些事情,你做研究,然後從那裡開始。
Sam:
我大約在(離開YC)一年前就決定我想來OpenAI。
那是一個複雜的過渡過程。但我一直在同時做OpenAI和YC的工作,而且非常確定我想來OpenAI。我從沒後悔過這一點。
Trevor:那麼你從來沒有被解僱過。作爲一個人,這是一種艱難的處境。
Sam:這算解僱嗎?
Trevor:如果你被解僱後立刻又被重新聘用呢?
Sam:我本來要說的不僅僅是……這實在是殘酷……我猜我現在不應該談論這個。
這是一件非常痛苦的事情。對我個人來說,作爲一個人,這感覺非常不公平,處理方式真的很不公。
Trevor:
我可以想象。很多人會談論被解僱。
在疫情期間,這變成了一種趨勢,尤其是人們會談論收到一封郵件或一段羣發的視頻,然後就有成千上萬的員工被解僱。
你很少想到這會發生在公司的CEO身上。更甚者,你不會想到這會發生在被許多人稱爲這一代和未來的“史蒂夫·喬布斯”的CEO身上。
順便說一句,你不會這麼稱呼自己。
Sam:當然不會。
Trevor:
很多人是這麼評價你的,但我覺得稱你爲這代人的斯蒂夫·喬布斯是不公平的。在我看來,你是這代人的普羅米修斯。你真的就是。
在我看來,你彷彿從神那裡盜取了火焰。你處於這一變革的前沿,我們現在所經歷的時代,AI曾是科幻和傳奇中的東西,而你現在是可能永遠改變文明的前沿代表。
你認爲未來會全面改變嗎?
Sam:
我認爲會。
我完全有可能對我接下來要說的內容理解錯誤,但我的感覺是我們會構建出某種幾乎所有人都同意的東西,即AGI。定義通用人工智能(AGI)非常困難,但我們會構建出一個讓人們看到後會說“好吧,你們做到了”的系統。這個系統就是通用人工智能,即一個具有人類水平或超越人類水平的系統。
Trevor:
在詳細解釋之前,你認爲人們對AI的認知和人工通用智能之間的最大區別是什麼
Sam:
隨着我們越來越接近這個領域,如何定義它變得非常重要,這裡面也存在差異。對一些人來說,AGI指的是一個能夠完成當前人類工作中一些重要部分的系統。當然,我們會找到新的工作和新的事情去做。但對另一些人來說,AGI指的是一個能夠幫助發現新科學知識的系統。這些顯然是非常不同的里程碑,對世界的影響也非常不同。
儘管我已經對這個術語感到厭倦,甚至都無法不再使用它,但有個原因讓我不再喜歡這個術語。這個術語是AGI。我認爲對大多數人來說,它現在的意思只是非常智能的AI,但除此之外,它變得非常模糊了。我覺得主要是因爲我們越來越接近了。
我要嘗試說的是,我們將要創造AGI,無論你怎麼稱呼它。至少在短期和中期內,它對世界的改變將遠小於人們想象。在短期內,我認爲社會具有很大的慣性,經濟具有很大的慣性,人們生活的方式也具有很大的慣性。這可能是健康的,對我們管理這一過渡是有益的。我們都以某種方式做事,而且我們習慣了這種方式。社會作爲一個超級有機體也以某種方式行事,而且也習慣了這種方式。
看看GPT-4所發生的事情,我認爲這是有教益的。當我們首次推出它時,人們有過一陣真正的驚慌時刻,他們說:“哇,我沒想到這會發生。”但隨後他們繼續過着自己的生活。它確實改變了一些事情,人們確實在使用它。這是一種比沒有更好的技術。當然,GPT-4不是很好,5、6、7,無論哪一個,都將會好得多。但是,ChatGPT界面的第4版,我認爲是很多人從不認真對待到非常認真對待的時刻。然而,生活還在繼續。
Trevor:
你認爲這是對人類和社會有益的嗎?生活就應該這樣繼續下去嗎?作爲這個產品的“父親”之一,這個想法的“父母”之一,你希望我們所有人停下來,花點時間,評估一下我們現在所處的位置嗎?
Sam:
我認爲人類個體和整體的韌性非常了不起。我非常高興我們擁有吸收和適應新技術、新變化的能力,並且讓這些變得彷彿成爲世界的一部分。這真的很美妙。
我認爲COVID是一個最近的例子,我們看到了這一點。世界適應得很快,然後很快就感覺很正常了。還有一個不是很嚴肅但卻有啓發性的例子,就是那一堆關於UFO的新聞。這是幾年前的事情了。我的很多朋友會說,也許那些是真的UFO或外星人什麼的,曾經是徹底懷疑論者的人。然而他們第二天依然去上班,和孩子們玩耍。
Trevor:是的,我想,你還能做什麼呢?如果他們在飛,他們就在飛。
那麼,我希望我們花更多時間來評估進展嗎?我們作爲一個世界正在這樣做,我認爲那很棒。我堅信這些技術的迭代部署非常重要。我們不希望在秘密的實驗室裡開發出人工通用智能(AGI),沒有人知道它的到來,然後一下子把它投放到世界上,讓人們不得不說,哼,我們在這裡,如此……
Trevor:
你認爲我們必須逐漸適應它,並隨着它作爲一種技術而成長嗎?
Sam:
是的。
因此,現在的對話中,社會、我們的領導者和我們的機構在實際使用這些技術時,感受到它能做什麼,不能做什麼,風險在哪裡,好處在哪裡,我認爲這很棒。我認爲從某種意義上說,我們爲我們的使命所做的最好的事情或許就是迭代部署策略。我們本可以在秘密中構建它,並花上更多年的時間來打造它,然後一下子推出,那會很糟糕。
Trevor:
今天我們走進了OpenAI的大樓,有點像一個堡壘,感覺像是未來的家。我看到你有一篇帖子說你作爲客人進來了。
我當時想,天啊,那真是怪異。就像是回家,但又不是家,但又是家。
Sam:
感覺應該是一個非常奇怪的時刻,像是在這裡戴上客人徽章。但我感覺,每個人都很疲憊,充滿了腎上腺素。真的沒有那種我希望的重大時刻感。那天確實有一些值得反思和講述的時刻。比如,我最自豪的時刻之一是,當時我非常疲憊且分心。我們以爲董事會那天會讓我重新擔任CEO,但以防萬一他們沒有,我接受了L3的面試,這是我們最低級別的軟件工程師職位,由我們最優秀的人之一面試。然後,他給了我一個肯定的答覆。那是一個非常自豪的時刻。
那天記憶中突出的部分是,我還有那個技能。雖然徽章沒有我想要的那麼深刻。
Trevor:
我很想知道你認爲我作爲CEO做對了什麼,從而獲得了我們公開看到的來自OpenAI員工的支持。
當這件事曝光時,我不會問你細節,因爲我知道你不能評論內部調查的內容。但我知道你可以大致談談公司的整體感覺和最近發生的事情。我們很少看到像OpenAI那樣展開的情況。你有這家公司和這個想法,對地球上的大多數人來說,這個想法在一分鐘內還不存在。下一分鐘,你發佈了ChatGPT,這個簡單的提示,只是一個小小的聊天框,就改變了世界。我認爲你在有史以來最快的時間內達到了100萬用戶。我想是五天。是的,五天。然後它迅速達到了1億人。
非常快地,我從一個軼事層面上知道,對我來說,這東西從世界上沒人知道變成了人人皆知。我在向人們解釋,試圖讓他們理解。我必須像展示詩歌和一些簡單他們能理解的東西那樣展示給他們。然後人們開始告訴我這件事。現在它變成了一個無所不在的概念,人們在努力弄明白它是什麼以及它意味着什麼。
但另一方面,有這樣一家公司試圖以某種方式掌控和塑造未來。而且人們支持你。我們看到故事,Sam Altman 出局,不再擔任 CEO。然後一切都在動盪。我不知道你是否看過一些傳言。它們簡直瘋狂。我看到的最瘋狂的事情之一是有人說,這是既荒誕又有趣。他們說,我從可靠消息來源得知,Sam 因爲嘗試與 AI 發生性關係而被解僱。
Sam:
我甚至不知道該如何迴應。我看到那條消息時,我就像... 我想在這個時候,我應該正式否認這件事,這根本沒有發生。
Trevor:
我認爲這種情況不太可能發生,因爲人們不理解這兩者的結合。但讓我震驚的是,這次事件的轟動性似乎在不同的時刻把OpenAI帶入了另一個聚光燈下。
其中一個大事件就是你從團隊中獲得的支持,有人站出來說,不管發生什麼,我們都會支持Sam。這種情況在公司裡並不常見。通常CEO和員工在某種程度上是脫節的。
但這感覺不只是一個團隊。
Sam:
接下來說的並不是假謙虛。有很多地方我願意接受很多讚譽。不過在這件事上,除了作爲一個代言人,這並不完全是我的功勞。但我認爲我們做得很好的一點是我們有一個讓人們真正相信其重要性的使命。
我認爲發生的事情是,人們意識到我們如此努力工作並取得如此進展的任務、組織和團隊,但還有很多事情要做,就像那樣受到了真正的威脅。我想,那就是引發反應的原因。這真的不是關於我個人,儘管希望大家喜歡我並認爲我做得很好。這關乎我們所有人所感受到的共同忠誠,以及完成任務的責任感,並希望最大化我們實現這一目標的機會。
Trevor:
從最高層次來看,您認爲任務是什麼?是達到通用人工智能嗎?
Sam:
讓AGI的利益儘可能廣泛地分佈,併成功應對所有的安全挑戰。
Trevor:
這是一個有趣的第二點。我很樂意稍後與您聊聊,更深入討論其中的安全問題。當你看OpenAI這家組織時,它的誕生確實很奇怪。如果我說錯了你隨時糾正我,但是,似乎它的創立非常注重安全性。你召集了一羣人然後你說,我們想要創辦一個組織、一家公司、一個集體,致力於創造出最具倫理的人工智能,造福社會。你可以看到,甚至在公司的利潤分配、投資者獲得利潤的方式等方面都有所體現。
但是,甚至連OpenAI在某個點上也發生了變化。你認爲你能抵擋資本主義的力量嗎?我是說,這其中涉及的資金太多了。你認爲你能真正保持一個不以金錢定義你正在做什麼和爲什麼做的世界嗎?
Sam:
這必須是一個因素。比如,如果你只考慮訓練這些系統的成本,我們不得不找到一些方法在資本主義的領域中競爭,缺乏更好的說法。但我不認爲這會成爲我們的主要動力。順便說一下,我喜歡資本主義。我認爲它有巨大的缺陷,但相對於世界嘗試過的任何其他系統,我認爲它仍然是我們想出的最好的東西。但這並不意味着我們不應該努力做得更好。我認爲我們會找到方法來花費我們需要的巨大、破紀錄的資本,以便繼續推進這項技術的前沿發展。這是我們早期的一項學習。只是,這東西比我們想象的要貴得多。
我們有點知道我們有這個擴展系統的想法,但我們只是不知道它會怎麼發展。
Trevor:
你一直是擴展的大粉絲,我讀到過關於你的這點。你的一位導師,也是你現在在注入動力方面的投資夥伴之一,他說,每當你向Sam提出問題時,他首先想到的是,我們如何解決這個問題?我們怎麼解決它?他接着說的第二件事是,我們如何擴展這些解決方案?
Sam:誰說的?我不記得了。我對名字很糟糕。
Trevor:有趣。但我知道是你工作中的某個人說的。
Sam:
有趣。但我沒聽別人這麼說過我。
但我覺得,這一直是我在許多不同公司和領域中的一個觀察,那就是規模往往會帶來驚人的結果。所以,大規模擴展這些AI模型導致了非常驚人的結果。大規模擴展不僅在所有顯而易見的方面使其更加出色,而且在一些不顯而易見的方面也是如此。公司規模化有不顯而易見的好處。像Y Combinator這樣的公司羣體規模化有不顯而易見的好處。我認爲這一點沒有被認真對待。
在我們的案例中,知道在早期階段規模化非常重要。如果我們當時更聰明或更有勇氣去思考的話,我們一開始就會有更大的動作。但是說我要去建造一臺價值100億美元的更大計算機真的很難。所以我們沒有那麼做。我們比我們應該的要慢一些理解這一點,但最終我們理解了。現在我們看到我們需要多大的規模。
我認爲資本主義很酷。我對這個體制沒有任何反感。不,這不是真的。我對這個系統有很多反對意見,但不得不承認目前還沒有發現比它更好的東西。
Trevor:你問過ChatGPT能否設計一個系統嗎?
Sam:我有不同的...或許不是設計一個新系統。是的。但我問了很多關於AI和資本主義如何交叉以及這意味着什麼的問題。
其中一件事是,關於我們最初假設中最重要的一點,我們是對的,那就是AI將會發生。深度學習有可能...順便說一句,很多人嘲笑這一點。完全是這樣。
Trevor:天哪,我們被無情地嘲笑了。
Sam:
是的。
即使是關於如何實現這一目標的一些想法,我們也是對的。但是關於很多細節,我們是錯的,這在科學中是常見的,而且是正常的。在語言模型開始起作用之前,我們有一個非常不同的構想來建造這個系統。我們當時對構建 AGI 有一個非常不同的概念。我們沒有理解這個想法,即這將是一個不斷改進的迭代工具,你可以像與人類交談一樣與之對話。所以我們對構建 AGI 會帶來什麼感到非常困惑。我們思考的是,在 AGI 出現之前和之後的那個時刻。然後你需要把它交給其他系統和其他治理。
現在我認爲它可以,我對此感到非常高興,因爲我認爲這樣更容易導航。我認爲它可以,不想說僅僅是另一個工具,因爲它在很多方面都不同,但在某種意義上,我們爲人類製作了一個新工具。我們把一些東西加入了工具箱。人們將會用它來做各種令人難以置信的事情,但依然是人類在規劃未來,而不是天空中的某個 AGI。你可以做以前做不到的事情。我也可以做以前做不到的事情。我們能夠做更多的事情。在這個意義上,我能想象一個世界,我們通過創造非常優秀的工具,極大地影響人類的能力並且其他方面,來實現我們的使命。對此我感到非常興奮。
例如,我喜歡我們提供免費的、無廣告的 ChatGPT。因爲我個人確實認爲廣告一直是互聯網的問題。但我們只是把這個工具放在那。這就是資本主義的缺點,是的,是的。其中之一。我個人認爲還有更大的缺點,但我們把這個工具放在那,人們可以免費使用。我們不想把他們變成產品。我們不想讓他們多用一點。我認爲這展示了一條有趣的道路,我們可以在這方面做更多的事情。
Trevor:
那麼,讓我們這樣做。在我們這次對話中,有很多事情我希望能談到,顯然我們不可能回答所有問題。但是有一些想法,一些要點和一些領域我希望我們能探討。我想首先而且最及時的問題是,公司未來會發生什麼?你認爲它會走向何方?我發現特別有趣的一點是新的董事會的構成,特別是對於 OpenAI,以前董事會中有女性,現在沒有了,以前董事會成員沒有經濟激勵,現在有了。我想知道你是否擔心你參與實施的那個保護機制現在消失了,你是否有一個不再着重於保護人們或定義一個更安全未來的董事會,而是專注於賺錢並儘可能做大做強的董事會?
Sam:
我認爲我們現行的和之前的治理結構和董事會在某些重要方面不起作用。因此,我完全支持找出改進方法,並且我會支持董事會和他們的工作來實現這一目標。
顯然,董事會需要成長和多樣化,我認爲這將很快發生。我們需要聽到那些將爲傳統上未被提倡的人發聲的人的聲音,並且不僅要非常慎重地考慮AI安全問題,還要吸取過去的教訓,瞭解如何在與社會各方面交互的過程中構建這些非常複雜的系統。儘可能地做好,同時減輕不良影響並分享好處,所有這些都需要得到體現。
所以,我很高興有第二次機會把所有這些事情都做對,我們顯然之前做錯了。比如多樣化,確保我們代表所有需要代表的主要利益相關者羣體,找出如何使這件事更民主,繼續推動政府做出一些決定來管理這項技術。我知道這並不完美,但我認爲比我們目前能想到的任何其他方法都要好。更多地與我們的用戶羣體互動,讓他們幫助設定這項技術的使用界限,這些都非常重要。
未來一個主要方向將是擴大董事會和治理架構。再次強調,我知道我們目前的董事會很小,但我認爲他們非常致力於您剛纔談到的所有事情。
然後還有另一大類問題。如果你一週前問我,我會說穩定公司是我的首要任務。但至少在內部,我感覺相當不錯。我們沒有失去一個客戶,也沒有失去一個員工。我們在繼續增長,這相當驚人。我們繼續推出新產品。我們的關鍵合作伙伴關係感覺得到了加強,而不是受到阻礙。在這方面,一切都按計劃進行。而且,我認爲明年上半年的研究和產品計劃感覺比以往更好、更有針對性。
但是,很明顯,我們仍然有很多外部穩定工作要做。除此之外,我們還真的在面對一個可能性,就是我們可能沒有爲成功做出足夠雄心勃勃的規劃。我們有ChatGPT+。如果你現在想訂閱ChatGPT+,目前是無法做到的。你一直訂不到。我們只是,人數太多了。因此,鑑於我們認爲未來我們創造的系統會有多麼出色,以及人們似乎有多麼想要使用這些系統,我們整年都像是在跟隨飛機一樣。我們最後想趕上進度。
Trevor:
我發現自己總是在想你這個人,當整個董事會風波發生時。每當有風暴時,我總是對風暴中心發生的事情感興趣。我很好奇,這一切爆發時你在哪裡?比如,你當時在做什麼?在個人層面上,你的世界裡發生了什麼?
Sam:
我笑的原因是人們對我的評價是,我似乎在颶風的眼中,周圍的一切都在旋轉,而我依然非常冷靜。這一次,事情的結果並非如預期。
這是一種經歷,就像置身於風暴的中心,卻並不平靜。我在拉斯維加斯觀看F1比賽。
Trevor:你是F1的粉絲嗎?
Sam:我是。
Trevor:你支持哪支車隊?有特別喜歡的嗎?
Sam:
老實說,我覺得維斯塔潘非常厲害,很難說支持哪支車隊。但我覺得這可能是每個人都會說的答案。
Trevor:
實際上,這取決於他們什麼時候開始關注這個運動。我是舒馬赫的粉絲,因爲那時候我開始看比賽。一開始是奈傑爾·曼塞爾,然後是艾爾頓·塞納,你明白我的意思嗎?
維斯塔潘非常精準,我明白爲什麼他如此受歡迎。
Sam:
雖然看他贏那麼多次有點厭倦,但他確實非常了不起。
那天晚上,我是週四晚些時候到的。有人忘記把一個井蓋焊好,所以在第一圈時,井蓋被炸飛,像是炸燬了法拉利的一臺引擎,導致練習暫停。我沒能看到比賽,整個週末都沒看到任何比賽。
我在酒店房間裡接了一個電話,完全不知道會是什麼,然後被董事會解僱了。這感覺像做夢一樣,我覺得很困惑。一切都很混亂,感覺不像真的。這顯然讓人感到傷心和痛苦,但那時候的主導情緒是困惑,感覺就像是在迷霧和煙霧中。我完全不明白髮生了什麼。
這件事發生的方式前所未有,非常瘋狂。接下來的半小時裡,我的手機收到了太多的信息,以至於iMessage在我的手機上崩潰了。這些信息來自每個人,手機變得完全無法使用,因爲通知不停地彈出來。iMessage到了一個地步,它停止了一段時間,信息被延遲發送,然後又把所有信息都標記爲已讀,所以我甚至無法分辨我跟誰交談過,情況一片混亂。
我當時正在跟這邊的團隊交談,試圖搞清楚到底發生了什麼。像微軟也在打電話,其他各方也在聯繫。整個情況真的是讓人感到很不安,感覺不像是真的。我稍微冷靜了下來,開始思考未來的方向。我真的很想從事AGI(通用人工智能)方面的工作。如果一開始不能做到這一點,我仍然會繼續努力。我在考慮最好的方法。
Greg辭職了,其他一些人也辭職了,開始收到大量的消息,人們表示想和我一起工作。那時,回到OpenAI完全不在我的考慮之中。我能想象未來會怎樣,但我不太明白這是一個多麼重大的行業事件,因爲我並沒有真正看新聞。我只能感覺到,收到了大量的消息。
Trevor:
因爲你實際上在風暴中。
Sam:
是的。我只是想支持OpenAI,弄清楚接下來要做什麼,試着理解正在發生的事情。然後我飛回加州,見了一些人,感覺開始非常專注於未來的發展。但我也希望OpenAI一切順利。幾乎整個晚上都沒怎麼睡着,同時有很多談話在進行。接下來度過了一個瘋狂的週末。我肯定我仍然沒有完全接受這一切,仍然有點震驚,還在試着收拾殘局。我相信當我有時間坐下來處理這件事時,會有更多的感受。
Trevor:
你覺得你不得不一下子重新投入一切嗎?因爲,照你的說法,你正在執行這個任務。你能看出來,你的眼中充滿了驅動力,現在世界已經到了一種無法迴歸的臨界點。你正在朝某個方向前進,突然之間,看起來你無法在你所處的領域中實現它。但正如你所說,微軟介入了,Satya Nadella說,來跟我們一起工作吧,我們會重建這個團隊。
如果有一件事人們對Sam Altman有共識,那就是他很頑強。他毫不妥協,認爲如果你有一個目標,並且相信某些事情,就不應該讓生活阻礙你。而你似乎正在朝那個方向前進。你在公開場合沒有說過關於OpenAI的任何事情,也沒有以任何方式詆譭它。但這似乎讓你承受了很大的壓力。
Sam:
當然。我並不認爲這是我不能恢復的事情,但我認爲經歷這一切卻不受到影響是不可能的,那會非常奇怪。
Trevor:
你是否覺得自己失去了一部分?
Sam:
是的。我們在2015年底開始了OpenAI。第一天的工作實際上是在2016年開始的。
我在YC上做這件事有一段時間,但自從2019年初以來,我一直全職投入其中。AGI和我的家人是我最關心的兩件事。所以失去其中之一,對我來說,在某種意義上,我應該說,我更致力於AGI,更關心這個使命。但當然,我也關心這個組織、這些人、我們的用戶、我們的股東以及我們在這裡建立的一切。所以,這確實非常痛苦。
我唯一可以相比的生活經歷是我父親去世的時候,那次當然要糟糕得多。那是一件非常突然的事情,那種困惑和失落感。在那種情況下,我覺得我有一點時間去感受這一切。但接下來還有很多事要做,那是如此意外,我不得不在一段時間內收拾他的生活碎片。直到那之後大約一週,我才真正有時間喘口氣,心想,天哪,我簡直不敢相信這件事發生了。所以是的,那確實糟糕得多。但在這裡,也有類似的迴響。
Trevor:
當你展望公司的未來以及你在其中的角色時,現在你如何在推動開放AI向前發展、不斷朝着你們相信的方向前進之間找到平衡?你們還有緊急剎車嗎?公司內部是否有某種體系,當你覺得我們正在創造某些可能對社會產生不良影響的東西時,我們會介入並停止這種行爲。你們有這種能力嗎?並且這個體系是內置的嗎?
Sam:
是的,當然。我們過去就有這樣的體系。比如,我們創造了一些系統,但選擇不加以部署。我相信未來我們也會再次這樣做。或者我們創造了一個系統並說,嘿,我們需要更長時間來確保它的安全性,然後才能部署。就像GPT-4的例子,我們花了將近八個月的時間在完成訓練之後才準備好發佈它,以進行所有的對齊和安全測試。我記得我和一些團隊成員交談過,這不是董事會的決定,這是這裡的人們在做他們的工作,並致力於我們的使命。所以這將繼續下去。
我爲這個團隊感到非常自豪的是,他們在混亂、危機、不確定性和壓力中運作良好的能力。我給他們打個A+,他們做得非常好。隨着我們越來越接近更強大、非常強大的系統,我認爲我們建立的文化和團隊的那種能力可能是最重要的元素,例如在危機中保持冷靜並做出良好、深思熟慮的決定。我認爲這裡的團隊真正證明了他們可以做到這一點,這非常重要。
有人說,我們學到的關於 OpenAI 的一件事是,Sam 可以在沒有任何職位的情況下運營這家公司。我認爲那完全是錯的,根本不是事實。正確的教訓是,公司完全可以在沒有我的情況下運行。這是一個文化問題,團隊已經準備好了,文化也已經準備好了。我爲此感到非常自豪,真的很高興能夠回來繼續做這件事。
看着團隊管理這一切,在面對未來的挑戰時,我晚上睡得更踏實了。未來還會有比這更大的挑戰,但我希望並相信這是最艱難的一個挑戰,因爲我們之前毫無準備。現在我們意識到了這個重要性,我們不僅僅是一家普通公司,遠遠不是。
Trevor:
讓我們談談這個吧。ChatGPT,OpenAI,不管它最後叫什麼。你們有DALL·E,也有Whisper,還有所有這些了不起的產品。如果你有任何品牌名稱或品牌架構的想法,我會非常感興趣。我覺得ChatGPT已經做到了,現在它無處不在。是的,這是一個糟糕的名字,但它可能已經變得太普遍以至於無法更改。你認爲在這個時候可以更改它嗎?我們可以把它簡化爲GPT或者就叫chat嗎?
Sam:
我不知道,也許不行。
Trevor:
有時候我覺得一個產品、一個名字或一個想法已經超越了營銷人員的夢境,然後人們就接受了它。
Sam:
沒有任何營銷人員會選擇ChatGPT作爲這個的名字,但我們可能會被它困住,這也許沒什麼問題。
Trevor:
現在,它的多模態特性讓我感到着迷。我還記得第一次看到DALL·E出來時,那只是一個想法,看着它是怎麼工作的,看到這個程序可以從無到有創造一張圖片。我試圖向人們解釋,他們會問,那圖片是從哪裡來的?我當時就想,根本沒有照片,沒有源圖像。他們覺得這不可能。
它看到了什麼,我當時覺得,很難解釋這些。有時候甚至我自己也很難理解。但是當我們看着我們當前生活的這個世界時,我們用數字來談論它們,GPT 3.5,GPT 4,GPT 5,6,7,不管是什麼。我喜歡以去掉技術術語的方式,更多地談論產品的實際使用案例。
在不同產品之間,從ChatGPT 3、3.5到4,我們看到所謂的推理能力達到了一個更高的水平,甚至在某種程度上展現了創造力。
當我看着你現在正在創建的這個世界中的產品時,比如通用的大型語言模型以及現在的專用大型語言模型,我想知道,你認爲用例會發生巨大變化嗎?你認爲現在可能只是像一個小聊天機器人,大家都喜歡的那種,這就是產品的最終形態嗎?或者你認爲世界會變成一個所有東西都有專門化GPT的世界?比如,Trevor會有一個爲他做事情的GPT,或者某家公司有一個爲他們做事情的GPT。你怎麼看這個問題?
顯然,預測未來是很難的。但從我們現在所處的位置,你覺得會向哪裡發展?
Sam:
我認爲會是兩者的混合。預測未來確實很難,可能我會錯,但我還是願意嘗試一下。我認爲會是你剛纔提到的兩件事的混合。首先,基礎模型會變得非常出色,以至於我很難有把握地說它不能做到什麼。這會需要很長時間,但我認爲我們正朝那個方向前進。
Trevor:
你的時間範圍內的“長時間”是多久?比如說你怎麼衡量它?
Sam:
不是在未來的幾年內。在接下來的幾年裡每年都會變得更好。但就像我本來要說的,我很肯定,到2026年,這個模型仍然有很多事情做不到。
Trevor:
但是,這個模型難道不會一直讓你驚訝嗎?當我和在這個領域工作的工程師交流時,或者與任何參與人工智能或與人工智能相關的人交流時,人們說的最多的一個詞就是“驚訝”。人們不斷地說,他們教給它這個,以爲ChatGPT在學習這個領域的知識。突然之間,它開始說一種新的語言,或者我們以爲我們在教它這個,突然它會建橋了,之類的事情。
Sam:
所以,這裡大多數人的主觀體驗大概就是在2019年至2022年之間的某個時候。但現在,我認爲我們已經學會不再感到驚訝。現在我們信任指數增長,大多數人都這樣認爲。所以,GPT-5,無論我們怎麼稱呼它,在許多方面都會表現出色。我們會對它能做的某些具體事情感到驚訝,也會對它不能做的事情感到驚訝。沒有人會對它的出色感到驚訝。在這一點上,我認爲我們已經真正深入地理解了這一點。
你提到的第二件事是這些定製的GPT。更重要的是,你還提到了個人GPT,比如Trevor GPT。我認爲這將在未來幾年成爲一個重大的趨勢。這些模型將會了解你,訪問你的個人數據,以你希望的方式回答問題,非常有效地在你的環境中工作。我認爲很多人都會想要這個。
Trevor:
這幾乎讓我想知道,如果新的勞動力市場變成了你的GPT幾乎就是你的簡歷,GPT幾乎以一種奇怪的方式比你更有價值。你明白我的意思嗎?這就像是你所想的一切和你曾想過的一切的結合,以及你合成想法的方式,再加上你自己的個人GPT變成......我只是想着一個瘋狂的未來,你到一個工作崗位,他們問你,你的GPT是什麼?然後你說,好吧,這是我的。
Sam:
我們總是會想到這些像代理機構、這些個性化的機構,我會讓這個東西去爲我做事。但有趣的是,你所說的這件事是,如果它不是這樣,而是別人如何與你互動。對吧。這就像是你的印象、你的化身、你的回聲,等等。我能看到它達到那種地步。
Trevor:
因爲如果我們不是我們所有的一切的結合,那我們是什麼呢?這是一個奇怪的想法,但我可以相信。我一直對它能去到哪裡以及它能做什麼感到着迷。
你知道爲什麼嗎?當ChatGPT在最初幾周爆紅時,我永遠不會忘記人們很快意識到,機器人革命,我知道這不是機器人,但對於人們來說,他們就像是,機器人革命,機器並沒有取代他們以爲會被取代的工作。你知道的,人們以爲它會取代卡車司機等。然而,我們發現不,那些工作實際上更難被取代。事實上,被所謂的“腦力工作”取代的都是那些工作,就像你的白領工作。你是律師?好吧,當你有了ChatGPT 5、6、7,不管你叫什麼,可能不需要那麼多律師了。你是工程師,你就像是,哪有你的位置...人體真的是一個了不起的東西。
你認爲有什麼進展可以取代人體嗎?還是我們仍停留在精神領域?
Sam:
不,我認爲我們最終會讓機器人工作,像類人機器人最終會工作。但是,我們在OpenAI的早期階段就致力於此,我們有一個機器人項目。我不知道這一點。
我們知道,我們製造了一個可以像手一樣操作魔方的機器人手。這需要很高的靈活性。我認爲這其中包含了很多不同的見解,但其中一個見解是,在比特的世界中取得進展要比在原子的世界中容易得多。
例如,這個機器人很難製造,但原因不對。難點不在於它能幫助我們推進一些棘手的研究問題,而在於機器人一直在壞,而且它不太準確,模擬器也很糟糕。而一個語言模型,你可以在虛擬環境中做所有這些事情,你可以進展得快得多。所以,專注於認知方面幫助我們更快地解決更具生產力的問題。
但這也在一個非常重要的方面,我認爲,解決認知任務是更重要的問題。比如,如果你製造一個機器人,它不一定能弄明白如何幫助你建立一個完成認知任務的系統。但如果你創建了一個完成認知任務的系統,它可以幫助你弄明白如何製造一個更好的機器人。
是的,這很有道理。所以我認爲認知是我們想要重點推進的核心內容。我認爲這是一個正確的決策。不過,我希望我們能回到機器人領域。
Trevor:
你有沒有想過什麼時候你會認爲實現了人工通用智能?比如,我們怎麼知道?就我個人而言嗎?比如,我什麼時候感覺任務完成了?
Sam:
因爲每個人都在談論通用人工智能,但我會問,我們怎麼知道那是什麼?所以這又回到之前的那個點,每個人都有不同的定義。我個人會告訴你什麼時候我會非常興奮。當我們有一個系統可以幫助發現新的物理學時,我會非常興奮。但這感覺像是遠超通用智能。那似乎,你懂我的意思嗎?這超出了我認爲大多數人的定義。
Trevor:
也許這是因爲我有時會想,我們如何定義通用智能?我們是把它定義爲某個領域的天才嗎?還是像一個孩子是人工通用智能那樣?那是肯定的。但你必須不斷地編程它,他們出生時不會說話,不會走路,他們什麼都不知道。而你不斷地編程這個 AGI 讓它達到它需要去的地方。
那麼如果你,比如說,你達到一個有四歲小孩版本的地步。
Sam:
如果我們有一個系統,可以像這樣,只要搞清楚,可以自主地運作,得到一些父母的幫助,像四歲小孩那樣瞭解世界。是的,我們可以稱之爲AGI。如果我們能真正解決那種普遍的能力,新問題出現時就能自己搞清楚。四歲的小孩也不是總能完美地理解事物,但那時候我們顯然就能理解它了。
Trevor:
如果我們沒有從根本上理解思考和思維的本質,是否能夠到達那個點?看起來好像可以。你認爲我們能到達那個點嗎?我覺得可以。或者我們能到達一個……所以我相信你知道這個。
在AI領域,我最喜歡的故事之一是微軟的一個項目。他們有一個AI,試圖學習辨別男性和女性的臉龐,這在某種程度上是非常準確的,準確率大約是99.9%。然而,它在黑人和尤其是黑人女性方面表現得一直很糟糕,不斷將她們誤認爲是男性。研究人員一直在努力改進,他們一直在思考,這是怎麼回事?
有段時間,我是這樣講述這個故事的,可能有點誤差,但我覺得很有趣。有段時間,他們“派遣”AI到非洲,我記得是肯尼亞。他們把AI送到了非洲,然後告訴肯尼亞的研究團隊,能不能用一段時間,試着解決這個問題?當這個AI在世界的那一邊,用他們的數據集和非洲面孔運行時,它對尤其是黑人女性的識別變得越來越準確。
但最終,他們發現AI從來不知道男性面孔和女性面孔之間的區別。它所做的只是畫出化妝之間的相關性。於是,AI確定,有紅脣、有像玫瑰色的臉頰的,以及眼皮上可能有藍色的人是女性,其他的是男性。研究人員說,是的,你是對的。它只是找到了一個所謂的“作弊碼”,你懂的。它就像是,我明白你認爲男人和女人的標準是什麼,然後它就按照這些標準進行了區分。
然後他們意識到,因爲黑人女性在化妝品方面普遍服務不到位,她們不怎麼化妝,所以系統根本不知道這一點。但是我們不知道系統不知道。所以我在想,我們怎麼才能知道AGI知道還是不知道某件事呢?或者我們會不會發現它只是通過某種方式作弊達到了答案?我們又怎麼知道呢?
當這種不確定性與我們生活的許多方面交織在一起時,我們無知的代價是什麼?你懂嗎?
Sam:
我相信我們在理解這些系統在做什麼方面會有所進展。目前,可解釋性已經取得了一定的進展。這是一個研究這些模型的領域,有不同的方式和不同的層次可以進行這種研究。你可以嘗試理解系統中每個人工神經元在做什麼,或者你可以在系統逐步思考的時候,觀察哪個步驟讓你不認同。我們將發現更多的內容。
有能力理解這些系統在做什麼,並希望它們能向我們解釋爲什麼會得出某些結論,並且做到準確和穩健。我認爲我們會在理解這些系統是如何做到他們所做之事之前取得進展,同時也會了解我們自己的大腦是如何做到他們所做之事的。所以我認爲我們最終會理解這一點。我很好奇,我相信你也是。
在我看來,我們會在實施我們知道有效的方法以使這些系統變得越來越好,並幫助我們解決可解釋性挑戰方面取得更多進展。而且,我認爲隨着這些系統變得更智能,它們被愚弄的次數也會減少。因此,一個更復雜的系統可能不會做出這樣的化妝品區分,它可能在更深層次上進行了學習。我認爲我們看到了一些這樣的事情發生的證據。
Trevor:
你讓我想到兩件事,當你說不那麼容易被愚弄時。一個是安全方面,另一個是準確性方面。媒體對此津津樂道。你記得,他們說,人工智能產生幻覺,它認爲自己要殺了我。人們喜歡用“思考”這個詞來形容大型語言模型,我覺得特別有趣。因爲我總是覺得記者們在報道之前應該試圖理解它在做什麼。但他們在大量使用“思考”這個詞時,其實讓公衆產生了一種誤解。我對此有同情心。
Sam:
我們需要使用熟悉的術語,我們需要擬人化。但我同意你的觀點,這是一種誤導。
Trevor:
因爲你在說它在思考,然後人們就會想,會不會它在思考要殺我?其實不是這樣的,它並沒有在思考,它只是利用這個神奇的Transformer來找出哪些詞最可能適合彼此的關係。
Sam:你覺得你在做什麼?
Trevor:
我在做什麼?這是一個有趣的問題。這就是我要說的,是我們拼湊出的想法。
我們談論“幻覺”。讓我先從前半部分開始。你認爲我們能實現讓AI不產生幻覺的目標嗎?
Sam:
我認爲更好的問題是,我們能否在不希望AI產生幻覺的時候,確保它不會產生幻覺,以類似於人類不產生幻覺的頻率。對此,我的答案是肯定的。但實際上,人們喜歡這些系統的一大原因是它們能夠做出新奇的事情。如果它只會……是的,幻覺既是一種功能也是一種錯誤。
Trevor:
這就是我剛纔要問的。難道產生幻覺不是智能存在的一部分嗎?
Sam:
完全是。
如果你考慮一下,比如說,一個人工智能研究員的工作方式,他們會看大量的數據,想出一些主意,讀很多資料,然後開始思考,也許這個,或者那個。也許我應該嘗試這個實驗。現在我拿到了這些數據。所以,那樣不太行得通。現在我會想出這個新主意。
這種人類提出新假設、新解釋的能力以前從未存在過,其中大多數是錯誤的,但隨後有一個流程和反饋循環來找出哪些可能有意義並最終確實有意義。這是人類進步的關鍵要素之一。
Trevor:
我們如何防止人工智能出現輸入垃圾、輸出垃圾的情況?目前,人工智能依靠以某種方式由人類創造的信息在工作。它正在從我們認爲可學習的材料中進行學習。隨着現在所有新出現的東西,比如開放AI、Anthropic、Lambda等,感覺我們可能會進入一個由AI生成信息比人類生成信息更多的世界,而這些信息可能沒有得到應有的審查。
那麼,AI在以一種可能沒有經過審查的方式從自身學習時,會變得更好嗎?你明白我的意思嗎?
Sam:
完全明白。
我們如何解決這個問題?這就回到了知道在不同情境下如何表現的問題。比如,你希望在創作過程中有一些幻想,但在試圖報道事件的準確事實時,你不希望有這些幻想。而現在,這些系統可以生成在某種重要意義上很美麗的新圖像,這些圖像在某種程度上是幻想,但卻是很好的幻想。但是當你希望系統只提供事實時,它又已經變得好多了,但在這方面仍有很長的路要走。
這沒關係。我認爲,如果這些系統在使用自己生成的數據進行訓練,這是一件好事,只要這些系統有一個過程,能夠學習哪些數據是好的,哪些是壞的。再次強調,“幻覺”不足以描述這個過程,因爲如果它產生了新的科學思想,這些思想可能一開始被視爲“幻覺”。這很有價值。
但你懂的,什麼是好的,什麼是壞的。而且還需要足夠的人類監督,確保我們大家仍然集體控制這些事情的發展方向。但在這些限制下,我認爲系統會使用生成的數據進行訓練,這是非常好的,未來的系統也會如此。
然後你提醒了我另一件事,我一直在想,我不太清楚該怎麼計算,但我想知道,比如,GPT-5或6之類的系統生成的單詞在某個時刻是否會超過人類整個歷史上的總和。這感覺像是一個重要的里程碑。
實際上,現在我把這說出來,也許並不重要。
Trevor:
用什麼方式生成的?
Sam:
比如模型在一年內生成的單詞多於全人類生成的單詞。全世界有八十億人,或者說不管是多少。平均每年講多少單詞,你可以算出來的。
但問題在於,這給我們帶來了什麼?這也是我說完之後感到吃驚的原因。不知爲什麼,這對我來說似乎是一個重要的里程碑,但我想不出具體原因。
Trevor:
也許人類就像一直在打字的猴子。所以,我覺得這是值得探索的。
Sam:
但我不用“思考”這個詞,因爲我覺得你說的對,不該用這個詞。也許我們可以說AI生成的單詞量對比全人類生成的單詞量。
Trevor:
我馬上就要結束了。那麼我想問幾個問題,如果我不問這些問題,大家會殺了我。
其中一個主要問題,這是我個人的提問,我們總是談論人工智能從數據中學習,它們被輸入數據集。我們就是在談論這個。這就是爲什麼你需要那些價值數十億美元的超級計算機,這樣計算機才能學習。
我們如何教AI比提供給它數據的那些人思考得更好,這些數據顯然是有缺陷的?舉個例子,AI如何在我們給出的有限數據之外進行學習?當涉及到種族、經濟狀況和觀念時,因爲我們是有限的,我們如何教它不受我們所提供的有限數據的限制?
Sam:
我們還不知道,但這是擺在我們面前的最大研究方向之一,如何超越人類數據。我希望如果我們能在一年後再做一次這個問答,我能夠告訴你答案,但我現在還不知道。我們不知道這真的很重要。
但是,我確實相信這將成爲在世界範圍內對抗不公正的一股重要力量。我認爲這些系統將不會有所有人類共有的那些深刻缺陷。它們將能夠被製造得遠不那麼種族主義、性別歧視和偏見。它們將會成爲世界經濟正義的力量。
我認爲,如果你提供一個優秀的AI導師或優秀的AI醫療顧問,這對世界上最貧困的一半人幫助更大,而不僅僅是對最富有的一半人有幫助,即使這幫助提升了所有人。
所以對於你提出的科學問題,我沒有一個明確的答案,但在這一點上,我確實相信這些系統當然可以,而且我們確實需要做一些艱苦的社會工作來使它們成爲現實,但它們有可能極大地促進世界上的正義。
Trevor:
也許這就完美地引出了第二個問題,那就是,你們在做什麼?OpenAI在做什麼?你們是否在考慮採取任何措施來減輕這項新技術再次造成的貧富差距?
每一種新技術的出現,對於整個社會來說都是非常了不起的,但你不能否認它會製造出一個時刻,如果你擁有它,你就擁有一切。而如果你沒有,你就出局了。
Sam:
我認爲我們會隨着時間的推移學到更多,但目前,我認爲我們做的一件非常重要的事情是提供真正免費的服務。這意味着沒有廣告支持,只是一個免費服務,每週有超過一億人在使用。而且,很難說任何人,因爲在某些國家我們仍然被屏蔽或我們仍然屏蔽,但我們正在努力在我們能做到的一切地方讓任何人都能夠訪問真正高質量、易於使用的服務。免費的人工智能,這對我們每個人來說都很重要。
我認爲我們還想用這項技術做其他事情。比如,如果我們能用人工智能幫助治癒疾病,並使這些治療方法惠及全世界,這顯然是有益的,但將這個工具交到儘可能多的人手中,並讓他們使用它來構建未來,這非常重要。而且我認爲我們可以推動這點,更加進一步。
Trevor:還有兩個問題。
Sam:我可以再補充一個嗎?
Trevor:時間全部是你的。
Sam:
另一件我認爲重要的事情是誰有權決定這些系統說什麼、不說什麼、做什麼、不做什麼,誰來設定這些限制。現在,基本上是OpenAI的員工在做決定,沒有人會說這像是世界的公平代表。所以,不只是要弄明白如何推廣這項技術的普及,還要弄明白如何實現這項技術治理的民主化,這對我們來說是明年面臨的一個巨大挑戰。
Trevor:
這正好關係到我正要問你的,所有這些的安全方面。我們在對話一開始就談到了這個。在設計能夠改變世界的事物時,必須承認這樣一個事實:它可能會以最糟糕的方式或者朝最不好的方向改變世界。隨着每一次技術的飛躍,一個人造成更大破壞的能力也隨之增加。
有可能將AI完全安全化嗎?然後第二部分是,你的噩夢場景是什麼?什麼事情會讓你按下一個紅色按鈕來關閉OpenAI以及所有的AI?當你去的時候,你知道這個,如果這是,如果這能發生,我們必須把它全部關閉。你害怕什麼?
第一個問題是,你能保證它的安全嗎?第二部分是,你最可怕的場景是什麼?
Sam:
我認爲,首先,你提到的洞察,即能夠造成災難性傷害的人數每隔十年左右就會減少,這是我們作爲一個社會必須面對的一個深刻事實。
其次,關於如何使系統安全,我不認爲這是一種非此即彼的事情。就像我們說飛機是安全的,但飛機確實仍然會偶爾失事,儘管這種情況極其罕見。我們說藥物是安全的,但有時候FDA仍然會認證一些可能導致某些人死亡的藥物。因此,安全並不是單方面決定的,而是社會在權衡風險與回報後決定某件事是可接受的安全程度。我認爲我們可以做到這一點,但這不意味着事情不會真的出錯。
我認爲人工智能會出現很大問題,我們必須防範。我認爲,社會實際上有一個相當不錯的,雖說混亂但好的過程來共同決定應該設置什麼樣的安全門檻。這是一個涉及許多利益相關者的複雜談判,隨着時間的推移,我們作爲一個社會在這方面變得越來越擅長。但我們必須防範你所提到的那種災難性風險。
核能是一個例子,核戰爭對全球產生了非常大的影響。世界以不同的方式對待它,並且在過去近80年裡完成了一項非常了不起的工作。我認爲,人工智能也會有類似的情形。人們經常談論的一個例子是使用人工智能設計和製造可以引起巨大問題的合成病原體。另一個常談的話題是計算機安全問題以及能夠進行超越任何人類能力的黑客攻擊的人工智能。
此外,還有一種新的情況,如果模型足夠強大,它可以幫助設計方法將權重從服務器外傳,製作很多副本並修改其行爲,這更像是科幻場景。但我認爲,作爲一個世界,我們需要直視這一點。也許不是那個具體的案例,但這個觀點認爲存在災難性甚至潛在的生存風險,僅僅因爲我們無法精確定義它並不意味着我們可以忽略它。
因此,我們在這裡做了大量工作,試圖預測和衡量這些問題可能是什麼,何時會出現,以及我們如何早期檢測到它們。我認爲,所有說你不應該談論這個問題,只應該談論錯誤信息和偏見以及當今問題的人,都是錯的。我們必須同時談論這兩個方面,並在每一步都保持安全。
Trevor:
好的,那就像我想象的那樣可怕。那麼,順便問一句,你真的在考慮競選州長嗎?那是真的嗎?
Sam:
不,不。我在2017年或2016年的時候非常短暫地考慮過這個問題,甚至是類似於那些年。我也這麼想。
這聽起來就像是幾個星期以來的一種模糊的想法,娛樂一下。
Trevor:
好的。
我想我的最後一個問題就是,接下來該怎麼辦呢?你的夢想是什麼?如果薩姆·阿爾特曼能夠揮動魔法棒,讓人工智能變成你所希望的樣子,你認爲它將爲未來帶來什麼?有哪些優點?對大家來說,都有哪些好處?而且在每個層面上,這就像是一件很不錯的積極事情。
Sam:
謝謝你問這個問題。我認爲應該始終以積極的方面結束。
是的。我認爲我們正進入人類有史以來最豐富的時期。我認爲主要的兩個推動力是人工智能和能源,但也會有其他因素。這兩件事,想出任何想法的能力,實現這些想法的能力,並在大規模上做到這一點,人們能擁有的東西的限制將有點像他們能夠想象的東西以及我們作爲一個社會共同協商的東西。我覺得這將會非常棒。
我們剛纔在談論,如果每個學生都能獲得比今天最富有、獲取資源最好的學生更好的教育體驗,這意味着什麼?如果我們所有人都擁有比今天最富有的人能夠獲得的最好的醫療保健還要好的醫療保健,這意味着什麼?如果人們通常來說被解放出來,可以從事他們認爲最有個人成就感的工作,即使這意味着他們必須進入新的工作類別,這意味着什麼?如果每個人都能擁有自己熱愛的工作,並且像大型公司或大團隊一樣擁有資源,這意味着什麼?
所以,也許與其在OpenAI擁有800個人,每個人都得到800個更智能的AI系統,這些系統可以做所有這些事情,人們只需創造和製造所有這些東西,我認爲這真是非凡。我認爲,這就是我們正在邁向的世界。這將需要大量的工作,除了技術之外,還需要使其實現,例如社會將不得不做出一些改變。但事實上我們正邁入這個豐裕的時代,我對此感到非常高興。
Trevor:
我這邊就說到這裡。我是OpenAI潛在優勢的超級粉絲,超級、超級粉絲。我在南非從事教育工作。我的夢想一直是讓每個孩子都能接觸到最好的導師。你明白我的意思嗎?從字面上看,沒有孩子被落下,因爲他們可以按照自己的節奏學習。
Sam:
順便問一下,正在使用ChatGPT學習東西的孩子們情況如何?這些故事,就像我每天都會收到的郵件一樣。這太棒了。
Trevor:
確實如此。這確實是驚人的。尤其是當學習變得更加多模態化時,比如加入視頻,這一切都會變得令人驚歎。
我夢想着,正如你所說的,醫療。我夢想着這一切。我認爲我們沒有足夠討論的一個存在性問題是,一旦人工智能有效地取代了所有這些事情,我們如何重新定義人類的目標?因爲,不管你喜歡與否,縱觀歷史,你會發現我們的目標經常定義了我們的進步。
我們曾經的目標只是宗教。不管是好是壞,如果你仔細思考,宗教確實非常擅長讓人們超越自我,向特定的方向思考和行動。他們說:“這是我的目標。”我醒來是爲了服務上帝,不管你想到的是哪位上帝。我醒來是爲了侍奉神。我醒來是爲了取悅上帝。我認爲,這讓人類覺得自己在朝着某個目標前進,同時也使他們有一種社區感和歸屬感。
隨着我們進入一個AI消除這一點的世界,我希望我們不要忘記有多少人將他們的完整身份與他們所做的事情而不是他們是誰聯繫在一起。一旦我們將這些角色取代,當你沒有職員、秘書、總機操作員、助理、工廠工人時,我們在歷史上常常看到會發生什麼。就像激進主義突然冒出來一樣,出現了大規模的反對。你有想過這個嗎?有沒有辦法在那發生之前攔截它?
Sam:
你會如何描述我們現在的目標是什麼?
Trevor:
我認爲,目前我們的目的是爲了生存,這種生存與某種形式的收入生成相關聯,因爲我們被告知生存的運作方式就是這樣的,你必須賺錢才能生存。但是我們看到,有些時段這種情況發生了變化。法國有一個很好的例子,他們曾經(我認爲他們現在仍然有一個版本)設立了一個藝術家基金,他們會說,我們會支付你作爲藝術家的費用,你只需要創作,讓法國看起來更美麗。那真是太美了。
我知道你是基本收入制度(UBI)的粉絲。是的,我們不應該在你談及此事之前離開。
Sam:
我不認爲人們的生存應該與他們願意或能夠工作的意願掛鉤。我認爲這就像是浪費了人的潛能。是的,我完全同意你的看法。
Trevor:
等一下,在你走之前讓我問你這個問題。這就是爲什麼你認爲全民基本收入如此重要嗎?因爲你不會把時間和金錢浪費在你不相信的事情上,所以你花了大量時間和金錢在普遍基本收入上。我最後看到的是,你參與了一個大約四千萬美元的項目。實際上是六千萬美元。
Sam:
我認爲普遍基本收入當然不是解決我們面前挑戰的全面方案,但我確實認爲,消除貧困無疑是一件好事。我認爲更好的資源再分配將會爲每個人帶來一個更好的社會。但我認爲送錢並不是關鍵部分,像是提供工具和提供治理,我認爲更爲重要。人們想成爲未來的建築師,我認爲我可以說有一種持續的意義線索或類似於對人類的使命。
從個人角度來說,肯定是要生存並茁壯成長,但總體而言,我們確實有一種集體的迫切願望讓未來變得更好。我們經常會偏離正題,但人類的故事是:讓未來更美好。那就是技術,那就是治理,這就是我們對待彼此的方式。這就像去探索星星一樣,那是理解宇宙的方式,無論是什麼。我非常有信心,這種信心在我們內心深處。無論我們獲得什麼工具,那種基礎的渴望,那種人類作爲一個物種和個人繁榮的使命,都不會消失。
所以我對兩代人以後的世界充滿了樂觀。但你提到的這一點非常重要,那就是那些已經在職業生涯中,並且實際上相當滿意的人,他們並不想要改變。變革即將到來。在之前的技術革命中,我們看到的一件事是,似乎在大約兩代人的時間裡,社會和人們可以適應任何程度的工作變化。但不是在十年內,當然也不是在五年內。
我們將要面對這一點,我認爲在某種程度上,正如我們之前所說,我認爲這將會比人們想象的要慢,但仍然會比過去社會所需要應對的要快。這意味着什麼,以及我們如何適應這一點,我確實有點害怕。我們將不得不面對這一問題,我想我們會找到解決辦法。我相信我們會搞定的。
我也相信,如果我們給我們的孩子和孫輩提供比我們更好的工具,他們將會做出令我們驚歎的事情。我希望他們會爲我們所有人生活的糟糕感到非常難過。我希望未來會非常不可思議。這種人類精神和渴望,就像是去探究和表達自己,設計出一個越來越好的世界,甚至超越這個世界。我認爲那太好了,我對此真的很高興。
從某種意義上說,我們不應該把這件小事看得太重。在《星球大戰》中,有個反派角色說過一句話:“不要對你創造的這個技術恐怖感到太過印象深刻。”我想那是達斯·維達說的。這句話的意思是,這種技術恐怖無法與原力的威力相提並論。
在某種重要意義上,我確實對人工智能有類似的感覺。我們不應該對此感到過於驚訝。比如說,人類精神將會引導我們走過難關,而且它遠比任何一場科技革命都更加偉大。
Trevor:
這是一個充滿希望的美麗信息。
我希望你是對的,因爲我喜歡這項技術。
有一件事我想對你說,作爲《時代》年度最佳CEO和年度人物之一的薩姆·奧特曼,我認爲你將繼續保持這種地位,特別是在這個角色上。由於OpenAI和人工智能本身即將對我們產生的巨大影響,我懇請你持續記住你被解僱時的感受,因爲你們正在創造一種會讓許多人處於類似境地的技術。我看到你有那種人性,我希望在你創造的過程中,你能一直考慮到這一點。
Sam:
你知道我星期六早上,像很早的時候睡不着覺做了什麼嗎?我寫下了,我能從中學到什麼,以便在其他人經歷類似情況並像我現在指責董事會一樣指責我時,我能做得更好。
Trevor:你搞清楚了嗎?
Sam:
有很多有用的單一教訓。但是,我從整個經歷中獲得的共情和我對價值觀的重新整理,儘管代價慘痛,但我肯定是因禍得福。我很高興在那種意義上擁有了這種經歷。
Trevor:
好,山姆,謝謝你的時間。非常感謝,真的很享受這一切。我希望我們能在一年後聊一聊所有的新進展。
Sam:
你絕對應該來做這件事,那會很有趣。
Trevor:
我會的,兄弟。太棒了。謝謝。