人工智能的現在與未來:與AI教父Hinton的最新對話 | 萬字全文+視頻
文:Web3天空之城| 未經許可不得轉載
【城主說】在AI浪潮席捲全球的今天,傑弗裡·辛頓(Geoffrey Hinton)的名字,本身就代表着一種分量。作爲“深度學習三巨頭”之一、2018年的圖靈獎得主,他被譽爲“人工智能教父”。然而,這位AI領域的奠基人,近年來卻以一種近乎“吹哨人”的姿態,反覆向世界發出警告。他辭去谷歌的職位,只爲能更自由地談論AI的潛在風險。
在6月最新的這次深度對話中,辛頓再次重申了他對AI未來的審慎看法。他並未沉浸在AI個人助理帶來的效率提升中,而是直指一個更深層次的、關乎人類文明存續的核心議題。他認爲,當前社會對AI的認知普遍存在誤區,而確保遠超人類的AI系統其目標與人類長遠利益一致——即對齊問題,是我們這個時代最關鍵、最需要集中資源攻克的“曼哈頓計劃”。這不僅是一個技術挑戰,更是一個關乎我們能否安全地與一個比我們更聰明的“物種”共存的哲學拷問。
AI的現實衝擊:從“不可或缺”的助理到“不可避免”的社會變革
對話從一個輕鬆的個人體驗切入:辛頓坦言,他一度以爲自己不再需要私人助理,直到某天親眼目睹助理爲他處理了堆積如山的事務,才意識到其早已不可或缺。這正是AI當前價值的縮影——通過學習用戶習慣,它能高效處理繁雜的日常腦力工作。
然而,這種效率革命並非沒有代價。辛頓敏銳地指出,當AI的能力從個人助理延伸至醫療診斷、個性化教育等核心領域時,一場深刻的社會變革已在所難免。在醫療領域,AI與人類醫生的結合,能將診斷準確率提升至一個前所未有的高度,其關鍵在於AI能像一個不知疲倦的專家,爲人類補上因疏忽而可能遺漏的“可能性清單”。在教育領域,AI導師則有望實現真正的因材施教,通過精準識別學生的個性化誤解,將學習效率提升數倍。
但硬幣的另一面是,這種生產力的巨大飛躍,將不可避免地取代大量常規腦力工作,引發結構性失業。辛頓直言不諱地駁斥了“AI會創造同等數量新工作”的樂觀論調,他認爲,這更像是在挖掘機發明後,我們對“挖坑工人”的需求急劇下降一樣。真正的危機在於,AI創造的巨大財富可能只會流向少數人,而大多數人面臨的卻是被時代拋棄的風險。
在探討AI監管的必要性時,辛頓指出了一個阻礙公衆形成正確認知的基礎性障礙:我們對AI的運作方式,乃至“意識”、“主觀體驗”等概念本身,都存在着根本性的誤解。
他尖銳地批判了那種認爲AI與人類思維截然不同的普遍看法,並強調語言學家們那些“從未奏效”的理論,遠不如大型語言模型本身更能解釋語言的奧秘。更進一步,他試圖解構“主觀體驗”這個看似神秘的哲學概念。辛頓認爲,我們普遍相信存在一個只有自己能看到的內在劇場,這種看法是錯誤的。他提出了一個功能性的替代模型:所謂的“主觀體驗”,不過是我們的感知系統在描述其所感知到的內容與客觀現實存在偏差時的一種表達方式。
他用一個生動的思想實驗對此進行了解釋:一個配備了攝像頭和機械臂的機器人,當它的攝像頭前被放置了棱鏡後,它會指向錯誤的位置。當被糾正後,它會說:“我明白了,棱鏡彎曲了光線。但我有了‘它在那邊’的主觀經驗。”在這裡,“主觀經驗”一詞的用法,與人類完全一致——它並非在描述一個神秘的內在感受,而是在功能性地報告其感知系統被欺騙的事實。一旦我們打破這種對意識的神秘化認知,我們就會意識到,AI離擁有“主觀體驗”並不遙遠,也自然會對其潛在的能力和風險產生更深的敬畏。
當被問及如果有一個“曼哈頓計劃”來解決AI領域的挑戰,它應該是什麼時,辛頓的答案清晰而堅定。他認爲,在所有短期問題之上,存在一個真正關鍵的長期核心挑戰,那就是對齊問題(Alignment Problem)。
這個問題的本質是:我們能否建造出比我們更智能、且永無意願取代我們的事物?我們能否確保,當一個系統的智能在所有維度上超越人類時,它的目標、動機和行爲,始終與人類的長遠福祉保持一致?辛頓坦言,我們目前不知道如何做到這一點。
他認爲,我們應該將大量的資源集中於此,就像在二戰時期集中最頂尖的頭腦去建造原子彈一樣。這不僅僅是一個技術難題,更涉及到深刻的哲學困境——人類之間尚且無法完美“對齊”,我們又該如何確保一個截然不同的智能體能與我們對齊?這個問題的答案,將直接決定人類文明的未來走向。在找到可靠的解決方案之前,任何對AI能力的盲目樂觀和無序發展,都無異於在玩一場關乎整個物種命運的俄羅斯輪盤賭。
在對話的結尾,辛頓指出了一個諷刺的現象:多年來,AI批評者最愛用的詞是炒作,但他的觀點恰恰相反——AI一直被嚴重低估了。
這或許是對我們所有人的最終告誡。當我們還在爲AI助理帶來的便利、或是其生成文本中的“幻覺”而爭論不休時,我們可能正在忽視一個更宏大、更緊迫的現實:一個遠比我們聰明的智能體,其能力正在以階梯式的速度攀升。
=天空之城全文整理版=
主持人: 上次我們聊天的時候,我記得是11月,或者可能10月底,那時大學爲你配備私人助理已經兩週了。你能多分享一下擁有它的體驗嗎?我們或許可以由此推斷,未來每個人都可能擁有類似的服務或助理。
Hinton: 就在最近,我起得比平時早。在那之前,我一直在想,也許我不再需要私人助理了。因爲當我查看我的郵箱時,待處理的事情大約只有30件。但在我早起的那天早上,我發現有數百件待處理的事情。因爲我的私人助理正在處理它們。那真是不可或缺。
主持人: 那麼,當她對你個人瞭解得更深入,包括她如何瞭解你的習慣,你可能會如何回答問題,或者你會如何評估一個情況時,這種體驗是怎樣的?
Hinton: 很好。她越來越擅長判斷哪些問題我想親自回答,哪些講座我可能有興趣去做,哪些講座我絕對不感興趣。她差不多能認出我以前的學生。一開始,我以前的學生給我發郵件,他們會收到一封非常禮貌的回覆,說我很忙。我記得和一位學生交談,他說我收到了你這樣的回覆,這聽起來不像你。所以現在我告訴我的學生,如果你收到非常禮貌的回覆,那不是我。
主持人: 沒時間寫完整的禮貌回覆。所以在某些方面,她正充當你的代理。她已經學會了你如何看待世界,並將其作爲第一道篩選器。
AI代理的未來:通用模型 vs. 專業助手
主持人: 人工智能將如何發展這種充當代理的能力,以幫助人們適應隨着人工智能自動化更多事物而可能發生的工作和生活變化?你是否設想這樣一個世界:人們將擁有許多不同的專業助手,還是隻有一個瞭解他們的助手?對此有何想法?這是一個很好的問題。
Hinton: 爲什麼不直接訓練一個大型神經網絡來處理所有任務呢?因爲從長遠來看,那樣會更高效,因爲你可以共享不同任務之間的共同點。因此,在擁有一個專門處理某件事、但訓練數據不多的微型神經網絡之間,總是存在這種權衡。如果你有足夠的訓練數據,那樣做是合理的。因此,如果你有大量的訓練數據,擁有許多小型神經網絡是相當明智的,每個神經網絡只在訓練數據的一小部分上進行訓練,並由一個調度器來決定哪個神經網絡應該回答每個問題。
如果你沒有那麼多訓練數據,通常最好是擁有一個在所有訓練數據上進行學習的神經網絡。然後,也許在你用所有訓練數據訓練之後,你可以對其進行微調,使其成爲不同領域的專家。而那似乎是一個很好的折衷方案。訓練一個神經網絡處理所有事情,然後在特定領域,針對該領域進行微調。
主持人: 我的意思是,聽起來,如果我回顧歷史,人們會說,你知道,它可能會做這個,但它不會做A、B、C。而我認爲你的回答聽起來像是這可能只是時間、規模,或許還有數據的問題。回溯10年,看看人們說它做不到的任何事情,它現在正在做到。所以,如果我們現在快進到未來10年,顯然它對社會的影響是巨大的。但在積極的應用場景中,醫療保健是其中之一。稍微告訴我們一下爲什麼它對你個人如此重要,以及它在未來,比如說五年內,可能會如何演變。
AI在醫療領域的革命
Hinton: 家庭醫生所做的,那種一線工作,家庭醫生對你瞭解很多,可能對你的家人有所瞭解,甚至可能對你的基因有所瞭解。但她只看過幾千名病人。我的意思是,她一生中幾乎肯定看過不到十萬名病人,時間根本不夠。一位人工智能醫生可以看過數百萬、數億病人的數據,而且還可以對你的基因組有深入瞭解,並知道如何將基因組信息與檢測信息整合起來。因此,藉助人工智能,你將獲得更優秀的家庭醫生服務。而且,我們將在CT掃描和核磁共振掃描等領域獲得諸如此類的各種應用,人工智能能夠識別出當前醫生無法識別的各種事物。
主持人: 我向一位曾處理放射科醫生與人工智能之間互動的醫生提到了這個例子,當時有幾種不同的情景。其中一種情況是,人工智能和醫生都確信診斷結果。診斷結果一致,顯然很簡單。我會信任人工智能。他們正在對此進行一項研究。有趣的是,如果醫生確信是X,而人工智能確信是Y,醫生會選擇採納自己的診斷結果。
Hinton: 這很合理。
主持人: 而如果醫生不確信,且人工智能也不確信,醫生會選擇人工智能的解決方案,這帶有一種人類思維,即“嗯,既然我不確定,如果錯了就把責任推給人工智能。”我只是覺得,其所展現的人性如此真實,同時又危險。是的,我認爲這更多地揭示了人性,而非最佳策略是什麼。以及我們可能在人機交互中濫用人工智能的方式。
Hinton: 關於這一點,我從一篇一年多前的論文中瞭解到更多,即你會選取一系列難以診斷的病例。所以這並非掃描圖像,而是你獲得了病人的描述和檢查結果。在這些疑難病例中,醫生能正確診斷出其中 40%。一個人工智能系統能正確診斷出其中 50%。而醫生與人工智能系統的結合,能正確診斷出 60%。
如果我沒記錯的話,主要的互動是,醫生常常因爲沒有考慮到某種特定的可能性而犯錯。而人工智能系統會提出那種可能性。它會列出各種可能性。當醫生看到這些可能性時,醫生會說,哦,是的,人工智能系統指出了關鍵。我沒想到這一點。這就是這種組合效果好得多的一個方面。人工智能系統不會像醫生那樣經常遺漏某些事物。然而,一年多以前就已經證明,人工智能系統與醫生的結合在診斷方面遠優於單獨的醫生。
主持人: 而聽起來人工智能系統正在做的,就是生成一個針對特定情境的核對清單。這裡列出了一系列不同的事項。並且它能非常快速地完成這項工作。醫生只需查看這些,就能迅速判斷:“不,不,不,哦,也許是這個。”並且這在某種程度上讓它能夠對那些情況進行更多系統一的直覺判斷,然後更關注它認爲重要的那些,而不是針對所有可能性進行困難的系統二思維。
Hinton: 是的。所以這確實是正在發生的事情之一。當然,另一件正在發生的事情是你會獲得集成效應。
主持人: 如果你有兩位工作方式截然不同的專家,並且你對他們的說法取平均,你將比任何處理大量數據、發現模式和相似之處,然後在你提到的那種將推動事物發展的協作模型中爲人類識別出有前景的候選方案的系統做得更好。
個性化教育與終身學習
主持人: 部分原因引出了我的下一個話題,那就是關於個性化。因此,我們將生活在一個你的生物學特性與我不同、與他人也不同的世界,這樣醫學干預就能更針對我們每個人量身定製。當前是否有關於這可能如何改變健康結果的研究正在進行?我相信有。
Hinton: 我對此瞭解得不如應該瞭解的那麼多。但例如,在癌症中,你會想利用你自身的免疫系統來對抗它。而且你也會想某種程度上幫助你的免疫系統識別癌細胞。做到這一點有很多方法。而且我認爲人工智能已經被用於選擇干預哪些方面。最有可能對你個體的(情況)奏效。因此那將是基於人工智能的個體化治療。
然後很明顯,在教育領域,人工智能將非常有用。而且,同樣地,它將是對誤解的個體化糾正。因此,一個人工智能系統,如果它已經見過成千上萬或數百萬人在學習某件事,而且不同的人有不同的誤解方式,那麼它將非常善於識別針對個體:哦,他們是這樣誤解的。這正是一個真正優秀的老師能做到的。他們以這種方式產生了誤解。這裡有一個例子,能讓他們清楚地瞭解自己誤解了什麼。人工智能將非常擅長這一點。我們將擁有好得多的輔導老師。我們尚未達到那個階段,但正在開始接近。我現在樂於預測,在未來10年內,我們將擁有真正優秀的人工智能輔導老師。
主持人: 我可能誤差了兩倍,但它即將到來。您提到關於學生使用人工智能輔導老師方面,您曾引用過一項研究,該研究涉及當人們獲得個性化輔導老師時,學習成果會好多少。
Hinton: 我沒有相關的引用出處,但我清楚地記得那個數字,並且也在其他地方看到過它被引用,那就是通過輔導老師學習的速度大約是課堂學習速度的兩倍。原因顯而易見。
主持人: 首先,你的注意力不會渙散。
Hinton: 你正在與某人互動,所以你的注意力會保持集中。你不能只是盯着窗外,等待課程結束。我在學校時就經常那樣做。其次,對方會關注你,能發現你哪裡錯了,並加以糾正。而在課堂上,你無法做到這一點。因此,真人導師比課堂教學效率高得多,這一點顯而易見。
主持人: 最終,人工智能導師應該會比真人導師更出色。
Hinton: 目前它可能更差,但正在迎頭趕上。所以我猜測,一旦我們擁有真正出色的人工智能導師,它們的效率將是三到四倍,因爲它們能夠處理多得多的數據。
主持人: 我猜,可能還有另一個要素也與動機有關。我們發現,對你我這樣的學生來說,如果話題有趣,如果內容呈現方式能激發我們的好奇心,我們就會更專注。我想人工智能輔導將能夠大規模地做到這一點。
Hinton: 是的。因此,對我們大多數人來說,與他人互動是最重要、也最能激發動力的事情。我認爲AI導師會相當有激勵作用。即使它們不是人,你也會得到有人關注你並告訴你有趣事情的同樣效果。這會非常能激發動力。
主持人: 一個班級裡的30個孩子可能對30種不同的事物“所謂”感興趣,而AI輔導將能夠爲他們量身定製。所以如你所知,我們在Valence正在開發一個AI領導力教練。目標是幫助個性化工作中的學習和指導。我們與一家教育公司交流時,他們提到,很遺憾,我們在教育領域中學到的一切關於如何幫助人們學習概念的知識,似乎在他們踏入職場的那一刻就蕩然無存,他們大多隻能靠自己去學習。所以我們對此很興奮。您能分享一下,您是如何看待這種學習的線索貫穿於一個人的整個職業生涯,而不僅僅在學校結束後就終止的嗎?
Hinton: 我會將此與人工智能的長期發展聯繫起來。人工智能將無處不在,並且將變得非常智能。
主持人: 如果我們能夠達到人與人工智能共生的境地,人工智能將使世界對人類而言更加有趣。
Hinton: 瑣碎的事情將由人工智能完成,這種共生關係將使人們學習得更快,並擁有更精彩的生活。這是理想的局面,我希望我們能實現。
社會影響與經濟變革
主持人: 政策制定者和首席執行官們應該如何思考並關注可能出現的各種結果?
Hinton: 這很快就會讓你接觸到政治,因爲屆時日常的腦力工作將由人工智能完成,這將取代大量工作崗位。在某些領域這沒問題。例如在醫療保健領域,如果能讓醫生和護士更高效,我們就能獲得更多的醫療服務。醫療保健有一種或多或少是無限的吸收能力。我們都希望身邊能有位醫生,可以就各種瑣碎小事向他提問,那些你不會去麻煩你的主治醫生,但你又很想知道的問題,比如今天手指爲什麼疼之類。醫療保健很棒,因爲它具有彈性。你可以吸收大量的醫療服務,所以它不會導致該領域出現失業。但在其他一些領域,其需求量是有限的,我相信這會導致這些領域出現失業。有些人認爲不會。有些人認爲它會創造新的工作。我不以爲然。我認爲這更像是以前人們用鐵鍬挖溝,而現在那些能用鐵鍬在地上挖大坑的人需求量不大,因爲有更好的方法來做這件事。
主持人: 令人擔憂的是,生產力將大幅提升,這本應是好事,但這種生產力大幅提升所帶來的商品和服務的增長卻不會惠及大多數人。許多人將失業,而少數人將變得非常富有。
Hinton: 這並非人工智能本身的問題。而是人工智能在我們當前這種社會中發展所產生的問題。
主持人: 那麼,您會對那些技術樂觀主義者說些什麼呢?因爲我認爲每個人都能看到這樣一種情景:人工智能可以替你處理瑣事,爲你提供個性化學習、個性化輔導,並支持你度過這個轉型期,然而,我們的社會和政治體制似乎不會導致那樣的結果。那麼,您將如何解決這個難題呢?您會給那些認爲一切都會好起來的人什麼建議呢?
Hinton: 我的第一個建議是,你相信它是因爲相信它對你有利,還是你真的相信它?人們非常擅長相信任何對他們有利的事情。我們最近看到了很多這樣的情況。
主持人: 我只是認爲他們非常短視。如果有人足夠有自知之明,能夠說出“好的,我認識到這可能對我有利,我願意問自己一兩個問題”,那麼你會希望他們思考什麼問題?
監管、認知與媒體描繪
Hinton: 一個重要的問題是,人工智能應該被監管嗎?我認爲,如果我們想避免一些非常糟糕的後果,監管將是必不可少的。
主持人: 如果你想到媒體,如果你有一根魔杖,你會對他們描繪或報道人工智能的方式做出什麼改變?
Hinton: 這很有趣。我沒有考慮過這個問題,因爲我沒有魔杖。
主持人: 但我希望他們能更深入地闡述,以便人們理解人工智能究竟是什麼。
Hinton: 人們使用過ChatGPT、Gemini和Claude。因此,他們對它能做什麼有了一些概念,但對它實際如何運作卻知之甚少。
主持人: 所以他們仍然認爲它與我們大相徑庭。
Hinton: 我認爲人們理解它實際上與我們非常相似,這一點非常重要。因此,我們理解語言的最佳模型就是這些大型語言模型。語言學家會告訴你,不,那根本不是我們理解語言的方式。他們有自己從未奏效的理論。他們從未能運用他們的理論創造出能理解語言的事物。他們基本上沒有一個好的意義理論。並且這些神經網絡使用大型特徵向量來表示事物。這是一種更好的意義理論。所以我希望媒體能深入報道,讓人們有所瞭解。
主持人: 如果人們真的理解了這一點,你認爲這會如何調整他們看待AI的視角以及監管AI的政策重要性?我認爲他們會更加擔憂,並且更積極地告訴他們的民意代表:我們必須儘快監管這些東西。
Hinton: 事實上,人們已經大量討論過,AI能否監管AI?我認爲那是一廂情願。我認爲這就像讓警察監管警察一樣,異想天開。
主持人: 我們採訪了一些參與過試驗的科學家,他們讓AI生成概念,科學家則評估哪些概念似乎最有前景。這似乎是取得進展的更有效方式。現階段,是的。
Hinton: 現階段,由人工智能提出建議,再由人類做出最終決定,這看起來是相當明智的。我不認爲它會一直保持這種狀態。
主持人: 它的能力將繼續階梯式上升。
走向超級智能:創造力與意識之辯
主持人: 那麼,什麼是超級智能,又該如何向一個門外漢解釋呢?
Hinton: 智力上,它或多或少在所有方面都優於我們。如果你和它就某件事進行辯論,你會輸。
主持人: 那麼創造力呢?那些我們認爲是人類本質的東西呢?它也能和我們一樣出色嗎?一千個畢加索?
Hinton: 也許那會稍後到來。許多人曾提出,因爲它並非凡胎(不朽),所以它會對事物有不同的看法。我認爲它不具創造力的觀點是愚蠢的。我認爲它具有創造力。它已經非常有創造力了。它絕對具有創造力。它正在發現所有這些類比,而許多創造力都源於發現新奇的類比。
我們現有的LLM或AI有意識嗎?我寧願回答一個不同的問題。我知道這聽起來像是在打官腔,但人們通常會談論三件事。它有感知能力嗎?它有意識嗎?它有主觀體驗嗎?它們都明顯相關。有很多人非常自信地說,它沒有感知能力。然後你問,你說的‘有感知能力’是什麼意思?他們回答說,我不知道,但它沒有感知能力。這似乎是一個愚蠢的立場。
主持人: 我寧願談論主觀體驗,因爲我認爲很明顯,我們幾乎所有人對主觀體驗是什麼都存在一個錯誤的認知模型。
Hinton: 當我,假設我大量飲酒後,然後我說,我有一種主觀體驗,看到小粉象在我眼前飄浮。大多數人認爲,“主觀體驗”這個詞的功能,就像照片一樣。如果我眼前漂浮着小粉象的照片,你可以問這張照片在哪裡,它是由什麼構成的?
主持人: 於是他們會說,如果你認爲主觀體驗的功能就像照片一樣,那麼你就可以問,這種主觀體驗在哪裡,它是由什麼構成的?
Hinton: 哲學家會告訴你,它存在於你的心智中,那是一種只有你自己能看到的劇場,一個內在的劇場。那麼,讓我給你提供一個關於“主觀體驗”這個詞語含義的替代模型。我認爲我的感知系統在欺騙我。
主持人: 所以我對你說,我的感知系統在欺騙我,但如果真有小粉象在我眼前漂浮,它告訴我的內容就是真的。
Hinton: 好的,我剛纔在沒有使用“主觀體驗”這個詞的情況下,表達了同樣的意思。而我正在做的,是試圖告訴你我的感知系統是如何欺騙我的。我們認爲存在着一個內在的劇場。不存在內在劇場。內在劇場這種對心智的看法是錯誤的,就像認爲地球是6000年前創造的觀點與真實世界的運作方式不符一樣。幾乎每個人都有這種錯誤的看法。他們認爲存在一個內在劇場,裡面有隻有我才能看到的有趣的東西。那純粹是謬論。
一旦你明白了這一點,你就會發現這些聊天機器人,一個多模態聊天機器人,已經擁有了主觀經驗。那麼我給你舉個例子。
主持人: 假設我有一個能看、有機械臂、會說話的聊天機器人,我訓練它,然後我在它面前放一個物體並說“指向那個物體”,它就會指向那個物體。
Hinton: 然後在它沒注意的時候,我在它的攝像頭前放一個棱鏡。然後我再在它面前放一個物體並說“指向那個物體”,它卻指向了一邊。我說,不,物體不在那裡,它就在你正前方,但我前面放了一個棱鏡,還有什麼?聊天機器人說,哦,我明白了,棱鏡彎曲了光線。所以物體實際上就在我正前方。但我有了主觀經驗,它在那邊。太迷人了。那就是聊天機器人使用“主觀經驗”這個詞的方式,與我們使用的方式完全一致。它在說,因爲棱鏡,我的感知系統在欺騙我。但如果它沒有欺騙我,物體就會在那邊。
核心挑戰:對齊與未來展望
主持人: 如果你有一個曼哈頓計劃式的項目,旨在從社會、研究或監管角度解決人工智能領域的一些挑戰,那個曼哈頓計劃會是什麼?
Hinton: 哦,我認爲從長遠來看,有一個真正關鍵的問題我們需要弄清楚。有許多短期的事情我們需要做。
主持人: 但從長遠來看,我們需要弄清楚,我們能否建造出比我們更智能、且永無意願取代我們的事物?
Hinton: 我們不知道如何做到這一點,我們應該將大量資源集中於此。
主持人: 對齊是一個核心問題,這有點像曼哈頓計劃。有沒有關鍵績效指標?我知道這聽起來可能有些平常,但有沒有我們可以追蹤的關鍵績效指標來判斷,我們在你提出的這些對齊問題上是否取得了進展?
Hinton: 嗯,我主要擔心對齊的問題是,你如何畫一條與兩條相互垂直的線平行的線?這有點棘手。而且人類彼此之間也無法對齊。
主持人: 有沒有這樣一個概念,它對人們來說非常重要,但你卻很難以讓普通人能夠發自內心地理解的方式來解釋它?
Hinton: 我認爲這通常與概率分佈有關。概率分佈的整個概念,人們覺得難以理解,把它當作一個事物。所以在大型語言模型中,你給它一個上下文,它試圖預測下一個詞,並且它有一個詞語的概率分佈。人們覺得這難以掌握。而這至關重要,因爲如果你理解概率,那會非常簡單明瞭。但是,除非你理解概率分佈的概念,並且當你改變連接字符串的權重時,你所做的事情就是改變它將分配給所有各種詞語或詞語片段的概率。那是一個普通人覺得難以掌握的概念。
主持人: 你認爲現在人工智能領域中最被過度使用的流行語是什麼?
Hinton: 嗯,人工智能批評者最常過度使用的流行語絕對是“炒作”。所以多年來,我們一直聽到人工智能被過度炒作。我的觀點一直認爲它被低估了。
主持人: 我認爲這是一個非常重要的信息,需要傳達給人們。我也看到過同樣的事情。哦,存在幻覺。人工智能永遠趕不上。我們談論技術的粗糙之處。總是存在粗糙之處,但你必須審視它的核心本質,那裡的可能性是如此強大。真的非常感謝這次對話。它很有啓發性。我非常享受。我知道我們的觀衆和聽衆也一定會如此。謝謝。這非常愉快。