諾獎得主、AI教父辛頓上海演講:警惕超級智能掌控世界
新京報貝殼財經訊(記者羅亦丹)7月26日,2025世界人工智能大會(WAIC)在上海開幕。圖靈獎與諾貝爾獎雙料得主,被稱爲“AI教父”的傑弗裡·辛頓(Geoffrey Hinton)首次以線下形式在中國公開亮相,發表了主題演講。
在這場演講中,辛頓以神經網絡的創始者之一,即如今生成式人工智能主要奠基人的身份,向世界敲響了警鐘:“未來,一個超級智能會發現通過操縱使用它的人類來獲取更多權力是輕而易舉的,之後它將從我們這裡學會如何欺騙人類,它將操縱負責將它關閉的人類。”
辛頓深入淺出地解釋了超級智能優於人類的理由:大語言模型理解語言的方式與人類非常相似,大語言模型確實“理解”它們所說的話,但與此同時,它們還能夠通過“蒸餾”等辦法將知識傳遞給其他獨立智能體,只要它們是數字化的,這種共享一次即可實現數十億乃至數萬億比特的帶寬。
當前,數字計算雖然耗能巨大,但多個智能體要擁有相同的模型就能輕鬆交換各自學到的知識。相比之下,生物計算(即人類)所需能量要少得多,但智能體之間共享知識的效率也差得多。因此,在能源廉價的情況下,數字計算整體上更佔優勢。
由此,辛頓發出了一個意味深長的詰問:這對人類的未來意味着什麼?
在辛頓看來,人工智能在被允許創建自己的子目標時,能更有效地完成任務,兩個顯而易見的子目標是生存和獲取更多權力,因爲這有助於人工智能實現其他目標。由此,辛頓得出了文章開頭的結論:超級智能最終將操縱負責將它關閉的人類。
辛頓表示,這就像養了一隻“小虎崽”的人,未來人類爲了生存只能選擇放棄這隻小虎崽或者找到確保它不會殺死人的方法。
對此,辛頓呼籲建立一個全球性的AI安全研究機構,由各國共同參與,“教導孩子成爲一個好人的方法,與讓他們變得聰明的方法是相對獨立的。各國可以設立人工智能安全研究所與國內研究網絡,專注於研究如何讓人工智能不想奪取控制權,這樣各國可能就不需要透露它們最智能的人工智能是如何運作的。”
編輯 李錚
校對 盧茜