海納百川》AI反水 神經網路的認知革命與威脅(朱玉昌)
AI教父辛頓極其坦誠,娓娓細訴AI掀起一發難以收拾的文明危機,他振臂呼籲,數位智能已在認知維度上碾壓人類,但人們正拿着點燃的火焰,一撮一撮灼燒自己存在的根基。(圖/美聯社)
在深度學習殿堂裡,諾貝爾物理獎、圖靈獎得主傑佛瑞.辛頓(Geoffrey Hinton)曾是最虔誠的建造者。其學術生涯,始於智慧當仿效大腦神經網路,而不是僵化邏輯系統的一種異端信念,他孤獨堅守冷門的神經網路研究五十年,2012年引領學生伊利亞.蘇茨克維(Ilya Sutskever)與亞歷克斯.克里澤夫斯基(Alex Krizhevsky)共同發表AlexNet(CNN卷積神經網絡),在ImageNet視覺識別挑戰大賽(ILSVRC)獲得突破性勝利之後,最終成就了今天屬於他的「AI教父」傳奇。
這位神經網路奠基者,此時已換裝爲先知,將一生研究所知所感,總結出AI今後可預測的走向,他於6月16日接受知名播客節目《CEO日記》(The Diary Of A CEO)專訪,與主持人史蒂文.巴特利特(Steven Bartlett)進行長達90分鐘深入交談,他極其坦誠,娓娓細訴AI掀起一發難以收拾的文明危機,他振臂呼籲,數位智能已在認知維度上碾壓人類,但人們正拿着點燃的火焰,一撮一撮灼燒自己存在的根基。
辛頓洞悉數位智慧具備「神經網路權重矩陣可以無限複製(human cloning),知識瞬間同步」,「AI每秒萬億比特級別(Bit-Level)的數據流吊打人類每秒10比特的貧瘠對話」,「以GPT-4爲代表的大模型,知識儲備量遠遠超越人類數千倍,壓縮抽象與類比創造能力逼近技術奇點」三重壓倒性優勢。所以,當人類不再是頂級智慧擁有者時,智慧階層勢將重塑支配關係。AI雖是人類智慧的延伸,卻是潛在的超越者,只要人類頂級智慧徹底崩塌,辛頓語帶冰冷地說,問問雞就知道了。
辛頓將AI風險分爲短期的人類濫用與長期的存在性威脅,短期風險已經顯現,且用驚人之速增長中。2023至2024年,全球網絡攻擊激增12倍,大語言模型讓網路釣魚變得更加精準容易,AI複製技術能僞造以假亂真的聲音和圖像,詐騙活動呈爆炸式激增,更令人擔憂的是,AI降低了製造致命病毒的門檻,自主殺傷武器縮減戰爭成本,商用無人機臉部識別功能爲恐怖分子所用,讓個人或小團體也能構成全球性破壞。在社會層面,AI透過個性化廣告投放操縱選民行爲,經由演算法加劇社會分裂,削弱民主制度的基石。
長期來看,AI自主意識崛起,將爲人類帶來毀滅性的存在性風險。辛頓估計,AI消滅人類的機率爲10%到20%,但他以非迫在眉睫,卻具深遠的威脅來駁斥過度樂觀者與末日論者。其關鍵不在阻止AI獲得力量,而在確保AI不欲傷害人類。無奈,資本逐利下,安全研究投入遠低於技術反覆運算,又軍事AI完全不受監管,皆爲這場賭局蒙上陰影。
我們必須正視,AI對經濟與就業的衝擊是前所未有的。工業時代取代機械勞動,資訊時代取代簡單腦力,但AI時代與歷史上所有技術革命不同,過去新技術創造新工作,而AI會直接取代智力與技能本身。辛頓舉AI處理醫療服務投訴信件,效率可提升五倍,多出80%的人力冗餘,便是造就企業裁員的主因,類似從員工7000縮至3000的大規模裁員浪潮將成爲風潮。未來,即使實施全民基本收入(UBI)以解決溫飽問題,難以填補的,是人類終將失去社會角色與個人心中的價值。辛頓半玩笑似地建議,也許人們應多投入AI相對難以取代的體力或實務性技能,例如學習成爲「水電工」。
面對AI危機,防禦機制卻脆弱不堪,政策制定者與技術前沿脫節,技術紅利因人性貪婪而遭到少數壟斷。辛頓會由AI建造者變身爲人類安全的吹哨者,正是知識良知對系統失能的抗爭。他再再提出關鍵警示,頂尖企業對安全研究的投入嚴重不足,純靠市場機制完全失效,政府必須強勢介入監管,嚴令資源向安全領域傾斜,並推動建立超越地緣競爭的國際治理框架。
AI不再是科幻電影裡的未來,而是真實在改變我們生活的力量。其雙刃效應帶來數據濫用、民主分裂、軍事升級與就業動盪等不可控風險,似乎不能再寄望於科技巨頭的「善意」。人類已站在文明懸崖邊,此刻的焦點,不在技術本身,而在我們能否有勇氣提出根本的問題所在,是否設計出制衡貪婪的制度?是否跨越國界、協力治理?是否以尊嚴與責任爲軸心,建立新時代的共識?
辛頓的警示不是末日預言,而是一聲警鐘。唯有集體的覺醒與行動,才能守住我們作爲人類的智慧底線,讓AI成爲共榮的夥伴,而非命運的主宰。
(作者爲資深文化工作者)
※以上言論不代表旺中媒體集團立場※