AI威脅超乎想像! 《黃仁勳傳》作者示警:如核彈恐毀滅人類
專家憂心,人工智慧發展快速,恐危及人類生存。(示意圖:shutterstock/達志)
人工智慧(AI)時代的到來,正以驚人的速度重塑我們習以爲常的生活模式。然而,這股科技浪潮的奔騰之勢,卻也讓衆多專家學者感到憂心忡忡,甚至有聲音指出,AI可能對人類的生存構成前所未有的威脅。《黃仁勳傳》(The Thinking Machine)的作者近日發表文章,援引多位專家的觀點,深入剖析了AI發展所帶來的隱憂,最終得出結論:AI已然成爲如同核彈般真實且具體的威脅!
《紐約時報》於10日刊登了《黃仁勳傳》(The Thinking Machine)作者維特(Stephen Witt)一篇標題爲「可能終結世界的AI指令」(The A.I. Prompt That Could End the World)的評論。文章一開頭,他就直言不諱地寫道,「我們究竟該對AI有多恐懼?自2022年底ChatGPT首次問世以來,,我一直在向專家提出這個問題。」
維特在文中首先引用了AI領域的先驅、同時也是電腦科學領域的諾貝爾獎「圖靈獎」得主班吉歐(Yoshua Bengio)的看法。班吉歐直言,他一想到未來就睡不着。具體來說,他擔心AI會設計出一種致命的病原體,某種超級冠狀病毒,來毀滅人類,「就危險程度而言,我認爲沒有什麼能與此相提並論」。
而班吉歐的擔憂並非杞人憂天。今年9月,史丹佛大學的科學家發表報告稱,他們首次運用AI成功設計出了一種病毒。維特指出,「我聽過許多關於AI能做什麼、不能做什麼的爭論,但現在數據已經超越了所有爭論,並清楚表明了一個事實:AI的能力強大,而且其能力正在加速提升,而這些能力所帶來的風險也真實存在。」
維特進一步強調,「從這個意義上來說,我們已經跨越了1939年核分裂技術突破的門檻。爭論的焦點不再是AI是否會毀滅我們,而是它有可能做到。只要給它一個病原體研究實驗室、錯誤的安全準則,以及足夠的智慧,它絕對有可能做到。如同核彈般具有毀滅性的AI,如今已成爲現實,問題在於:是否有人會魯莽到製造出這樣的AI?」