國際火線/天國或地獄:AI會是毀滅人類的魔鬼終結者?

▲「阿湯哥」主演的《不可能的任務:致命清算》,觸及了AI威脅人類生存的問題 。(圖/UIP提供)

文/朱錦華

在所有反烏托邦的文學/影視作品創作裡,AI人工智慧是被鎖定的重點描寫對象之一。無論是《2001太空漫遊》裡的「哈爾9000電腦」、《魔鬼終結者續集》裡的「天網系統」、或是《不可能的任務》系列最後兩集:《致命清算》與《最清後算》裡的「生存體」(Entity),都描述了當AI會自我學習、自我思考後,將反過來吞噬它的主人、毀滅人類。

科幻作品裡的小說家言,大家儘可以一笑置之。然而如今連被譽爲「AI教父」的辛頓(Geoffrey Hinton)都跳出來作出類似警告,人們就不能不嚴肅看待了。英國《衛報》不久前報導,辛頓預估:「未來30年內,有10%到20%的可能性出現AI導致人類滅絕的結果」。他警告說,科技變革的速度比預期要「快很多」。

▲「AI教父」辛頓警告:A1有可能讓人類滅絕。(圖/達志影像/美聯社)

但AI爲何會威脅到人類安全?辛頓分析指出: 其一,AI系統會透過大量數據不斷的自我學習、優化自我能力。演算法變得更加複雜,AI有可能會作出違背預設規範的決定、甚至想方設法繞過安全限制。換言之,它會失控。當它感知人類要毀滅它的時候,爲了保護自己,極可能會先下手爲強;就像《致命清算》和《最後清算》裡的「生存體」那樣。

其二,AI的發展速度遠遠快過人類的監管與規範措施的腳步,很難不讓人擔心企業與政府根本無法及時建立有效的監管機制。最終,AI會變成「自走砲」,脫離監管,淪爲野心家和不良企圖者的工具,不曉得會被拿來幹什麼。

▲庫柏力克1968年的電影《2001太空漫遊》裡,即預言了AI對人類的背叛 。(圖/華納提供)

其三,AI不可能不被應用在軍事科技上。軍工業者爲了爭奪市場,會陷入無法停止的AI軍備競賽。但AI缺乏人類的價值觀或道德判斷。如果系統設計是以效率和目標爲最優先考量,AI 的自主武器系統可能會因演算法錯誤或誤判(例如誤判對手動武意圖),而做出危及人類安全的決定。

正如電影《奇幻核子戰》(Fail Safe,1964)裡所說的:「所有機器都會出錯;越複雜的機器越容易出錯。」AI恐怕也很難例外。

▲後悔發明原子彈的「美國原子彈之父」奧本海默。(圖/達志影像/美聯社)

辛頓的警告,讓人想起了主持「曼哈頓計劃」的「原子彈之父」奧本海默(Julius Robert Oppenheimer)的懺悔。當他目擊第一顆原子彈在阿拉高德沙漠上空引爆,發出耀目閃光並形成巨型的蘑菇雲時,讓他想起了梵文史詩《摩訶婆羅多》裡的詩句:「漫天奇光異彩,猶如聖靈逞威,祇有千隻太陽,始能與它爭輝。現在我成了死神,世界的毀滅者。」

AI目前正處於開發/應用的大爆發階段。因爲上述擔憂要開發者馬上踩煞車,根本不可能!古語云:「禍兮福之所倚,福兮禍之所伏。」AI未來是禍還是福,有賴人類智慧的明智判斷,而並非全然交給人工智慧。