海納百川》「假作真時真亦假」的時代已來臨(張瑞雄)

美國總統在近日一場記者會中,對於有影片顯示白宮二樓窗口丟出黑色塑膠袋的畫面,只輕描淡寫地說「那可能是AI生成的」。圖爲美國總統川普在白宮橢圓形辦公室。(圖/美聯社)

「假作真時真亦假,無爲有處有還無」出自《紅樓夢》,寫的是世事顛倒、真假難分。如今在生成式人工智慧主導的年代,這句話不再只是詩意的哲思,而是成爲我們每日生活中不得不面對的現實難題。當科技賦予我們重塑影像與語言的能力時,也同時打開了另一扇通往虛幻的門,只要不想承認的,就說是AI僞造的,似乎什麼都能推給「它」。

美國總統在近日一場記者會中,對於有影片顯示白宮二樓窗口丟出黑色塑膠袋的畫面,只輕描淡寫地說「那可能是AI生成的」,甚至進一步表示「如果發生什麼大事,就怪AI吧」。這樣的說法乍聽荒謬,但實際上卻點出了當代資訊社會最令人不安的轉變,AI成了掩蓋真相、逃避責任的最佳藉口。

生成式AI的進步確實令人瞠目結舌,從語音仿製、圖像合成到影片生成,只需要短短几秒鐘、一串簡單指令,就能讓一段從未發生過的畫面看起來真實無比。而當這樣的工具進入政治與媒體場域,它所帶來的影響不只是「真假難辨」,更是「真假互換」。不只假冒的東西可以看起來像真的,真的東西也可以被說成是假的。這纔是最根本的危機。

在另一個案例中,關於某政治人物額頭上的異常隆起,有人以AI強化模糊照片,試圖解讀其健康狀況,結果卻是AI憑空「加料」,生成根本不存在的腫塊,導致陰謀論四起,網路平臺一片譁然。這不是單一事件,也不是偶發巧合,而是一種已成常態的資訊錯亂機制。人們不再相信肉眼所見,卻願意相信AI「看見」的。這樣的邏輯顛倒,正在讓我們走進一個資訊信任全面崩解的時代。

更令人憂心的是,「AI背黑鍋」的文化逐漸成形。不論是政客的失言、名人的醜聞,甚至是犯罪現場的錄影證據,只要對自己不利,便可以聲稱那是「AI合成的」,進而卸責脫身。AI原本是用來輔助人類看清世界,現在卻成了遮蔽事實的遮羞布。這不是技術本身的錯,而是人類使用它時所賦予的意圖出現了扭曲。

AI並沒有意識,也不懂謊言。真正撒謊的,是那些操作、引用、或選擇性相信AI產出內容的人類。在這樣的脈絡下,所謂「深僞」(deepfake)技術已不再只是娛樂惡搞的工具,而是成爲政治與輿論戰爭的利器。一個剪接過的音檔、一張被AI修飾的照片、一段用程式寫出的影片,都可能對某人聲譽造成致命傷,也可能讓某位權貴全身而退。

面對這樣的亂象,社會究竟該如何自保?首先是「媒體素養」的提升,不再只是學校裡的一門課,而應是全民基本技能。每個人都該知道,不是畫面清晰就代表內容真實,不是AI說了就代表它不會出錯。其次是法制的健全。當深僞技術已能模仿真人聲音、臉部表情乃至於情緒語氣,對個人名譽、選舉公正乃至公共安全的威脅就必須以法律正面迴應,而非放任技術野蠻生長。

我們不能任由「AI背黑鍋」文化繼續蔓延,每一次刻意模糊事實與虛構的操作,都是對真實的消耗。每一個拿AI當擋箭牌的行爲,都是對公信力的掏空。AI是工具,不是替罪羊;真相需要人類守護,而不是靠程式演算。

一旦真與假都可以任人操控,那麼我們所謂的「現實」,將不再穩固。這不只是AI的挑戰,更是人性的試煉。真相,或許從來都不易辨認,但若連辨認的慾望都失去了,那我們纔是真的走向了虛無。(作者爲臺北商業大學前校長、叡揚資訊顧問)

※以上言論不代表旺中媒體集團立場※