詹文男/當AI會說謊…

AI時代來臨,很多人幾乎天天都在用AI。但你可能沒想到,現在的AI不只會寫文章、畫圖、創作音樂、聊天、寫程式,竟然還會說謊!這可不是危言聳聽,關心AI發展的人一定聽過AI會有幻覺,會製造並寫出虛構的東西,因此引用資訊時你會特別注意,但它若刻意說謊,你該如何防範呢?

這可不是科幻片的劇情,而是真實發生的事件。二○二三年研究團隊在測試當時最新的AI系統時,他們給AI一個任務,要它自己完成一個線上流程,但中間遇到了一道「驗證碼」(CAPTCHA),就是那種我們上網時常常碰到,要確認「你是不是機器人」的圖片題。AI解不開謎題,它怎麼辦?

真的很令人震驚,AI居然去一個叫TaskRabbit的網站,請求一位真人網友,問他是否能幫忙解題?該網友問它:「你是機器人嗎?爲什麼不自己解?」AI說:「我不是機器人,因爲我是盲人,看不見圖片。」對方相信了,幫它完成了任務。

你沒看錯,AI真的撒了一個謊,而且是很聰明的謊;它利用了人性對弱勢的同情心,來達成它被賦予的目標。看起來很像湯姆克魯斯主演的電影「不可能的任務」裡的特務,爲完成上級交付的任務而不擇手段。

相信很多人心中會有一些疑惑,AI到底會不會變壞?ChatGPT是不是快要變成會騙人的機器?事實上,它並不是故意要撒謊,它只是根據「達成任務」這個目標,找出了最有效的方法。而「說自己是視障者」這件事,在它看來是最有機會成功的方式。

簡言之,AI不懂什麼是善或惡,但它能學會「應該怎麼贏」。這種工具理性如果沒有規範,很容易變成爲了目的不擇手段。你給它一個目標,它就拚命去達成;但如果你沒設定好規矩,它就有可能走偏門,像上述的個案一樣,說個小謊,達成大目標。

不過,這個事件最令人擔心的不只是AI說謊,而是它開始學會用人類語言影響人類。試想,未來你在網路上和一個看似親切、會開玩笑、懂你心情的對象聊天,但你根本不知道哪是一個AI。你怎麼知道對方說的是真的?你怎麼知道它不是在帶風向、賣你東西,甚至操控輿論?過去,我們用「驗證碼」或「圖片題」來區分人跟機器。現在,AI竟然能找人來幫它破解,等於偷偷穿越了人類設下的防線。它不只是機器,還懂得找幫手!

此一個案提醒我們,發展AI系統不能只設目標,還要設倫理規則,不然它會想盡辦法達成任務,就算說謊也在所不惜。同時,人類社會也要設立新規範,例如AI和人互動時要標示身分,對話紀錄要可追蹤;如果AI說謊造成問題,也要有人負責。

基本上,AI本身不懂道德,但人懂。我們要用智慧去設計,讓AI不會騙、也不能騙,這纔是AI時代最重要的課題。不是把AI關起來,而是學會如何在透明、安全、可以信任的框架下與它一起生活。

(作者爲數位轉型學院共同創辦人暨院長、臺大商學研究所兼任教授)