英媒:說服別人,AI比人類更有效

來源:環球時報

英國《經濟學人》3月22日文章,原題:能否說服人們不再相信虛假信息? 最近幾個月關注美國政治的人,一定都聽到過一些假消息。例如,數千萬名已故的百歲老人仍在領取社會保障金;救災資金被用於將移民安置在紐約市的豪華酒店等。這些說法儘管站不住腳,但仍有許多人對此信以爲真,這顯示出社交媒體時代和政治極端化模糊了真相與陰謀論之間的界限。而“闢謠學”,即如何糾正人們腦海中根深蒂固的信念,仍在努力追趕這種現象的步伐。

AI改變說服規則

許多人下意識想到用爭辯的方式進行說服,但往往收效甚微。華盛頓特區美利堅大學專門研究宣傳的說服效應及其應對策略的庫爾特·布拉多克表示,這種方法甚至可能適得其反,讓人們更加堅定原本持有的看法。然而,新的研究表明,當對話對象是生成式人工智能(AI)模型時,說服的效果可能會更好。

2024年9月,麻省理工學院的托馬斯·科斯特洛及其同事發佈了一項研究,探討當ChatGPT試圖說服自稱相信陰謀論的人放棄他們的信念時會發生什麼。該研究讓2190名相信陰謀論的人與GPT-4模型進行對話,經過3輪後,他們的信念強度降低了20%。其中,有1/4的受訪者完全放棄了原有的信念。

在科斯特洛看來,AI聊天機器人之所以比人類更有效,是因爲它們能夠始終保持理性迴應,不會讓情緒佔據上風。此外,AI可以從龐大的訓練數據中篩選出合適的反駁論據,而不像人類辯論時常依賴一些泛泛而談的論點。

AI聊天機器人還能解決人類在闢謠過程中常見的另一個問題。2024年10月的一項研究表明,當人們的信念受到挑戰時,他們往往會懷疑反駁者的動機。例如,美國共和黨人可能會認爲,民主黨人否認2020年美國大選存在舞弊的說法,只是因爲民主黨人維護選舉結果的既得利益。但如果反駁者是AI系統,則可能不會被懷疑。

“預先揭穿”更有效?

當然,並非所有信奉陰謀論的人都願意按要求與機器人對話。對於那些試圖阻止虛假信念紮根的人來說,或許“預先揭穿”比事後闢謠更有效。

實際上,“預先揭穿”這個概念自20世紀60年代以來就已出現,只不過它當時被稱爲“態度免疫”。這一理論由社會心理學家威廉·麥圭爾提出,其思路是先告訴人們,世界上確實存在離譜的信念和徹頭徹尾的虛假信息,然後給他們展示具體的例子,並提供策略幫助他們識別和抵禦這些信息。布拉多克表示,若能事先提供一套反駁策略,人們在面對虛假信息時就更可能保持警覺並加以抵制。

2023年的一項研究對多種干預措施進行了評估,發現“預先揭穿”在抵禦虛假信念方面的效果可以達到“中等”或“較強”。但英國肯特大學心理學教授卡倫·道格拉斯認爲,“預先揭穿”的效果能持續多久,仍是個未知數。

尋找更多解決方案

除此之外,2024年8月,美國威斯康星大學麥迪遜分校的研究人員發表的一項研究表明,當醫學專家給在社交媒體平臺上發佈的闢謠視頻配上節奏感強的背景音樂時,闢謠的效果會更好。研究人員認爲,音樂可能會干擾大腦生成反駁意見的能力,使相關信息更容易被受衆所接受。

先前的研究還表明,使用強有力的敘述(包括生動的角色塑造和細節豐富的描述)來傳達信息,也可以削弱大腦提出反駁意見的能力,從而增強信息的說服力。不過,這些技巧雖然可以用於闢謠,也可能被散佈虛假信息的人利用。

目前看來,在對抗虛假信息的方法中,批判性思維教育顯得尤爲重要。這一方法包括學習如何評估證據,從而做出理性明智的判斷。2018年,一項針對806名大學生的研究發現,批判性思維教育能有效減少他們對健康僞科學理論的信念。然而,該方法在應對某些更根深蒂固的信念方面效果有限。

儘管如此,這或許已經是最好的結果了。英國哈德斯菲爾德大學心理學研究員西諾特表示,雖然科學界可以投入大量資源研究如何說服他人,改變其想法,但最終決定相信什麼,仍然取決於每個人自己的想法。(任伊然譯)