使用AI會對大腦產生什麼影響?

·一方面,技術悲觀主義者傾向於將AI視爲一種導致人類智力退化,甚至帶來生存風險的“異己”力量。這種心態使得“AI讓我們變笨”這類簡單而驚悚的結論極易獲得傳播。另一方面則是對這種悲觀論調的警惕,以及對科學研究被過度簡化和意識形態化的擔憂。

有人認爲日益強大的AI會成爲人們的好幫手,也有人擔心過度依賴AI會造成認知上的懶惰甚至創造力的喪失,這類結論到底符不符合事實需要科學的檢驗。

近日,麻省理工學院媒體實驗室的計算機科學家娜塔莉亞·科斯米納(Nataliya Kosmyna)和她的同事們在預印本服務器arXiv上發表了一項研究,首次探索了使用AI工具進行寫作任務對人類大腦活動的影響。研究發現,依賴ChatGPT進行寫作的學生的大腦呈現更低的激活狀態。

該研究發表後引起了科學界和公衆輿論的廣泛關注,不僅觸動了人們對AI日益增長的依賴的普遍焦慮,也暴露了科學研究在面對顛覆性技術時所面臨的解讀困境。

AI會讓我們變笨嗎

研究團隊招募了60名來自波士頓地區五所大學的18至39歲的學生。參與者被隨機分爲三組,每組18人。他們被要求在20分鐘內撰寫一篇SAT(美國大學入學的標準化考試)風格的短文,回答諸如“我們是否應該在說話前三思?”之類的問題。

研究人員對三組學生使用的輔助工具進行了限制。第一組是“純腦力組”,學生要在沒有任何網絡工具的幫助下完成寫作。“搜索組”的學生可以使用網絡搜索引擎查找資料,但不能使用任何AI輔助的答案。在“ChatGPT組”中,學生只能使用由OpenAI的GPT-4o模型驅動的ChatGPT作爲信息來源來撰寫文章。

研究人員使用腦電圖(EEG)技術,通過一頂佈滿電極的帽子來實時記錄參與者寫作時的大腦電波活動。EEG可以測量大腦活動產生的微小電壓變化,從而揭示大腦不同區域之間的“對話”或連接情況。

研究發現,與另外兩組相比,使用ChatGPT寫作的參與者的大腦的連接性在任務期間表現得最低。而“純腦力組”的參與者則表現出最強、最廣泛的大腦區域間連接,並且有更多的大腦活動從後腦區域流向前部的決策區域。此外,當被問及能否引用自己文章中的句子時,“純腦力組”的成員表現得最好。相比之下,“搜索組”的大腦在與視覺處理和記憶相關的區域表現出更強的激活。

然而,研究人員們強調,更多的大腦連接性並不一定意味着更好或更壞。它可能表明一個人更深入地參與了一項任務,也可能意味着思維效率低下,或者是“認知超載”的跡象。作者們明確表示,這項研究並沒有也無法證明使用ChatGPT會導致“大腦變笨、變傻,或者大腦在度假”。

研究中一個更有趣的發現是,當最初使用ChatGPT的參與者轉爲在沒有任何在線工具的情況下寫作時,他們的大腦連接性雖然有所增強,但並未達到從一開始就未使用任何工具的參與者的水平。這似乎暗示,依賴聊天機器人完成初始任務,即使之後不再使用,也可能會導致大腦的參與度相對較低。

研究人員謹慎地指出了這項研究的侷限性:研究只涉及幾十名參與者,且時間較短,因此無法回答長期習慣性使用聊天機器人是否會重塑我們的思維方式,也無法說明大腦在其他AI輔助任務中會如何反應。科斯米納坦言:“這篇論文中沒有任何這些問題的答案”。

科學解讀的困難

“技術如何影響人類認知”一直是科學研究的熱門話題,在AI時代之前,互聯網就已經引發了認知退化的擔憂和研究。但即便是科學家們對這些研究結果的解讀也難以達成一致。

根據《自然》(Nature)雜誌的報道,早在2011年,哥倫比亞大學心理學家貝齊·斯帕羅(Betsy Sparrow)等人的一項研究就普及了“谷歌效應”(Google effect)這一概念:當人們知道信息可以被數字設備儲存下來時,他們記住這些信息的能力會變差。人們似乎更傾向於記住信息存儲的位置(比如哪個文件夾),而不是信息本身。這引發了一種普遍的擔憂,即我們正在將互聯網當作外部記憶庫,從而削弱了自身的記憶能力。這個概念甚至催生了“數字失憶症”(digital amnesia)這樣的術語。

這一觀點與心理學家丹尼爾·韋格納(Daniel Wegner)在20世紀80年代提出的“交互記憶”(transactive memory)理論相符。該理論認爲,人們通過與他人(如配偶或同事)分享信息來減輕記憶負擔。當互聯網成爲我們的“交互夥伴”時,我們似乎可以從記住大量信息的責任中解脫出來。這種將認知任務外包給外部工具(從清單、日曆到智能手機)的行爲,被稱爲“認知卸載”(cognitive offloading)。

認知卸載可以解放有限的大腦帶寬,讓我們處理其他事務,但也可能帶來負面影響。例如,有研究表明,使用GPS導航的人在回憶路線方面表現更差。另一項研究發現,過度使用GPS的人,其空間記憶能力下降得更快。

儘管如此,許多記憶研究人員仍認爲,關於“谷歌正在讓我們變笨”的說法是“誇大其詞”。哈佛大學的記憶研究專家丹尼爾·沙克特(Daniel Schacter)指出,儘管有證據表明技術可以影響特定任務的記憶表現,但幾乎沒有證據表明技術正在對記憶造成更廣泛的負面影響。他認爲,人們感覺自己記憶力下降,可能更多是因爲衰老,或是因爲我們現在需要處理的信息量遠超以往。

以ChatGPT爲代表的生成式AI的興起,爲這個議題增添了新的複雜性。與傳統的搜索引擎或記憶輔助工具不同,大型語言模型(LLM)不僅能檢索信息,還能生成全新的、看似原創的內容。這帶來了新的風險,比如AI可能會“一本正經地胡說八道”(即“幻覺”),從而可能在我們的記憶中植入逼真的虛假信息。此外,由於寫作本身是一種促進深度思考和產生原創見解的過程,將這些過程外包給AI,可能會讓學生失去學習這些寶貴技能的機會。

爭議:科學與社會心態的博弈

該研究預印本一經發布,便迅速在社交媒體和新聞報道中引發討論,其中不乏聳人聽聞的解讀。一篇點擊量超過2000萬的推文宣稱:“MIT的研究結果令人恐懼……AI正在讓我們的認知‘破產’(Cognitive bankruptcy)”。儘管這種說法並不符合研究者們原來的判斷,但也反映出公衆對AI潛在威脅的深切焦慮。

而對於另外一些更爲專業的批評者來說,這類研究本身對該類議題的把握能力非常有限。比如有批評者指出,這項研究的樣本量很小(每組僅18人,第四次實驗更是隻有9人),且參與者都是來自波士頓頂尖大學的“WEIRD”(西方的、受過教育的、工業化的、富裕的和民主的)人羣,這使得研究結果很難推廣到更廣泛的人羣。此外,實驗環境也與現實生活中的學習場景相去甚遠。

一篇深入的評論文章指出,研究人員對EEG數據進行了大量的統計檢驗(在1024對電極之間運行了上千次重複測量方差分析)。即使使用了多重比較校正(如FDR),在如此海量的檢驗中,也很難避免出現由純粹偶然性導致的“統計顯著”的假陽性結果。而腦電技術本身也不夠精確,研究中腦電波的變化可能僅僅反映了不同任務(如打字、閱讀、編輯)之間的物理行爲差異,而非深層次的認知變化。

這些爭議不僅關於科學研究的嚴謹性,也折射出社會面對AI時複雜而矛盾的心態。一方面,技術悲觀主義者傾向於將AI視爲一種導致人類智力退化,甚至帶來生存風險的“異己”力量。這種心態使得“AI讓我們變笨”這類簡單而驚悚的結論極易獲得傳播。另一方面則是對這種悲觀論調的警惕,以及對科學研究被過度簡化和意識形態化的擔憂。將一項初步的、探索性的研究結果解讀爲對AI的最終審判,無益於科學的健康發展。更審慎、更細緻的討論是必要的。

參考文獻:

https://www.nature.com/articles/d41586-025-02005-y

https://www.nature.com/articles/d41586-025-00292-z

https://thebsdetector.substack.com/p/the-cognitive-debt-of-digging-through