超七成受訪大學生希望提升研發技術減少“AI幻覺”
“AI在文獻檢索上的效率確實無可替代,能快速聚合相關研究,但當AI撰寫新聞稿時,偶爾會對信息進行錯誤拼接,甚至虛構信息來填補報道空白。”作爲新聞傳播相關專業學生,就讀於中國海洋大學的瞿銳捷對AI的使用始終保持警惕,這種警惕源於對新聞真實原則的堅守:“新聞的生命在於真實,而AI生成的內容往往遊走在‘看似合理’與‘事實錯誤’的灰色地帶,稍不注意就會觸碰新聞失實的紅線。”
所謂“AI幻覺”,指的是AI會生成看似合理實際卻錯誤的信息,常見的表現是編造一些不存在的事實或細節。近期,中國青年報·中青校媒面向全國各地的大學生針對“AI幻覺”話題開展問卷調查,共回收有效問卷1461份。調查顯示,97.%受訪大學遇到過AI提供錯誤或虛假信息的情況。
AI給出的就是“完美答案”?
來自華南農業大學歷史學專業的戴瑞對AI並不陌生。戴瑞第一次領教AI幻覺,是在寫論文找文獻時。“把主題‘喂’給AI,它會編出不存在的學者、論文,還像模像樣的,但去知網一搜,根本查不到相關信息。”如果不加覈查,那些虛構的作者和論文都能被老師一眼識破。
除了編造文獻,AI還會犯“張冠李戴”的錯。戴瑞曾讓AI梳理歷史事件,結果年份和史實對不上,“比如把A年份的事件說成在B年份發生,或者把甲做的事說成乙做的”。這些錯誤讓她不得不返工,“本以爲大功告成,結果前面全是虛假信息,只能推倒重來,重新覈對史料”。
調查顯示,在受訪大學生使用AI時,57.63%受訪者遇到過數據或案例引用錯誤,55.03%受訪者面臨過學術參考文獻推薦錯誤,50.86%受訪者遇到過AI給出的常識性知識錯誤。
在上海一所高校讀博士的申傑也經常遇到AI反饋虛假文獻的情況。AI會給出一些文獻的鏈接,但點進去後是“404”,也有時AI不提供來源鏈接,申傑按照文獻名到學術論文網站上檢索後,發現“查無此文”。“當我給AI工具反饋這篇文章不存在時,它還會‘嘴硬’,說這是因爲我沒有認真檢索,還會給出一個假的論文來源鏈接。”當申傑拿出“實錘”——檢索截圖,AI工具則一言不發,或者開始道歉。
即將就讀於復旦大學馬克思主義哲學專業的班世釗,回想起去年決定研究生報考方向時諮詢AI的情景,覺得AI給出的建議並不總是貼合實際。
“雖然AI對於標準明晰的指標分析非常理性,但是一旦涉及更加複雜的情感決策時,它就容易出現偏離實際甚至是胡編亂造的情況。AI爲了說服我選擇一位導師,編造出了這位老師從未公開發表過的言論。”
在一次簡歷投遞前,就讀於華東師範大學播音與主持藝術專業的高育格請AI潤色她的簡歷。“AI爲了‘佐證’我的能力,編造出了這個項目的商業交易總額、場觀人次等數據。”作爲活動的親歷者,她感到啼笑皆非。
談及AI幻覺的社會影響,瞿銳捷很認可北京大學新聞與傳播學院教授胡泳關於“AI內容生態”的觀點:“當社交媒體90%的內容由AI生成,且公衆缺乏甄別能力時,就會陷入李普曼所說的‘擬態環境’困境——人們認知的世界不再是真實世界,而是AI建構的虛假鏡像。”瞿銳捷覺得更值得警惕的是AI的認知偏向,“比如我曾問過不同國家的AI模型什麼是‘世界最偉大的四個字’,它們會給出不同答案,這本質上是算法背後的價值預設在起作用,若被當作‘客觀事實’傳播,會潛移默化地影響公衆。”
談及AI幻覺的影響,戴瑞認爲對學術衝擊很大:“歷史研究靠史實說話,AI編造的虛假史實完全不符合規範。要是連年代、事件都錯了,基本史實都保證不了。”
調查顯示,導致作業/論文/工作出現錯誤(57.70%)、浪費大量時間驗證信息(52.29%)、誤導決策或研究方向(44.35%)都是受訪大學生認爲AI幻覺帶來的不良影響。
“寫專業課作業、搜尋史料時不用AI,得自己翻書查文獻;但寫諸如發言稿、總結綱要時,使用能節省時間。”戴瑞強調,AI帶來的是靈感還是抄襲,全在一念之間,“別讓自己的思維變懶惰、變僵化。”
理解AI規則,撥開信息迷霧
申傑在一則新聞上看到,一位用戶向AI工具提問,某座城市的立交橋爲什麼採用某種設計方式。然而,這個問題本身就有問題,該城市的立交橋設計並非用戶描述的那樣,但AI工具沒有指出問題的謬誤,而是迎合提問者,編出一套理由來回應。“有些AI模型的底層邏輯,就是要優先回答用戶的問題,而不是先判斷用戶提問是否符合實情。還有一些AI工具不聯網,就更容易給出偏離事實的答案。”
班世釗觀察到,當AI無法調用已有資源解答他的困惑時,它往往會搜尋甚至編造一些看似和他情形相近的例子試圖說服他。有時AI回覆“那麼我可以從以下具體案例入手”“應該結合一些具體案例”,事實上這些案例往往真假參半。
AI的這一特性引起了班世釗的興趣。他比較了幾款熱門AI軟件的解答思路,感受到“AI幻覺”的產生或許是源自它們極強的“服務意識”:它們一直試圖爲用戶提供邏輯閉環、有頭有尾的“滿分”解答,即便是面對超出它分析能力的提問,它也會“冒險”作答。
在新聞實操中,瞿銳捷多次遭遇AI的“幻覺陷阱”。例如在專業課上,老師要求模擬報道珠海某新聞事件時,由於官方信源有限,AI竟自行編撰“內部文件”和“匿名訪談”來補充細節。“這些內容邏輯自洽,甚至標註了‘據知情人士透露’,但溯源後我發現這些全是虛構的——這其實是AI在訓練數據不足時,通過算法預測進行的‘信息補全’,但這卻違背了新聞採集中‘信源可追溯’的基本要求。”
當懷疑AI提供的信息存在問題時,65.43%受訪者會使用其他搜索渠道交叉驗證,60.37%受訪者會查閱權威書籍或者文獻,45.79%受訪者會諮詢老師或者專業人士,42.09%受訪者會通過實踐操作驗證。
如今,覈實信息已經成爲高育格使用AI時必不可少的步驟。她有時覺得自己不像是發出指令的用戶,反而像是AI的檢測員。雖然大部分錯誤她能夠一眼看出,但是面對陌生領域的知識時,她也會感到力不從心,而一些“七分真三分假”的文本更是大大增加了她檢驗的時間成本。“每次大費周章覈實信息之後,我都會產生‘還不如自己寫’的心情。”
申傑發現,一些AI工具在給出涉及健康、安全領域的答案時,會有特別提示。他最近幫朋友詢問了耳鳴和手指發麻可能是什麼問題,AI工具回答的第一句話,就是“重要聲明:我是人工智能,無法提供醫療建議。以下信息僅供參考……強烈建議儘快諮詢醫生”,“儘快諮詢醫生”還被加粗顯示。“這在一定程度上能讓用戶警惕,AI的話不能全信。”
善用而不輕信,用理性思維校準“AI濾鏡”
“會不會是我們對於AI的期待太高了?”對於班世釗而言,“AI幻覺”的存在使他重新思考自己與AI的關係。他一度認爲,AI所呈現出的超強檢索、整合與輸出能力能夠幫助他抵達思考的最後一站;而在一次次複雜情境之中,他意識到AI終究難以深入理解個體的真實處境,AI可以成爲他的有力助手,但不該由它們按下決策鍵。
調查發現,12.66%受訪者對AI幻覺表示非常擔憂,48.67%受訪者表示比較擔憂並在使用時格外謹慎,32.03%受訪者認爲這是技術發展的正常現象,6.64%受訪者對AI幻覺並不擔憂。
爲了避免被AI誤導,戴瑞會用知網或專業數據庫交叉驗證。她儘量不去依賴求助老師,主要靠自己查證,“老師大多反對用AI找史料,認爲這會丟了歷史學科的嚴謹性,但支持用AI做總結或梳理思路”。
在瞿銳捷看來,在AI時代必須強化AI素養:“這不僅是辨別信息真僞,更要理解AI生成內容的邏輯——它本質上是對既有數據的重組,而非原創。就像寫新聞時,AI可以幫你提煉政策背景的大綱,但採訪細節、信源覈實必須親力親爲。”他建議學校在課程體系中融入“AI內容甄別”模塊:“比如通過案例教學,分析AI如何編造信源,或開展模擬報道實訓,要求用AI輔助但必須標註每處信息的溯源過程,以此強化‘求證意識’。”
要判斷AI給出的信息是真是假,用戶需要哪些層面的能力?
申傑專門就此問題詢問了AI,得到的答案是需要知識儲備、批判性思維和主動查證的能力,以及對AI工作原理的理解和使用AI工具的實踐經驗。其中後兩項是可以通過特定的培養和訓練來實現的,正因如此,他覺得提升AI素養、彌合數字鴻溝的科普課程是必要的。
“代際反哺也很重要,年輕人也可以給自己的長輩多做普及。”申傑覺得如果把AI當作“大腦”來使用,可能比較容易被AI幻覺影響,“但如果仍保有自己的思考,只把AI當作輔助消化的‘腸胃’,能更好地排除AI生成內容的不良影響”。
調查發現,74.26%受訪者希望提升研發技術、優化算法模型、嚴格數據治理,63.79%受訪者希望完善人工審覈干預與用戶反饋機制,58.25%受訪者希望開發實時糾錯提示功能,50.31%受訪者期待AI向用戶明確標註信息可信度,39.01%受訪者希望制定行業標準、加強監管力度與從業人員教育培訓。
瞿銳捷最期待AI工具“信源透明度”能夠提高:“就像學術論文必須標註參考文獻,AI生成的每一條事實性信息都應附上溯源鏈接,這可以降低用戶的核實成本。”
在高育格看來,AI對用戶足夠“坦誠”或許可以成爲研發團隊的下一步目標。如果信息並非源自權威期刊或是官方報道,那麼AI應當充分、清晰地提示這一點。“我所需要的不是一個完美的外殼,而是有紮實基礎的答卷。”
(應受訪者要求,申傑爲化名)
來源:中國青年報客戶端