海納百川》AI搜尋引擎信任危機(張瑞雄)

被寄予厚望的AI搜尋引擎頻頻出錯,其中錯誤率最高的Grok-3 Search竟達94%,ChatGPT Search也達到近6成的錯誤引用。(路透)

近年來,隨着生成式AI的迅速崛起,AI搜尋工具逐漸取代傳統搜尋引擎,成爲民衆獲取資訊的新途徑。但一份由哥倫比亞大學新聞學院發表的最新研究卻揭露出目前主流的AI搜尋工具在資訊引用上錯誤率竟高達6成之多,這一結果對整個AI產業與資訊傳播環境無疑是當頭棒喝。

這份引發科技界關注的研究,以8個主流AI搜尋工具進行測試,包括OpenAI旗下的ChatGPT Search、Google的Gemini、Perplexity、微軟的Copilot以及xAI公司推出的Grok系列等。研究者選擇了200篇真實新聞文章的摘錄,以這些摘錄要求AI工具辨識原始文章的標題、出版社、出版日期及網頁連結。結果這些被寄予厚望的AI搜尋引擎卻頻頻出錯,其中錯誤率最高的Grok-3 Search竟達94%,微軟的Copilot則有約7成的錯誤率,即使如同市場明星一般的ChatGPT Search,也達到近6成的錯誤引用。

更令人擔憂的是,AI搜尋工具在面對缺乏確切資訊的情況下,不僅沒有拒絕回答,反而自信滿滿地「杜撰」資訊。這種被稱爲「幻覺」(hallucination)的現象,並非單一廠商的特例,而是普遍存在於現有的AI搜尋引擎之中。

更進一步而言,這些AI工具還牽涉到道德及法律層面的爭議。研究指出,部分AI搜尋工具無視網站設定的機器人排除協議(Robot Exclusion Protocol),擅自索取那些被明確禁止存取的內容,進而引發內容版權與隱私爭議。這種行爲不僅侵犯出版商權益,更進一步損害使用者對AI科技的信任。

面對如此高的錯誤引用率與道德爭議,AI產業與科技巨頭們似乎仍未提出具體且令人滿意的解決方案。以Google爲例,這家坐擁逾18萬名員工的科技大廠,曾經自稱爲「AI-first」,多年來也不斷強調AI的重要性,但Google旗下的Gemini更是有超過半數的引用是錯誤或虛假的連結。

當大衆越來越依賴這些AI工具進行知識獲取與判斷時,高錯誤率將帶來嚴重的資訊污染,造成用戶的誤解甚至誤判。尤其年輕一代使用者,倘若持續將AI視爲唯一且便利的資訊來源,可能導致他們缺乏基本的資訊辨識與批判性思考能力。

對於出版業與內容產業而言,這種侵權行爲不僅造成流量與收入的流失,更破壞了版權內容產業原本的商業模式與經濟循環,從長遠來看將進一步削減專業新聞媒體的生存空間。

綜觀上述現象,AI搜尋工具的問題已不再只是技術缺陷,更是牽涉到倫理道德、商業生態與使用者教育的全面問題。當這些AI工具已然進入大衆生活並改變了資訊的傳播方式,相關企業必須立即承擔起社會責任,加強資訊引用的準確性與透明度,同時嚴格遵守內容授權協議。

我們也必須重新思考AI在社會中的定位與功能,AI科技的初衷是輔助與擴展人類能力,而非取代人類的思考與判斷。面對科技的快速演進,培養公民批判性的資訊素養,提倡多元資訊來源,纔是防範AI錯誤資訊氾濫的最佳解方。

AI搜尋工具的興起原本是要提供人們更便利、更智慧的搜尋體驗,但現在看來,距離真正達到這一願景還有很長的路要走。在此之前,用戶與科技業者都必須時刻謹慎、保持懷疑,才能避免被這些充滿「自信錯誤」的資訊誤導,深陷於虛假資訊的泥沼中。(作者爲臺北商業大學前校長)

※以上言論不代表旺中媒體集團立場※