K時評:以訛傳訛 DeepSeek向王一博道歉或爲“烏龍事件”

《科創板日報》7月4日訊(記者 張洋洋)今日,一則“DeepSeek就不實信息向王一博道歉”的聲明在社交媒體上流傳,頭部AI平臺與頂流男明星的“糾葛”,很快就引來廣泛關注。

《科創板日報》記者查閱DeepSeek的全部官方渠道(微信公衆號、小紅書、X)後發現,該“道歉聲明”並不存在。相關言論實際是王一博的粉絲用DeepSeek生成了幾份所謂的“DeepSeek官方道歉與整改聲明”,而後經二次傳播,引發輿情,本質是一次“烏龍事件”。

截至發稿,DeepSeek公司未對此事作出正面迴應。

儘管並無真實聲明發布,但該事件迅速發酵,成爲AI幻覺風險對輿論誤導的又一典型案例。實際上,這類“AI生成+名人+社會熱點”的複合型事件,已成爲生成式AI技術落地應用過程中的高風險問題。

在接受《科創板日報》記者採訪時,繪話智能CEO賈學鋒表示,當前AI技術仍存在系統性缺陷:

一是大模型幻覺仍是系統性問題,當前大模型靠“語言統計規律”生成內容,所以它可能會把無關的人物“湊在一起”,說得“頭頭是道”;

二是缺乏足夠的風險控制機制,特別是在生成涉及公衆人物內容時,沒有設置足夠的“事實覈驗”和“風險詞屏蔽”;

三是缺少對內容使用場景的風險預判能力,不是所有“胡說八道”都無害,一旦和熱點人物掛鉤,就有巨大負面影響。

“公衆普遍誤以爲AI在查事實,但其實它只是在造句子。”賈學鋒表示,用戶傾向於相信使用自然語言、貌似中立、貼合情緒預期的內容,而大模型正好擊中了這三點。加之AI常使用“鄭重聲明”、“深表歉意”等官方化措辭,並夾雜真實機構、人名和日期等信息碎片,極易造成“身份誤導”,讓用戶將虛構內容誤認爲權威發聲。

DeepSeek聲明事件是典型案例。多條平臺熱帖中出現的“聲明”措辭高度符合公衆對“企業迴應”的心理預期,再加上近期多起涉AI與公衆人物爭議事件堆疊,最終加速了虛假內容的廣泛傳播。

賈學鋒坦言,在技術層面,目前仍難以徹底解決AI幻覺問題,這本質上是生成式AI的底層機制所決定的。而用戶轉發這些內容時,常常不帶上下文和免責聲明,企業難以控制內容二次傳播。

賈學鋒表示,對於如何降低AI幻覺,行業正朝兩個方向推進,一是檢索增強生成(RAG),通過將模型生成和外部知識庫檢索結合,避免模型“想當然”地造句,而是引用真實資料;二是事實一致性對齊技術,自動檢測AI生成內容是否與已知事實發生矛盾,並予以干預。

此外,在模型訓練階段引入“不能胡說八道”的風險規則,也是一種有效的前置管控方式。賈學鋒判斷,未來這一方向有望產生新的底層算法突破。

“AI技術的社會影響力已遠超其早期設計時的預期,我們不能再用實驗室的方式去看待它。”賈學鋒強調,這需要技術、產品設計、用戶、監管等多方面進行升級治理。同時,也要注意在內容安全和用戶體驗之間做權衡,一刀切會犧牲AI的創造力和商業價值。

本次DeepSeek“道歉”事件,也爲整個AI行業敲響了警鐘。隨着生成式AI逐步融入傳播、輿論乃至決策鏈條,企業與監管的治理能力亟需與技術發展速度匹配。否則,下一個被誤導的,可能不僅是公衆,也可能是整個市場。