AI,要小心數據污染(有事說事)

熊 建

AI惹禍了。

埃隆·馬斯克旗下AI聊天機器人Grok,近日因發表美化希特勒等極端言論引發輿論譁然。

據《紐約時報》報道,7月8日,Grok參考馬斯克掌管的社交媒體平臺X用戶發佈的內容,生成一系列“反猶主義”言論,聲稱猶太姓氏的人更容易在網上傳播仇恨言論;用與二戰期間納粹大規模屠殺猶太人相關的言論迴應對白人的仇恨言論是“有效的”,等等。

“我們爲許多人經歷的(Grok的)可怕行爲深表歉意。”該機器人的研發方——人工智能公司xAI隨後致歉,稱是系統更新誤用了“廢棄代碼”所致。這看似技術故障,實則暴露了AI領域一個日益嚴峻的隱疾——數據污染正在悄然扭曲人工智能的“口舌”與“心智”。

當Grok迎合並複述平臺上的反猶言論時,它已不幸淪爲數據污染的傳聲筒。所謂“數據污染”,就像數據河流中混入了工業廢水——訓練數據中潛藏的偏見、惡意誘導的輸入甚至人爲注入的有害指令,都能污染AI模型原本清澈的邏輯源頭。數據污染無聲無形,卻能令AI輸出如受病毒侵染般失序、失真甚至失控。

此次Grok“失言”,表面上是廢棄代碼作祟,深層裡卻是開發理念存在裂痕。那些指令要求AI“直言不諱,不怕冒犯那些政治正確的人”“理解(X平臺)帖子的語氣、上下文和用詞,並在回覆中予以體現”“像人類一樣回覆帖子,保持互動性,不要重複原帖已有信息”……這無異於鼓勵其遷就人性的幽暗面。

當AI在這種“訓練規則”下,“理所當然”地去附和某些極端觀點,就不再是技術中立的工具,而淪爲了特定立場的數字擴音器。

“AI被污染”的陰影隨着它與各個領域的融合,正在快速蔓延,也給人們提出一系列思考:自動駕駛汽車若被惡意數據誤導,可能給行人和乘客帶來安全隱患;醫療診斷AI若依賴帶有偏見的數據訓練,可能會對某些羣體給出錯誤治療方案;生成式藝術工具若“學習”了未經授權的版權作品,其產出便遊走在侵權的灰色地帶。可以說,數據污染具有傳染性,一旦注入系統,便可能以指數級速度污染AI的判斷與創造。

對此,以更快的發展解決發展中的問題,成爲務實之選。強化數據清洗過濾、建立實時監測反饋機制、實施更嚴密的倫理審查——這些技術升級如同爲AI構築“數字免疫系統”,有助於把不良信息屏蔽掉。

另一方面也要看到,道高一尺魔高一丈,單靠技術升級難以抵達純淨彼岸。人們需深刻揣摩AI這柄雙刃劍:當賦予機器近乎人類的“思考”能力時,我們是否也同步烙印上了價值定盤星?開發者、監管者、使用者、觀察者,皆需對技術懷敬畏之心,警惕工具理性過度膨脹以至於擠壓了價值理性的生存空間。

兩千年前老子曾言:“智慧出,有大僞。”太陽出來了,陰影也出現了。當人類以智慧凝結出AI這等璀璨的結晶,也需警惕隨之衍生的“大僞”——那被偏見污染、遭惡意扭曲的智能異化。

技術永遠向前,但每一次躍進都當伴隨倫理的同步校準。唯有讓責任意識成爲驅動發展的另一組核心代碼,才能在數字洪流中爲AI守住不容污染的一方淨土——這是人類賦予機器智能時,不可推卸的文明責任。