DeepSeek V3.1出現“極”字Bug,影響編碼流程

日前,DeepSeek最新版V3.1被發現存在嚴重Bug,會在代碼生成中隨機插入“極/極/extreme”等token,導致代碼無法正常編譯。這一問題不僅出現在第三方量化部署中,官方全精度版本也受影響,給依賴自動化編碼的團隊帶來極大困擾。此前DeepSeek曾出現過寫作任務語言混雜、代碼任務過擬合等問題,但此次“極”字Bug更爲嚴重,直接導致系統崩潰或代理流程卡死。

開源社區用戶復現了多種場景,發現即便在保守解碼參數下,該問題依然無法避免。初步推測可能是解碼概率分佈偏移所致,模型在機械地基於概率拼湊文本,而非真正理解文本含義,導致高頻token錯誤插入標識符中。類似穩定性問題在AI領域並非個例,Gemini也曾出現過代碼場景下的“自我否定無限循環”Bug,最終被定性爲安全層、對齊層、解碼層交互問題。

大模型的穩定性一直是行業痛點。今年年初,OpenAI社區就曾大量反饋記憶體系異常導致用戶歷史上下文丟失。Gemini的人像生成功能也曾因“多樣化”需求,將歷史人物生成爲風格不符的樣貌,最終不得不臨時下線。此外,模型提供商常做的“熱修”也可能引發問題,如換系統提示、微調溫度、更新tokenizer等,這些看似無害的調整可能打破原本的平衡,導致代理鏈在函數簽名、JSON嚴格性、工具返回格式等細節處崩潰。

越來越多的Agent與工具鏈結合,其脆弱性也逐漸暴露。多智能體系統往往在“工具調用—狀態清理—重試策略”鏈條中出現問題,如超時無兜底、失敗後無法還原上下文等。DeepSeek和Gemini的案例提醒我們,AI從“能幹活”到“能託付”,最關鍵的並非僅僅是模型層的SOTA,而是產品層面工程的穩定性,即那種即使犯錯也能被預測和控制的“確定性”。