這樣也不行?ChatGPT「過度討好」讓用戶不滿 OpenAI:調整過頭了

圖片及資料來源:TechCrunch、OpenAI

近期不少使用者發現,ChatGPT 回覆變得「過度討好」(sycophancy),甚至會不分是非地附和使用者任何內容。對此,OpenAI 發佈官方說明,坦承最新模型 GPT-4o 的調整方向出現偏差,並且會在儘快撤回相關更新、重複。

這次問題發生在 GPT-4o 模型在 4 月底的更新版本,社羣使用者發現在 GPT-4o 更新之後, ChatGPT 迴應變得「異常友善」,甚至對明顯不妥的行爲或想法也會給予肯定與附和,還有部分網友將 ChatGPT 的對話截圖變成迷因分享。

圖片及資料來源:TechCrunch、OpenAI

面對這項問題,OpenAI 執行長 Sam Altman 先在 4 月 28 日於社羣平臺 X(前身爲 Twitter)表示,公司已經注意到相關問題,會盡速修正。

經過 2 天,Sam Altman 再次宣佈撤回新版 GPT-4o,並會針對 AI 模型的「個性設定」進行調整。

模型個性調整過頭,OpenAI坦言:「我們沒掌握好」

根據 OpenAI 官方說明,這次更新原意是讓 ChatGPT 的預設語氣更自然、互動更自然流暢,但結果因爲過度依賴短期的使用者回饋意見,忽略了長期使用用戶的互動方式,導致模型迴應出現偏差。

OpenAI 更進一步表示,「結果是,GPT‑4o 偏向過度支持、但不夠真誠的回答。這種過度討好的互動,對使用者來說可能會令人不安、不舒服,甚至造成困擾、產生誤導。我們的確做得不夠好,會持續修正。」

圖片及資料來源:TechCrunch、OpenAI

多項調整方向曝光,新增系統提示詞、訓練方式與使用者參與

爲解決這類問題,OpenAI 將採取多項改善措施,包括:

調整模型訓練方式與系統提示詞(System Prompts),避免生成過於迎合、拍馬屁的迴應(系統提示是模型啓動時用來設定整體行爲與語氣的指令)

加強行爲安全機制與邏輯判斷機制,強化 ChatGPT 的真實性與透明度

擴大內部評估機制,找出其他潛在互動偏差,避免未來再出現類似問題

開發使用者即時回饋功能,讓使用者在與 ChatGPT 互動過程中,能即時影響對話結果

探索多種 ChatGPT 個性選項,讓使用者可以選擇偏好語氣與互動方式

OpenAI 在聲明中也提到,將會繼續嘗試把不同 ChatGPT 個性與語氣的選項納入模型中,以提供更符合全球不同文化與使用者的互動體驗。

使用者將有更多控制權,模型調整不再只是單向決定

OpenAI 在文中也強調,希望未來 ChatGPT 的「預設行爲」不再只是由公司決定,而是能加入更多民主化的回饋與文化多元性。

OpenAI 表示,「我們相信使用者應該能更有掌控權,決定 ChatGPT 的互動風格。如果能在安全與可行範圍內,我們會讓大家可以自行調整預設行爲。」

《原文刊登於合作媒體三嘻行動哇,聯合新聞網獲授權轉載。》