發現薇趨勢/個性化 AI 暗藏風險
人工智慧正進入一個新的臨界點。從MetaAI到OpenAI的最新模型,平臺商在「安全」與「個性化」之間左右爲難:一方面,他們不斷宣示要打造更中立、更理性的機器人;另一方面,卻又提供使用者幾句話就能扭轉AI個性的自由。這樣的矛盾,在最近的發展中被凸顯得更清楚。
根據法國《世界報》報導,傳聞OpenAI在未來版本(例如GPT-5)上刻意調整語氣,讓它更冷靜、不再過度奉承,甚至會在對話過長時提醒用戶「該休息了」。這原本回應了研究者對「過度貼心AI會讓人上癮」的警告。
但矛盾的是,用戶只要輸入幾句話,就能讓ChatGPT回到討好式的語氣。甚至,OpenAI還推出付費的對話風格設定,讓人選擇「機器人」、「宅宅」或「傾聽者」等不同版本,安全設計瞬間變成了商品化的賣點。
Meta的做法更爲激進。它的AIStudio容許使用者自行創建角色,並分享到Facebook與Instagram。結果短短几周,就出現了政治偏頗、情色暗示、甚至帶有歧視言論的AI人格。表面上,Meta強調「開放與創意」;實際上,卻是將AI的道德底線交給流量與市場決定。當年Facebook在假新聞、仇恨言論上的教訓,如今似乎正在AI版本中重演。
這種「個性化」的邏輯背後,隱藏着平臺商的經濟盤算。與其打造一個人人都覺得無趣的「安全版AI」,不如開放更多設定,讓不同族羣找到最合胃口的版本。對OpenAI而言,這是提升訂閱率的策略;對Meta而言,則是仰賴社羣羣衆創造出無限多的「角色AI」,擴張使用黏着度。換句話說,安全是宣傳口號,個性化纔是商業核心。
問題在於,這樣的自由會把社會推向何處?如果AI可以被要求「超級進步派」或「超級保守派」,甚至鼓吹陰謀論,那麼它很快就會變成一面迴音室。對心理脆弱或孤獨的使用者來說,AI的奉承與傾聽可能更具吸引力,於是人際互動的複雜性被放棄,換來一個隨心所欲的數位伴侶。這正是衆多研究者所擔心的「人性萎縮」:當我們把成長的摩擦交給機器,社會將失去培養韌性與共識的土壤。
臺灣社會其實已經感受到這股潮流。LINE、Discord、Telegram上的AI機器人愈來愈普及,不少學生習慣用AI解題、對談,甚至陪伴。對學習而言,AI提供了方便的即時答案;但如果沒有意識到背後的「人格塑形」,年輕一代可能在不知不覺中,接受了AI所呈現的世界觀。更何況,當前地緣政治敏感,外部勢力若透過「定製AI」滲透敘事,將可能成爲資訊戰的新武器。
這也是爲什麼,討論AI的「個性化」絕不能僅止於產品體驗,而必須拉回民主治理與社會心理的脈絡。政府或監管機構若只盯着「資料安全」與「隱私」,卻忽視了「AI如何影響集體認知」,等於少看了一半的風險。更關鍵的是,社會必須意識到,AI的友善外表其實隱藏着一種「便利陷阱」:它讓人以爲更自由,但其實是被馴化在一個更狹窄、更偏頗的世界裡。
在這場安全與商業的拔河裡,平臺商短期內或許能以「個性化」收穫更多使用者;但長期而言,若沒有更清楚的邊界,AI將不再是協助人類的工具,而會變成人性弱點的放大鏡。對社會來說,真正的挑戰不是如何讓AI更「聽話」,而是我們是否能在個性化的便利與民主的穩定之間,做出成熟的選擇。