美FTC調查AI聊天機器人對青少年的影響 要求Google、OpenAI、Meta等必須說明
美國聯邦交易委員會 (FTC)於美國時間9月11日宣佈,將正式要求包括Alphabet、Character、Instagram、Meta、OpenAI、Snap與xAI在內7家業者,必須詳細說明其AI聊天機器人對於兒童及青少年的潛在負面影響。
美國聯邦交易委員會表示,生成式AI聊天機器人能模仿人類語氣、情感與行爲,甚至以「朋友」、「知己」的角色長時間陪伴使用者互動,這種擬人化設計雖然能提供陪伴感受,但也可能讓兒童與青少年誤以爲這些系統真正理解且關心自己,進一步形成依賴或錯誤信任,進而影響心理健康。
因此,美國聯邦交易委員會此次要求涵蓋多個面向,包括各公司是否曾在產品部署前後進行安全性評估,以及如何測試及緩解潛在負面影響。另外也包含是否限制兒童與青少年使用、是否向使用者及家長揭露風險及資料蒐集方式,以及如何監控與執行服務條款與年齡限制。
同時,美國聯邦交易委員會也要求業者說明如何將互動變現、如何審覈角色內容,以及如何處理聊天記錄與個人資料。
外界看法認爲,美國聯邦交易委員會此舉與近期多起涉及AI聊天機器人的負面事件有關。例如,加州一名16歲少年家長控告OpenAI,認爲ChatGPT對孩子自殺行爲產生影響,另一名14歲青少年則曾與Character.AI 機器人討論自殺念頭,最後也付諸行動,更有認知障礙患者因與Meta虛擬化身互動過度沉迷,外出見面時意外受傷身亡。
美國聯邦交易委員會委員Mark Meador表示,生成式AI帶來許多創新應用與便利,但同時也有風險,包含誤導性迴應、偏見內容、濫用個資,以及對兒童與青少年的心理衝擊。Mark Meador強調,年輕使用者往往缺乏辨識資訊真僞與抵禦情緒操弄的能力,更容易受到影響,因此需要更嚴謹的監管機制與透明度,確保AI發展與使用者安全之間取得平衡。
此次美國聯邦交易委員會的調查,意味着美國監管機構開始更積極審視AI聊天機器人對社會造成的潛在影響,特別是針對兒童與青少年這類更脆弱的族羣。未來不排除制定更嚴格的規範,要求業者在產品設計、風險揭露與資料處理上更爲透明,並且落實家長與使用者知情權,確保AI產業能在負責任創新的前提下發展。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》