人工智能系統:不僅反映還會放大我們的偏見
人類天生就有偏見。我們的大腦愛偷懶,所以我們依靠模式、經驗,甚至無意識的影響來做決策。這可能是有用的,但也可能是不公平的,會導致偏見和非理性的判斷。
當你把人工智能加入其中時,人類的偏見會變得更加複雜。從求職申請到面部識別技術,人工智能總能影響人們去偏向某些選擇。同時,人工智能是否無偏倚取決於它所學習的數據。
根據新的研究,人工智能系統不僅反映我們的偏見——它們會讓這些偏見變得更嚴重,這導致人類隨着時間的推移逐漸變得更有偏見。
倫敦大學學院和麻省理工學院的研究人員發現,在常規的人機交互之後,小的偏見可能會變得更大。
這種影響比人與人互動時的影響要強得多,這表明我們處理和吸收人工智能生成的信息的方式有所不同。
該研究的共同牽頭作者塔利·沙羅特(Tali Sharot)表示:“人天生就有偏見,所以當我們用人類產生的數據集來訓練人工智能系統時,人工智能算法就會學到數據中所包含的人類偏見。”
“然後,人工智能往往會利用並放大這些偏見以提高其預測準確性。”
研究團隊通過一系列總共涉及1401名參與者的實驗對這一現象進行了調查。
在一項測試中,參與者被要求觀看每組12張人臉的圖片,每張圖片顯示半秒鐘。然後他們必須判斷這些臉看起來更高興還是更悲傷。
最初,參與者表現出輕微的偏向,約53%的概率將面孔歸爲悲傷類。接下來,一個名爲卷積神經網絡的人工智能系統根據這些人類判斷進行訓練。這大大增加了偏向性,約65%的概率判定面孔爲悲傷。
召集新的參與者們與有偏向性的人工智能系統互動,他們開始接受其歪曲的觀點。
當參與者不同意人工智能的判斷時,他們在近32.72%的概率下會改變自己的想法。
與此同時,在與其他人互動時,他們只有大約11.27%的時候會改變想法。這種影響在所有測試中似乎都是一致的。
除了面部表情,參與者還完成了一些測試,這些測試包含對屏幕上點的移動方向的判斷以及對其他人任務表現的評估。
研究人員發現,在與一個被故意植入性別偏見的人工智能系統互動後,參與者更有可能高估男性的表現。
該研究的共同主要作者莫舍·格利克曼(Moshe Glickman)博士說:“有偏見的人不僅會造成人工智能存在偏見,而且有偏見的人工智能系統還會改變人們自己的信念,這樣一來,使用人工智能工具的人最終在從社會判斷到基本認知等各個領域可能會變得更有偏見。”
研究結果顯示,人工智能存在的偏差使人類偏差與機器偏差相互強化的循環得以持續。
在我們繼續將人工智能系統融入醫療保健和刑事司法等領域時,理解人類與人工智能之間的這種關係至關重要。
這項研究發表在《自然人類行爲》(Nature Human Behavior)上。