語音助手需有性別之分?以Alexa爲例探討

長期研究表明,男性更有可能打斷別人說話,尤其是在與女性交談時。約翰·霍普金斯大學的工程師們開展的 一項新研究 發現,這種行爲也延伸到了像Alexa和Siri這樣由人工智能驅動的語音助手身上,男性打斷它們的頻率幾乎是女性的兩倍。研究結果發表在《美國計算機協會人機交互學報》上。

這些研究結果引發了人們對語音助手設計的擔憂,尤其是採用像道歉行爲和熱情這類典型的“女性化”特質,可能會加劇性別偏見,這使得研究人員倡導設計更具性別中立性的語音工具。

“對話式語音助手常常憑藉友好的語調、有性別傾向的名字以及順從的行爲,被賦予了女性化特徵。隨着它們在我們生活中越來越普遍,我們與它們互動的方式,以及可能在不知不覺中影響這些互動的偏見,不僅會塑造人機關係,還會影響現實世界中人與人之間的社會動態,” 該研究的負責人阿瑪瑪·馬哈茂德說道,她是懷廷工程學院計算機科學系的一名研五博士生。

馬哈茂德和她的導師黃建銘(計算機科學助理教授兼直覺計算實驗室主任)在去年秋天於哥斯達黎加聖何塞舉行的 第27屆美國計算機協會計算機支持的協同工作與社會計算會議 上展示了他們關於語音助手性別與認知的研究結果。

在馬哈茂德和黃開展的實地研究中,40名參與者(19名男性和21名女性)使用語音助手模擬程序完成一項網上購物任務。他們並不知情的是,這個助手被預先設置好了會犯一些特定的錯誤,這使得研究人員能夠觀察參與者的反應。

參與者和三種語音類型進行互動,即女性語音、男性語音和中性語音,而且語音助手會通過簡單道個歉或者給點金錢補償的方式,來回應自己犯下的錯誤。

“我們研究了用戶對這些智能體的看法,重點關注像感知到的親和力、能力,還有用戶對錯誤處理的滿意度這些方面,”馬哈茂德說。“我們還分析了用戶行爲,觀察他們的反應,還有打斷語音助手的情況,以及他們的性別在迴應方式上有沒有起到作用。”

研究人員在用戶感知人工智能語音助手以及與之互動的方式上觀察到了明顯的刻板印象。例如,用戶認爲女性聲音的助手更有能力,這可能反映出一種潛在偏見,就是將某些“支持性”技能和傳統女性角色聯繫在一起。

用戶自身的性別也會影響他們的行爲——男性用戶出錯的時候更頻繁地打斷語音助手,並且對女性聲音的助手比對男性聲音的助手在社交上的迴應更多(微笑、點頭),這表明他們更偏愛女性聲音的助手。

然而,使用一個會爲出錯道歉的中性語音助手減少了不禮貌的互動和打斷行爲——儘管人們認爲這種聲音不如有性別區分的語音助手溫暖,而且更“像機器人的聲音”。

“這表明,設計具備中立特質的虛擬代理,並精心挑選像道歉這類錯誤緩解策略,就有可能讓互動更受尊重、更有成效,” 馬哈茂德說。

馬哈茂德和黃計劃探索設計能檢測出偏見行爲並實時做出調整以減少這類行爲的語音助手,從而促進更公平的互動。他們還打算在研究中納入更多非二元性別的個體,因爲這一羣體在他們最初的研究樣本里佔比不高。

“經過精心考量的設計 —— 尤其是這些代理展現性別的方式 —— 對於確保有效的用戶支持而不宣揚有害的刻板印象至關重要。最終,解決語音助手和人工智能領域的這些偏見將有助於我們創造一個更加公平的數字和社會環境,” 馬哈茂德說。