小心金融歧視/演算法偏見 須矯正
AI的誕生,有助解決一部分的社會問題,不過,AI的「先天缺陷」,如幻覺或者偏見,也需要「人」很有意識的去矯正。
玉山銀行消費金融處資深協理蔡宗樺表示,有些歧視是肉眼看不見、藏在細節裡的,演算法歧視就是其一。舉凡拿來訓練模型的資料,或是演算設計的基礎,若不仔細排除歧視,很容易把實體通路上的歧視,帶到更高速運轉的數位通路,「如此一來,實體通路的歧視,就彷彿被複制貼上到數位通路再放大。」
常見的演算法偏見,包括原先的訓練資料就存在歷史歧視、採樣不足、標註者偏見等問題,由此訓練的模型,自然而然就會「不公平」。還有一種歧視的產生,是標籤偏差,例如有銀行或保險公司,拿過去成功取得貸款或覈保的結果當標籤,其結果就是,持續複製不公。
蔡宗樺說,在臺灣,只要跟AI模型有關的議題,主管機關都特別謹慎,甚至要求銀行要建立半年度或年度的考覈機制,確認模型運作是否合理正確,減少演算法歧視。
Lydia AI共同創辦人李俊毅提到,過去看臺灣資料時,的確會發現偏鄉或某些族羣會有一些偏高的數據,如酗酒率;同樣的情況看美國資料,有些族裔也會有類似情況。這時要降低偏見,AI就必須從倫理的角度去做調整,例如去找同年齡、同性別羣裡面的標準是多少,跟對照組做比較來調整,當然這個調整的過程,必須出一個正式的報告給保險公司。
李俊毅說,在國外,要調整AI的偏見,也常會以替代性資料,比如健檢頻率、運動習慣等行爲數據,來取代敏感族羣標籤。