小心金融歧視/他山之石 積極掃除代理偏見
AI時代來臨,演算法可能隱藏歧視,不少金融機構改用看似中立的變項,如郵遞區號等,本以爲可消除歧視,殊不知,這些變項仍隱含敏感特徵,形成另一種「代理歧視」。有鑑於此,不少國外監理機關透過法令及演算法審查,來阻絕歧視。
新光人壽副總廖晨旭表示,傳統金融機構經常使用性別、種族、身心障等項目,評估危險發生率,有些國家立法禁止,於是金融機構改採替代變項,如健康行爲、郵遞區號等。偏偏有些地方的郵遞區號會與特定族羣高度重疊,本要消除歧視,卻還是讓少數族羣貸款困難。
臺灣也有類似情況,像臺北市大安區的仁愛路、敦化南路等路段,聚集了不少豪宅、高收入人士,這裡的郵遞區號,就隱含了較高的社經地位;有些新資料,會採用民衆的社羣媒體行爲或瀏覽紀錄,實則也有敏感的年齡、宗教、教育程度、種族等資訊在其中。
去年生效的《歐盟人工智能法案》(AI Act)要求對高風險演算法,進行代理歧視檢測與修正,並將保險公司的定價與覈保列爲最高風險等級,演算法須送審後纔可上架。
美國紐約州、加州保險監理機關,則明文禁止使用「與敏感特徵高度相關」但無合理目的的變項。(系列完)