與其禁止 不如有效規範AI模型
中國杭州深度求索公司發佈DeepSeek-R1模型,既供免費下載亦開放原始碼,引發熱潮。因此AI模型的功能極強,就不免有侵害隱私、資安外泄、智慧財產權侵害、言論自我審查等等疑慮,致有不少國家下令公部門禁止使用。惟這些質疑顯非DeepSeek所獨有,而是普遍存在於所有生成式AI上,故面對不斷推陳出新的AI模型,恐非禁止,而是如何以法律有效監管的問題。
任何生成式AI都須經過人類的訓練,這有賴於大量數據與資料。只是這些龐大的資訊不經由事先的合法授權或同意,就必會涉及個資及智慧財產權之侵害。在AI完成學習並已進入實用階段下,藉由其強大的搜尋與分析能力,也會涉及更大量、更廣泛的權利侵害。事實上,引領AI風潮的OpenAI在這幾年,即面對來自紐約時報、馬斯克等的集體求償訴訟。
其次,這些用以訓練AI的龐雜資訊勢必得先去除錯誤、偏見、歧視的訊息,但到底哪些資料該去除,卻又不脫人類的主觀判斷。現行AI仍須藉由人類訓練,就不可能是絕對客觀,故以DeepSeek爲例,雖可指摘其帶有中國偏見,但同樣的指摘,亦可適用於ChatGpt帶有的美國偏見。更重要的是,只要這些AI開放原始碼,任何人都可以此爲基礎,根據自己喜好而訓練出屬於自我特性之模型。
故在AI發展與使用不可逆的情勢下,各國勢必得有新的法制監管與因應。以全世界第一部AI法,即歐盟人工智慧法來說,將AI所可能帶來的危害加以層級化,即不可接受風險、高風險、有限風險與低風險,並因此爲寬嚴密度的不同規範,其中自屬不可接受與高風險AI該如何規範,最應受關注。
所謂不可接受風險的AI系統,如使用欺瞞手段影響人類決定,或利用人性弱點影響人類做出傷害行爲,甚或使用生物或人臉辨識系統來爲種族、意識形態、政治傾向等之分類與探知,皆屬嚴重侵害人類權利,除少數爲偵查特定犯罪之外,都應全面禁止。而此最高風險系統之禁止,也從今年二月二日開始生效,違者最高可處三千五百萬歐元罰金。
至於高風險的AI,如現今已被運用於醫療、教育、交通等事務者,只要能符合歐盟相關規範,就可進入市場,但業者須負有風險評估、人類可爲控制、訓練學習與輸出的透明性等義務,以確保人類不受傷害;故歐盟的人工智慧法,似已爲AI不能超越人類畫出一條紅線。
惟對於風險高低的界分仍屬模糊,勢必要有更具體的準則;至於對不可接受風險的AI,所謂禁止,到底是禁止運用,還是連開發都不行,恐也有其不確定性。更值思考的是,當AI的發展逐漸走向自主與獨立性,人類的法律,真能有效防止其反客爲主?也肯定是一大疑問。