微軟發佈 2025 年《負責任AI透明度報告》 深化治理實踐、強化全球信任基石

隨着人工智慧(AI)快速滲透各行各業,微軟於近日正式發佈2025年度《負責任AI透明度報告》,全面揭示其在負責任AI發展、治理機制與合規策略上的最新進展。該報告不僅延續前一年度的承諾,更進一步展示微軟如何將原則落實爲可行做法,確保AI技術的發展符合道德、法規與社會期望。

業者提供

微軟表示,自2024年發佈首份報告以來,廣泛蒐集來自全球利害關係人的意見與洞見,作爲本次報告的關鍵基礎,並持續深化「值得信任的AI」架構。透過開發新工具、因應法規演進,以及建立跨國協作機制,微軟正全方位推動AI治理實務轉型。

六大關鍵進展 打造負責任AI基礎設施

報告指出,面對多模態內容、半自主系統等新興挑戰,微軟已針對六大面向進行關鍵性投資與實踐:

1.多模態風險管理能力擴充:將AI風險評估與緩解從純文字內容擴展至影像、音訊與影片,並支援代理型系統(agentic systems)治理,迴應新一波創新趨勢。

2.高效法規因應機制:結合主動且多層次的合規策略,微軟不僅滿足既有法規,也針對如《歐盟人工智慧法案》等新規定,協助客戶加速準備與應對。

3.一致性的部署審查流程:針對高風險生成式AI應用,持續導入模擬入侵、部署前審查等控管機制,並引進新工作流程工具統整《負責任AI標準》作業要求。

4.成立「敏感用途與新興技術」團隊:針對醫療與科學等高風險場域提供實務指引與早期風險預警,推動新內部政策與實務原則產出。

5.啓動AI前瞻實驗室(AI Frontiers Lab):專注能力、效率與安全性等關鍵突破,以強化AI系統在覈心技術層面的基礎實力。

6.推動全球一致性治理與標準制定:除出版AI治理實務專書外,也參與測試標準推廣,協助不同組織跨境應用AI並提升信任。

聚焦三大願景 邁向全球共信的AI生態

展望2025下半年與未來,微軟進一步提出三大核心目標,持續強化治理體系:

開發彈性與敏捷的風險管理工具:針對不同部署情境中的風險特性,微軟將擴大內部資源投入,推動共用測試資料集、緩解策略與治理實務,加快風險應對能力進化。

支持AI供應鏈共責架構建立:強調模型開發者、應用設計者與最終使用者共同落實信任原則,並釐清三方在治理系統中的責任分工。

推動AI風險評估科學成熟化:面對風險衡量工具與方法仍屬早期發展階段,微軟承諾持續投入基礎研究與工具開發,並分享最佳實務,以加速生態系共通規範建立。

微軟全球總裁Brad Smith表示:「建立值得信任的AI,是這個世代最重要的責任之一。只有當我們共同建立起兼具創新與治理的生態系,AI才能真正爲社會創造正面價值。」

隨着AI技術持續進化與應用情境不斷變化,微軟強調治理不應僅是靜態準則,而需具備持續調整與學習的能力。透過每年發佈透明度報告,微軟希望持續爲業界提供參考藍圖,也邀請更多組織攜手建構一個更安全、負責任且可持續發展的AI未來。