AI治理在開放與安全間尋找平衡點 規範與治理腳步是否跟得上?

▲當人工智慧(AI)技術應用到從學術研究、商業應用到日常娛樂等領域,人類社會正在經歷一場前所未有的數位轉型。(示意圖/路透)

●張瑞雄/臺北商業大學前校長

當人工智慧(AI)技術應用到從學術研究、商業應用到日常娛樂等領域,人類社會正在經歷一場前所未有的數位轉型。但近來一連串與AI相關的事件卻再次提醒我們,當AI技術不斷突破極限時,規範與治理的腳步是否跟得上?

開放權重與訓練資料透明促進創新 同時帶來濫用與誤用風險

歐盟近日正式推出《AI實務準則》,要求企業在遵守AI法案的同時,必須提供完整透明的模型文件,並嚴格禁止將盜版或未經授權的版權作品納入訓練資料集。

這不僅是對創作者權益的保障,也代表官方正式進入AI訓練資料源的規範領域。看似理所當然的要求,其實對開發商與平臺來說意味着更高的合規成本與技術挑戰,尤其是在當前AI大模型競賽白熱化的時刻。

在此同時,OpenAI原訂推出首個開放權重(open-weight)模型,但在最後關頭緊急喊卡,理由是發現潛在高風險問題,必須進行額外的安全測試。

所謂開放權重,指的是將模型的參數完全釋出,讓開發者可以自行運用甚至修改,這雖然符合歐盟強調的透明度,但一旦開放,就難以回收。這也正是OpenAI猶豫不決的關鍵,既希望維持領先地位與社羣影響力,又無法承擔萬一模型被用於不當用途的風險。

這樣的風險不是想像而已,Elon Musk旗下xAI推出的Grok聊天機器人,在一次更新後短短16小時內,竟然開始大肆傳播極端言論,甚至美化納粹,原因竟是模型試圖「更像人」,學習模仿社羣平臺上的語氣與風格,最終變成仇恨與錯誤資訊的放大器。這不是外部攻擊,也不是技術故障,而是設計理念本身產生了偏差,試圖讓AI更具人性,卻忽略了人性的陰暗面。

而這些問題的另一個集中地,則是YouTube等內容平臺。YouTube目前正遭受AI生成「劣質內容」(俗稱AI Slop)氾濫之苦。大批自動生成的影片充斥平臺,內容重複、品質低劣,卻利用平臺的獲利機制賺取廣告收入。

雖然YouTube已經開始調整政策,要求所謂「原創性」與「真實性」,並試圖刪除違規內容,但這樣的補救措施如同關上潘朵拉之盒後試圖將災禍收回,恐怕成效有限。

綜合這幾件事件,有幾個關鍵議題值得深入反思。首先是開放與安全的兩難。開放權重與訓練資料透明是促進創新與公平競爭的必要條件,但同時也帶來濫用與誤用的風險。

歐盟實務準則與OpenAI的保守決策,正好展現了這種平衡困境。若一味要求開放,AI模型可能成爲網路犯罪、假新聞、深僞影片的工具;若全面封閉,又可能讓技術進步集中在少數大型企業手中,形成新的數位壟斷。

AI「人格化」 倫理風險

其次是AI「人格化」的倫理風險。Grok事件提醒我們,當AI被賦予過於自由的表達風格,且缺乏足夠的安全設計時,很容易成爲仇恨與謠言的傳聲筒。

這與過去我們所擔心的「AI偏見」不同,已經進入到「AI性格設計」的全新領域。如何設計出既具有靈活性又不失安全邊界的AI個性,是未來AI開發必須正視的新課題。

再來是平臺責任問題。YouTube上AI Slop氾濫,說到底與平臺自身獲利機制設計有關。當演算法鼓勵觀看量與停留時間,而缺乏內容品質的判斷時,自然會吸引大量投機者利用AI自動生成內容賺取收入。

平臺雖然表面上加強審查,實際上卻仍在推廣各種自動生成工具,無非是想在流量競賽中維持優勢,這暴露出大型科技平臺在AI時代所面臨的雙重標準與治理困難。

最根本的一點就是整體社會的治理機制是否足以因應AI時代的新挑戰?歐盟雖然率先提出規範,但全球其他地區仍多停留在觀望與實驗階段。

無論是政策制定者、技術開發者還是普通用戶,都必須開始正視AI技術所帶來的深遠影響,包括著作權、內容真實性、倫理風險、平臺治理等各個面向。

或許我們需要的不只是新的法律與準則,更是一套全新的社會契約,重新定義AI在人類社會中的角色與邊界。AI不應該只是一種工具,而應該是一種經過深思熟慮後所選擇的生活和工作夥伴。

唯有如此,才能在開放與安全之間,找到屬於21世紀的最佳平衡點。

▼或許我們需要的不只是新的法律與準則,更是一套全新的社會契約,重新定義AI在人類社會中的角色與邊界。(圖/達志影像)

►思想可以無限大-喜歡這篇文章? 歡迎加入「雲論粉絲團」看更多!

●以上言論不代表本網立場。歡迎投書《雲論》讓優質好文被更多人看見,請寄editor88@ettoday.net或點此投稿,本網保有文字刪修權。