當AI成爲公共討論調解者 「哈伯瑪斯機器」應許的理性民主承諾?

▲近年來,生成式AI逐漸從單純的文本輔助工具,轉變爲協商與治理的潛在中介者。(圖/路透)

●羅世宏/中正大學傳播系教授

近年來,生成式AI逐漸從單純的文本輔助工具,轉變爲協商與治理的潛在中介者。2024年,Google DeepMind與劍橋大學等機構合作開發的「哈伯瑪斯機器」(Habermas Machine)正式問世。這個系統號稱能夠整合羣體意見,在充滿喧囂歧見的政治議題上生成更清晰、中立且具包容性的共識文本,因此被視爲一項關於民主討論與審議機制的創新突破。

然而,在我們頌揚「理性對話的機器代理」這一技術想像之際,西北大學兩名教授加里.索爾莫森(Gary Saul Morson)與胡里奧.奧蒂諾(Julio M. Ottino)在《華爾街日報》撰文警告「哈伯瑪斯機器」所代表的,不僅是一場民主治理的實驗,更可能是另一場「中央計劃幻覺」的重演。

這場辯論的核心,正是社會哲學家哈伯瑪斯(Jürgen Habermas)與經濟學家海耶克(Friedrich Hayek)對「理性」的理解差異:一位相信理性對話可生成共識,另一位則警惕任何企圖全面規劃社會秩序的「致命自負」。

機器如何生成共識? 「哈伯瑪斯機器」的技術想像

根據google DeepMind研究團隊發表於《科學》(Science)期刊的論文,「哈伯瑪斯機器」是一套基於大型語言模型(LLM)的協商人工智慧(AI)系統,能整合數千名受試者對諸如氣候變遷、英國脫歐(Brexit)等公共議題的意見,自動生成共識性陳述,並在多輪修正後交由使用者以投票方式選出最終版本。

其研究結果顯示,AI生成的共識陳述在「資訊性」、「中立性」與「表達清晰度」上,甚至優於扮演協調者角色的人類。

此一系統被命名爲「哈伯瑪斯機器」,旨在呼應哈伯瑪斯「溝通行動理論」(theory of communicative action)中的核心理念:透過未被扭曲的公共對話過程,人們可逐步消弭誤解與偏見,進而實現以理性爲基礎的共識。

在這個理想語境中,所有參與者皆擁有平等的發言權,論證邏輯優於權威地位,而且所有對話皆共有尋求理解的共同目的。

「哈伯瑪斯機器」企圖將這種理性討論理想轉化爲演算法實作,表面上看來無疑是展現了AI在促進公共討論、消解極化的潛力。尤其在數位社羣普遍陷入資訊迴音室與情緒性發言主導的困境下,一套在各說各話的衆聲喧譁能夠「整理語言、萃取共識」的中介機制,似乎正好契合時代需求。

海耶克的反思 知識無法被集中編碼

然而,海耶克若仍在世,他對這種「AI調解民主」的願景恐怕不會太過樂觀。他在《致命的自負》(The Fatal Conceit)一書中明確指出,任何試圖以中央計劃形式解決複雜社會問題的企圖,終將因無法掌握「分散於每個人心中、因情境而定的在地知識」而失敗。

索爾莫森與奧蒂諾批評,「哈伯瑪斯機器」的背後,隱含着一種「技術解決方案主義」(techno-solutionism),假設所有社會衝突皆源於錯誤溝通(mis-communication),只要語言更清晰、資訊更完整,價值衝突就能被調解。

這種觀點忽略許多深層的社會矛盾並非語言問題,而是基於族羣、信仰、歷史創傷與零和認同的本質對立。

比方說,以色列與巴勒斯坦的衝突,並非無法溝通,而是彼此拒絕對方的存在正當性,在此情境下,任何AI所生成的「中間立場」可能不僅無效,反而會被視爲背叛。索爾莫森與奧蒂諾指出「這不是語言表述清晰與否的問題,而是世界觀與生存恐懼的衝突,而任何演算法都無法優化這類根本分歧。」

從海耶克的角度來看,「哈伯瑪斯機器」所做的不是調解,而是試圖將高度複雜、動態且嵌入在文化與歷史脈絡中的衝突,簡化爲一個「可優化的輸出問題」。

這正是中央集權者常犯的錯誤,誤以爲複雜社會如同軟體架構,可以被人爲設計,可以模組化。

當民主遭遇演算法 工具還是代理?

值得注意的是,「哈伯瑪斯機器」的設計並未取代人民投票、代議或法律程序,而是作爲公共討論的輔助工具。但其「替羣體發聲」的能力與「語言調解者」的角色,仍讓人產生「AI是否正逐漸成爲政治主體的代理者」的疑慮。

事實上,不少對此係統的批評正是來自其可能對政治倫理造成的影響。一旦我們將公共討論交由機器統整,是否也同時降低了我們彼此直接理解、溝通交往與承擔責任的意願?

正如哈伯瑪斯於《在事實與規範之間》(Between Facts and Norms)一書裡強調,民主並非僅是意見的表達與整合,更是人與人之間持續進行「互爲主體」的理性溝通與價值重塑。當AI開始取代這些對話的社會過程,是否也意味我們將失去民主的倫理基礎?

技術的界線 不應神化AI的中立性

Google DeepMind團隊強調,「哈伯瑪斯機器」在生成共識陳述時「不疏遠少數聲音,且資訊更具包容性」。然而,索爾莫森與奧蒂諾質疑,這種語言上的中立性常造成一種「全面知識的假象」,令人誤以爲機器所產生的觀點即代表整體社會聲音的均衡整合。

AI固然可以歸納文字、綜合意見,但並不意味它理解那些文字背後的痛苦、歷史與權力結構。在某些議題上,「不偏不倚」反而可能是對暴力或壓迫的默許。例如在殖民歷史、原住民族權、性別正義等議題上,所謂「共識文本」若排除政治層面的思考,很容易將衝突僞裝爲語言調解問題,進而抹除其倫理意涵與歷史深度。

▼AI固然可以歸納文字、綜合意見,但並不意味它理解那些文字背後的痛苦、歷史與權力結構。(圖/視覺中國CFP)

臺灣經驗 民主撕裂中的AI想像

在思考「哈伯瑪斯機器」的應用潛力時,臺灣或許是特別具有代表性的場域。近年來,隨着統獨認同、能源政策、疫後治理、婚姻平權、轉型正義等議題持續引起激烈對立,公共討論場域常淪爲標籤化、仇恨式的「情緒快閃戰」,甚至導致民主審議與討論品質下降。

2024年總統大選後的網路輿論場,各種敵我分明的仇恨動員都顯示,臺灣民主制度雖日益成熟,但民意對話的品質與意願卻嚴重退化。

在這樣的政治撕裂現實中,「哈伯瑪斯機器」這類AI協商技術看似提供一種「非人化的中介」解方,讓分歧各方得以透過語句統整,避免人身攻擊與對立升級。

臺灣過去有不少實驗性的網路公民參與機制,已證明「技術性中介」確實能在特定議題上緩解張力。例如,在「Uber合法化」、口罩分配與開放政府資料等議題上,透過電子民主平臺與數位工具,讓公衆討論有章法可以依循,且其討論內容可以追溯。

但這些實踐經驗也提醒我們,當政治對立與身份認同、歷史記憶、國家主權糾結在一起時,單靠語言共識無法消解根本矛盾。

舉例來說,「中華民國與臺灣的關係」無法只以共識語言表述消除其間的內在矛盾,轉型正義也難以透過中庸化與平均化的語言表述完成。

若AI在這類議題上強行生成「中立文本」,很可能反被批評爲去政治化、去脈絡化,甚至助長「技術中立神話」,掩蓋了權力並不對等的壓迫結構,並且排除了追究歷史責任的可能性。

正因如此,臺灣需要的是「具有批判意識的AI協商工具」,不僅協助整理分歧的語言表述,更要理解語境與不對等權力結構。若想讓哈伯瑪斯機器」或類似的AI工具在臺灣發揮實質民主作用,必須與在地制度設計、族羣歷史、語言差異與公民教育相結合。否則,再先進的審議與協商系統,也終將淪爲另一次「致命自負」式的演算法複製。

AI可以補位 但不能代位

從「哈伯瑪斯機器」的技術實驗中,我們可以看到生成式AI確實能在某些情境下提升討論效率、促進語言整合。但我們也必須承認,民主的核心從來不是語言的效率問題,而是公民之間彼此理解、包容與共同承擔不確定性的意願與能力。

換句話說,AI可以補位,成爲促進與完備民主程序的調解工具;但它無法代位,亦即不能取代人類社羣在衝突中學習如何共存的政治實踐。

海耶克所提醒的「致命自負」,正是對當代技術治理最深刻的提醒,若我們將複雜問題交給機器解決,最終我們所失去的,不僅是民主的程序與實作,還有對民主自由的價值信念與擔當。

▼民主的核心從來不是語言的效率問題,而是公民之間彼此理解、包容與共同承擔不確定性的意願與能力。(圖/記者李毓康攝)

►思想可以無限大-喜歡這篇文章? 歡迎加入「雲論粉絲團」看更多!

●本文轉載自「思想坦克」,以上言論不代表本網立場。歡迎投書《雲論》讓優質好文被更多人看見,請寄editor88@ettoday.net或點此投稿,本網保有文字刪修權。