是時候打破算法偏見了

5月22日,據中國網信消息顯示,“清朗·網絡平臺算法典型問題治理”專項行動開展以來,針對網民反映強烈的算法推薦加熱低俗信息、加劇“信息繭房”、加重觀點極化等問題風險,中央網信辦督促指導重點平臺針對性優化信息推薦算法功能、調整信息推薦算法規則。

近日,包括抖音、小紅書在內的重點平臺也已經圍繞正能量內容加權推薦、用戶自主選擇權保障、推薦內容多樣性優化、提升算法透明度等核心環節,系統性優化完善多項功能。

算法不應當成爲偏見的放大器,而應當成爲提升效率的工具。從本次網信辦的專項行動方向來看,可以說從提升算法透明度、破除“信息繭房”、完善推薦內容審覈、用戶賦權等多個方向上實現了算法治理的效能提升,通過多維度的制度設計與技術干預,有力打破了“算法偏見”,很大程度上免除了用戶焦慮。這不僅有助於降低用戶的APP顧慮,也能夠促進內容平臺生態的良性發展。

但與此同時我們也必須看到,相比算法有可能帶來的偏見和“信息繭房”,當下還存在一種對於算法技術本身的誤解。過去一段時間以來,內容平臺的推薦算法機制一直飽受爭議。不少人認爲,內容平臺在推薦算法加持下,只給用戶推送他們喜歡看的內容和觀點;也有一些人認爲算法技術是導致觀點的極化、加劇隔閡的源頭。

在數字時代,算法推薦技術早已滲透到人們生活的方方面面。從短視頻平臺的內容推送,到社交網絡的信息流排序,再到購物網站的個性化推薦,算法都已經成爲我們日常生活的重要幫手。從最初來看,算法推薦的核心邏輯在於通過分析用戶行爲數據,預測其興趣偏好,並精準推送相關內容。這種技術本意是爲用戶提供更高效的信息獲取體驗。

回過頭來看,所謂的“信息繭房”對於平臺方來說也並無好處。算法的偏見往往被誤解爲技術本身的缺陷,但事實上,它的成因複雜且多維。康奈爾大學教授喬恩·克萊因伯格在此前的公開演講中就曾經指出,算法沒有直接的動機去產生信息繭房。它只是試圖儘可能忠實地再現它在數據中看到的東西。

比如抖音的實踐發現,只推薦單一內容會使用戶很快厭倦,導致用戶體驗與活躍度下降,對於平臺來說也並非好事。因此,在提升內容多樣化、打破“信息繭房”等方面,平臺和用戶的利益是一致的。

說到底,算法的本質是一面鏡子,它映照出人類社會的複雜性與多樣性。信息繭房的解決不能僅依賴技術與政策,更需要用戶的主動參與和全社會的協同努力。

而今天的我們與其將偏見的形成歸咎於算法本身,不如反思我們到底應當如何更好的利用算法爲人類的需求服務。從本次清朗行動的目標也可以看到,從內容的多樣性到算法的透明度,從政策的規範性到倫理的前瞻性,國內在算法治理上的變革,正在推動算法從“工具理性”向“價值理性”邁進。

站在全球人工智能技術革命的新起點上,我們或許也是時候打破對算法技術本身的偏見了。未來要贏得當下這場至爲關鍵的全球人工智能競賽,我們沒必要也不可能阻擋算法的進化,相反,算法技術本身就是這場AI革命的重要方向。包括抖音、快手在內的科技公司,其實也是本輪AI革命的重要參與者。

在這種情況下,目前需要的是以更開放的心態擁抱技術,同時以更嚴謹和專業的態度約束其應用。唯有如此,我們才能真正駕馭這一強大的工具,推動創新和變革,讓技術能更好地服務於所有人。