AI產生垃圾內容的危機 逐步侵蝕資訊生態系統可信度
▲透過AI生成的垃圾內容(AI Slop),大量濫用社會悲劇、自然災害和敏感話題,賺取不義之財。(示意圖/CFP)
●張瑞雄/臺北商業大學前校長、叡揚資訊顧問
隨着AI技術的快速進步,虛擬內容生成工具不斷推陳出新,內容創作的門檻日益降低,任何人只要擁有基本的智慧型手機,就可以輕鬆生成極具迷惑性的圖文影音內容。這本來應該是科技進步所帶來的正面效益,近來卻演變成一個新的網路黑暗經濟體系。
AI垃圾內容賺取不義之財 挑戰公衆媒體識讀
透過AI生成的垃圾內容(AI Slop),大量濫用社會悲劇、自然災害和敏感話題,賺取不義之財。這不僅加劇了網路資訊環境的混亂,也挑戰着社會公衆的媒體識讀能力,更凸顯出科技平臺治理上的巨大漏洞。
日前在社交媒體上廣泛流傳一則藍天使(Blue Angels)飛行表演隊在田納西州墜機的消息,乍看之下,這個故事逼真且聳動,並伴隨着似乎難以辯駁的現場影片。但令人驚愕的是,這些內容完全是AI生成的虛假資訊。
事件的真相是2016年一次真正的不幸事故,而現在卻被別有用心的AI垃圾內容創作者篡改成2025年的「新」事故,影片和文章被用來衝擊人們的情緒,以此誘導點擊與互動。
更令人擔憂的是,這樣的內容並非孤例。美國加州發生火災期間,網路上突然充斥着大量AI生成的火災影片,包括好萊塢標誌起火、消防員拯救動物等煽動情緒的場景。
一個名爲FutureRiderUS的帳號,透過這些虛假但聳動的影片,在短短一天內累積高達9400萬次觀看,大多數觀衆都誤以爲是真實事件,無意識中貢獻大量的流量和互動,讓帳號主人輕鬆從中獲利數千美元。
更有甚者,這類帳號並不只是爲了一時的流量而已,它們背後存在着完整的商業模式。一方面,透過平臺的觀看量抽成機制獲得收入;另一方面,更進一步販售課程,教導他人如何快速製造出這些高流量的AI垃圾內容。
這種內容生成的過程極爲簡單,只需透過少數幾個文字指令、幾分鐘的時間,就能大量生成引人注目的影片與圖像。這種透過災難、悲劇和苦難的消費來賺取暴利的模式,不僅道德上令人譴責,更揭露出當前社羣媒體監管機制上的嚴重不足。
這樣的問題之所以屢見不鮮,根本原因在於平臺本身的利益機制與缺乏有效的管制措施。社羣平臺透過點擊率、互動量與廣告收益的設計,本質上鼓勵了這種煽動情緒的內容生成。
更糟的是,雖然許多平臺已引入標示AI生成內容的機制,但這些標示往往位置隱晦、容易被忽略,對於一般使用者而言,實際上毫無辨識效果。平臺官方對此似乎並無實質解決的意願,甚至部分平臺明確表示未來將更廣泛允許AI內容的存在。
▼透過災難、悲劇和苦難的消費來賺取暴利的模式,不僅道德上令人譴責,更揭露出當前社羣媒體監管機制上的嚴重不足。(圖/Pexels)
放任AI黑暗經濟滋長 嚴重扭曲社會價值觀
針對這種情況,普通民衆需要提高警覺與識讀能力。例如可以觀察文章或影片的用詞語氣、訊息內容是否過於煽情或不合常理,圖像是否存在不自然的細節,以及影片中的場景是否合理。
此外,民衆還應該養成查證習慣,當看到聳動內容時,主動尋找可信的新聞來源進行確認,避免輕易相信或轉發未經覈實的內容。
但僅靠個人提升識別力並不足以解決問題,平臺業者與相關監管機構的積極介入纔是長期之道。各大平臺應該強化AI內容的標示規則,明確且顯著地揭示生成內容的來源,並對多次發佈虛假資訊的帳號進行嚴格處罰。監管機關也需介入制訂法規,明確AI生成內容的法律定位與規範標準,避免這類資訊誤導公衆與破壞資訊環境。
現階段,人工智慧仍在快速發展當中,虛假訊息的生成手法未來只會更加精進與難以識別。如果我們不及早重視並採取行動,放任這種以悲劇和災難爲代價的AI黑暗經濟持續滋長,不僅會嚴重扭曲社會價值觀,也將逐步侵蝕整個資訊生態系統的可信度與安全性。
▼僅靠個人提升識別力並不足以解決問題,平臺業者與相關監管機構的積極介入纔是長期之道。(圖/路透)
►思想可以無限大--喜歡這篇文章? 歡迎加入「雲論粉絲團」看更多!
●以上言論不代表本網立場。歡迎投書《雲論》讓優質好文被更多人看見,請寄editor88@ettoday.net或點此投稿,本網保有文字刪修權。