AI時代,未成年人保護也要更“智能”

來源:人民日報海外版

AI時代,未成年人保護也要更“智能”(新媒視點)

互聯網和數字技術的發展,爲未成年人拓寬視野、發展自我提供了廣闊的空間,同時也帶來了風險與挑戰。網絡空間中的未成年人保護,是網絡空間治理的重點問題。把好這道關,數字時代未成年人身心健康纔有保障。

隨着人工智能技術快速發展,未成年人在網絡空間的發展和保護面臨各種新型問題。不知不覺間,基於生成式人工智能的各種服務,已經進入未成年人生活的方方面面。

比如,不少AI聊天助手已經成爲孩子們離不開的“夥伴”,既輔助他們展開學習、探索世界之旅,又提供精神陪伴。

但是,與未成年人從網絡平臺等公開渠道獲取信息內容不同,AI工具與未成年人的互動處於私密狀態,一旦出現不良乃至有害內容,比如對於行爲和價值觀的不良引導,無論是家長還是監管機關,都很難及時發現,也就難以評估未成年人使用人工智能工具產生的影響和風險。因此,針對聊天陪伴型的AI工具,無法簡單沿用原有針對網絡公開渠道的保護模式,需要探索針對人工智能的新型治理模式。

此外,未成年人作爲“互聯網原住民”,在運用人工智能進行開發和創作方面也十分活躍,如設計、生成各種智能體並對外傳播。

但這個過程中,也出現了未成年人自制的智能體內容低俗、擦邊的問題。由此可見,未成年人在受到不良生態影響的情況下,還可能運用人工智能技術,成爲不良內容的製作者和傳播者。這意味着,除了把未成年人作爲保護對象、防止他們接觸不良內容,還需重視正向培育和引導。建設健康安全的網絡生態,促進未成年人數字素養的提升纔是治本之措。

人工智能的發展,還讓網絡上的不良信息更容易變換形態,逃避監管。

經過長期治理,目前主要平臺上已有大批違法、有害內容得到有效清理。但還有不少對未成年人可能產生負面影響和不良引導的內容,在不斷“改頭換面”,以不同的樣貌現身,污染整體內容生態。比如,倡導厭學逃學傾向、展現校園欺凌行爲,利用“網紅兒童”形象炫富、惡搞、不正當營銷,以及使用人工智能技術批量生成的謠言類、擦邊類、誤導類內容。針對新型內容,有必要緊密追蹤其特徵和趨勢,通過“清朗”行動等專項措施展開精準打擊。

另外,還有一種現象值得重視,那就是未成年人在網絡空間主動實施對於他人的侵害。這在未成年人蔘與“飯圈”追星的領域尤爲明顯。從一言不合就“開盒”“掛人”,到有組織地集中實施人身攻擊、施行網絡暴力,未成年人一方面是網絡侵害亂象的受害人,另一方面也受到負面氛圍影響,可能成爲侵權行爲的實施者。可見,未成年人運用人工智能等技術的能力不斷提升,也是一把“雙刃劍”,既促進他們快速學習、成長,也放大了他們侵害他人的能力。

因此,人工智能時代,針對未成年人的保護和治理機制面臨全新挑戰。只有積極進行創新轉型,纔能有效迴應新時代和新技術的需求。

具體而言,在人工智能模型和應用的開發過程中,需要在數據訓練、模型優化、應用場景、服務運營各個環節都嵌入未成年人保護的理念,並進行技術和組織層面的合規設計,做好事前、事中的防範和保護。對於未成年人的保護模式,應當探索從隔離、控制的手段,轉向積極培育和建設安全生態,在防範侵害的同時,積極進行正向引導和影響,特別是藉助人工智能等技術能力,爲未成年人呈現與營造健康積極、向上向善的內容和環境。

(作者:劉曉春 中國社會科學院大學互聯網法治研究中心主任)

《人民日報海外版》(2025年06月23日 第 08 版)