人工智能浪潮下 青年如何應對挑戰

來源:中國青年報

“他們不斷地受到信息轟炸。”加拿大阿爾伯塔大學法學教授蒂莫西·考菲爾德告訴英國《金融時報》,年輕人極易受到錯誤信息的影響,不是因爲他們不夠聰明,而是因爲接觸機會更多。

青年因熟悉人工智能(AI)獲得賦能,卻也因此面臨諸多挑戰。隨着AI技術迭代升級,其生成的圖像、視頻或音頻也愈發逼真,甚至能以假亂真,而深度僞造引發的不良影響也正在多國顯現。北京外國語大學人工智能與人類語言重點實驗室副教授王琦在接受中青報·中青網記者採訪時表示,面對AI帶來的挑戰,青年應保持批判性思維,着力培養深度思考能力。

美國皮尤研究中心的調查數據顯示,在ChatGPT問世之前,近38%的美國人對AI在日常生活中的應用感到擔憂。到2023年年末,隨着生成式AI迅速普及,這一數字飆升至52%。此後,民衆的擔憂程度一直居高不下。

美國《連線》雜誌發現,在美國,使用ChatGPT的人數日益增加,但人們對AI的厭倦情緒也在同步上升。美國職業社交網站領英的用戶抱怨他們頻繁收到AI生成的問題提示;流媒體音樂服務平臺Spotify的聽衆因AI生成的播客重播自己最常聽的歌曲而沮喪;美國社交網站Reddit的發帖者則會在看到雜貨店物品上印刷的AI生成圖片後心生不悅。

這種轉變反映出隨着AI的普及和應用,隱私保護及倫理道德等多方面的挑戰也隨之而來。

“青年羣體是數字時代的原住民。藉助AI技術和大模型,他們可以進行項目方案撰寫和學習資源搜索等工作,但當人們逐漸依賴這類工具時,可能會產生認知惰性,從而影響個人信息加工和深度思考的能力。”王琦分析指出,若青年長期依賴大模型完成作業,而不去思考任務的本質,那麼一旦失去技術輔助,他們的工作效率就會顯著降低。

美國麻省理工學院一項最新研究表明,ChatGPT可能會削弱人類的批判性思維能力。該研究的主要負責人娜塔莉亞·科斯米娜發現,長期使用ChatGPT撰寫文章的人,其創作內容越來越敷衍,最終基本都以“直接複製粘貼內容”的方式寫作。

王琦觀察到,AI與大模型技術的應用正逐步深入教育領域,但AI模型生成的內容“格式化嚴重”。因此在教學過程中,他在鼓勵學生培養“以人爲主導、大模型爲輔助”的思維模式。

談及AI在教育領域中的有效利用時,王琦以“藉助AI改進教學設計和評估”爲例進行了分析。青年教師可以利用大模型進行教學設計和點評,也可對比大模型生成的內容與自己的設計,從而促進深度思考和創新能力。此外,通過小組協作和多輪人機協同,能夠助力形成更優化的教學方案。

“通過系統化思考和AI技術輔助,人們可更好地規劃和完成任務,但不應完全依賴技術解決問題。”王琦強調,在AI輔助教育的時代,青年需要培養批判性思維能力和深度學習能力。具體來說,AI生成的內容基於龐大的知識庫,但存在不確定性,青少年在學習和完成任務時,既要甄別信息真僞,也要結合自身知識進行有意義的認知建構。

王琦指出,AI能幫助解決教育資源分配不均的問題。例如,通過智能化在線研修和網絡培訓的方式,教師和學生可以獲取並分享優質資源。然而,AI也可能加劇資源獲取不均衡的狀況,導致無法獲取相關資源的人會進一步受限於現有的資源。因此,如何平衡和解決這些問題,確保AI在教育中持續發揮正面作用,也是一個重要議題。

據英國《衛報》報道,近日,丹麥多個黨派就保護含有個人特徵的數字模仿品達成了協議。根據擬議法案,丹麥公民將獲得對自身的身體、聲音和麪部特徵的版權。該國希望以此打擊AI導致的深度僞造內容。

當前,AI治理已成爲一項全球性課題。王琦告訴中青報·中青網記者:“推動AI實現高效化和合理化發展,是釋放技術潛能的有效路徑。”具體來說,政府和相關部門應設定AI使用的指導策略和規範,制定涉及倫理問題的負面清單,以規避AI發展中的風險。教育者則應引導青少年理解社會需求,學會合理利用AI提升自身能力。特別是在論文寫作和數據整理等具體場景中,教師應引導學生掌握深度學習,幫助他們建立深層次認知模式,爲未來成長打下堅實基礎。

“通過政府、學校、教師和個體等多主體協同,建立起有效的數據利用與隱私保護機制,才能在技術發展和防範風險中找到平衡點。”王琦說。