科技倫理警鐘!包含蘋果共同創辦人、英國哈利王子等人連署要求禁止開發「超級智慧」AI
在AI技術快速發展的浪潮中,一股反思的力量正在集結。包括蘋果共同創辦人、有「科技頑童」稱號的Steve Wozniak,以及包含英國哈利王子在內800多位各界名人,近日聯署聲明要求禁止可能導致「超級智慧」的AI研究,直到科學界能證明其發展「安全且可控」。
跨領域的憂慮共識
這份由未來生命研究所 (Future of Life Institute)發起的聲明,獲得來自不同領域和政治光譜的知名人士支持,連署者包括AI研究先驅、諾貝爾獎得主Geoffrey Hinton,以及前川普顧問Steve Bannon、前美軍參謀長聯席會議主席Mike Mullen、音樂人Will.i.am,另外也包含英國哈利王子、蘋果共同創辦人Steve Wozniak等人。
而這種跨界的聯合署名,更凸顯對AI發展的擔憂已超越傳統黨派和專業界限。
發展速度與監管落差的危機
未來生命研究所執行主任Anthony Aguirre向NBC新聞指出:「在某種程度上,這條道路是由AI公司、創辦人和驅動它們的經濟系統爲我們選擇的,但幾乎沒有人問過其他人:『這是我們想要的嗎?』」
該機構警告,AI的發展速度已超出公衆理解能力,監管措施遠遠跟不上技術進步的腳步。
從AGI到超級智慧的爭議
人工通用智慧 (AGI)是指機器能像人類一樣推理和執行任務的能力,而超級智慧則意味着AI甚至能超越人類專家。儘管Meta執行長Mark Zuckberg柏宣稱超級智慧「近在眼前」,「X」執行長Elon Musk表示它「正在實時發生」,但現有AI仍僅能處理有限任務,甚至在自動駕駛等複雜應用場景中屢屢受挫。
業界領袖缺席與不同聲音
值得注意的是,這些大力推動AI發展的科技巨頭領導人,以及他們公司的重要人物,均未參與此次連署。OpenAI執行長Sam Altman曾預測最晚在2030年實現超級智能,但同時也對其潛在風險提出警告。
這並非首次對AI發展速度的警示。上月已有包括10位諾貝爾獎得主在內的200多位研究人員和公職人員發佈緊急呼籲,要求爲AI風險劃定「紅線」,不過他們關注的是已開始顯現的危機,如大規模失業、氣候變遷和人權侵害等問題。
隨着AI投資持續火熱,例如OpenAI等公司正投入數十億美元建設資料中心,Meta也積極投入發展「超級智慧」,這場關於科技發展與倫理平衡的辯論,將持續塑造人類的未來。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》