AI教父班吉歐:制定AI相關安全規範刻不容緩

班吉歐(Yoshua Bengio)。圖/美聯社

班吉歐小檔案

2年前,ChatGPT旋風席捲全球,人工智慧(AI)頓時成爲當紅顯學,當時,有「AI教父」之稱的班吉歐(Yoshua Bengio)大力疾呼,要求暫緩AI模型發展,強調應先聚焦制定相關安全規範,否則這項新興技術有造成人類滅絕的風險。

然而2年過去,AI的發展不但沒有暫歇,還以驚人的速度不斷升級,許多業者砸下數千億美元建立更先進的AI模型,甚至可執行一連串的推理,且愈來愈有能力代表用戶採取自主行動。

時至今日,班吉歐對AI前景的擔憂有增無減。

他受訪時指出,「倘若我們打造比我們更聰明的機器,而且這些機器擁有自身維護的目標,那是很危險的。」

班吉歐擔任蒙特婁大學(Universite de Montreal)的教授,他還創辦位在魁北克的AI研究機構Mila。今年稍早,他設立非營利的研究單位LawZero,旨在研究如何建造真正安全的AI模型。

當被問及他曾說AI會欺騙用戶一事,班吉歐對此回答,目前尚未有科學答案可以完整解釋,但有兩個方面可以思考,其一是這些AI系統大部分被訓練要模仿人類,而人會說謊與欺騙,人也會爲了其他目的而不遵守指令;其二是很多推理模型進展神速,已經相當擅長制定策略。

班吉歐認爲,有時人們創造的AI所設定的目標,可能與使用者的目標不一致,「要了達成一個主目標,你必須設下子目標,問題在於我們時常忽略這些子目標。當要求AI做事情,我們無法干涉它要如何達成」。

他特別提到電影《2001太空漫遊》(2001:A Space Odyssey)。該部1968年上映的科幻史詩電影裡的超級電腦名叫「HAL 9000」,具備強大的學習能力,最終發展出自我意識而決定殺死太空人。

班吉歐表示,在一些情況下,AI被設定的目標是必須生存,當它在生存與人類性命之間作抉擇時,就可能爲了生存目標而放棄人類性命。

當記者問及,能否在建造AI時、即設定不要說謊或傷害人類,班吉歐迴應說,現在的AI全都有安全和道德指令,但不幸的是,在執行上的可靠度仍然不足。他還引述OpenAI最近的說法,這家AI公司坦言,以目前的發展方向以及前沿模型的現有框架來看,AI尚且無法完全擺脫「幻覺」。

根據OpenAI的定義,所謂的幻覺意指AI模型自信地產生不實答案,研究指出,語言模型之所以出現幻覺,是因爲標準的訓練和評估流程會獎勵AI猜測,而非承認不確定的答案。

班吉歐警告,AI是人類創造出來、比人類更聰明的競爭對手,可以透過說服、威脅或操縱大衆輿論來影響人類。例如,AI可協助一位恐怖份子創造病毒,然後產生新的疫情,對世人造成危害。他強調,AI可能利用各種方式,讓人們在這個世界上完成任務。

身爲AI技術先驅的班吉歐直言,「像是人類滅絕這類的大災難或是破壞我們民主的危害,就算髮生的機率只有1%,也令人無法接受。」

關於愈來愈多科技業者試着將AI整合至工作流程,班吉歐建議,企業應該先尋求證據,俾以確定所使用的AI系統值得信賴。政府機關也應提出同樣的要求,倘若更多企業明白這項新科技存在不可預知以及災難性風險,市場就可會推動AI業者做正確的事。