別告訴ChatGPT五件事

圖╱美聯社

新聞提要■ChatGPT強大的語言能力,讓許多人喜歡將它視爲排遣寂寞的聊天對象。不過專家也警告,有五件事千萬不要告訴ChatGPT,它們分別是企業資訊、醫療結果、登入資訊、身分資訊與金融帳號。

精句選粹■Don’t let your mystery rash become AI training fodder-or turn up in a data breach.

過去幾年,人類雖從ChatGPT學到許多,但同時間它也對人類有了更深入的瞭解。一些AI研究人員警告,用戶應該更加謹慎地向這些聽起來像人類的工具傳達敏感資訊,例如社會安全號碼或是公司的機密資料等。

保護好個資、公司機密

他們提醒,關於你的奇怪皮疹或財務失誤聊天,可能會被用來協助訓練未來的AI或導致資料外泄。以下是提示中應避免的內容,以及如何與AI進行更私密的對話。

身分資訊:當中包括社會安全號碼、駕照和護照號碼,以及出生日期、地址和電話號碼。OpenAI發言人表示:「我們希望我們的AI模型瞭解世界,但不是私人資訊,我們會積極減少對個資的收集。」

醫療結果:保密是醫療保健的核心價值,以防止病患受到歧視和尷尬,但聊天機器人通常不屬於對健康資料的特殊保護。如果你想讓AI解釋實驗室工作,請在上傳前裁剪圖片或是編輯文件,「儘量只保留測試結果並進行編輯」。

財務帳戶:千萬不要隨意告知您的銀行和投資帳戶號碼,因爲它們可能會被用來監控或存取您的資金。

公司機密資訊:如果您將流行聊天機器人的主流版本用於工作目的,您可能會無意中泄露客戶資料或非公開的商業機密,即使是像草擬電子郵件這樣的小事情。

在一名工程師泄露了該服務的內部原始碼後,三星禁止了ChatGPT。如果AI有助於您的工作,您的公司應該訂閱企業版,或擁有自己的客製化人工智慧,並配備公司特定的保護措施。

登入資訊:隨着能夠執行現實世界任務的AI代理人的興起,將帳戶憑證交給聊天機器人的理由也愈來愈多。這些服務並不是作爲數位保險庫而建構的,請把您的密碼、PIN和安全問題儲存在您的密碼管理器中。

當您對機器人的迴應給予回饋(通常是贊成或反對)時,您可能正在允許它對您的提示及其輸出進行評估,甚至用於培訓。如果對話因爲安全原因,而被特別標記(例如,如果你提到暴力),公司可能會對其進行審查。

留意暴力對話、隱私條款

Anthropic的Claude,則是預設不會使用您的聊天資料進行訓練,並且會在兩年後刪除資料。

OpenAI的ChatGPT、微軟的Copilot和Google的Gemini雖然都確實使用對話,但在設定中提供了退出選項。如果您注重隱私,請嘗試以下提示:

經常刪除:Anthropic的首席資訊安全長Jason Clinton表示,極度偏執的用戶應該在每次對話結束後刪除所有對話。公司通常會在30天后清除「已刪除」的資料。

不過DeepSeek在中國設有伺服器,根據它的隱私權政策,它可以無限期地保留您的數據,並且沒有選擇退出的餘地。