跟AI聊天?這五件事千萬別說!

3月31日消息,過去幾年,用戶能從OpenAI的ChatGPT中學到了不少東西,而這個聊天機器人也記錄了許多關於用戶的個人信息。

它從無數次的用戶交流中收集了大量個人信息,比如誰喜歡吃雞蛋,某些用戶的小寶寶需要靠哺乳入睡,還有用戶因爲背痛需要調整運動方式。

它甚至記住了更多更爲私密、不便詳述的細節信息。

無論選擇哪種聊天機器人:分享越多,它們就越有用。患者上傳血液報告分析,工程師粘貼未發佈代碼尋求調試。但人工智能專家提醒,我們應該對這類擬人化工具保持警惕,諸如社會保障號碼、企業機密數據等敏感信息尤其需要防範。

儘管科技公司急於利用數據來優化模型,但它們並不希望獲取用戶隱私數據。OpenAI明確警示,“請勿在對話中透露任何敏感信息。”谷歌也向Gemini用戶強調:“避免輸入機密信息或您不願意被審覈者查看的內容。”

人工智能研究人員認爲,關於奇怪皮疹或財務失誤的聊天記錄,既可能成爲訓練新版人工智能的素材,也可能因爲數據泄露而曝光。以下列舉用戶應當避免輸入的內容,並分享一些保護隱私的對話技巧:

聊天機器人逼真的人性化表達方式常會使人放下戒備。斯坦福以人爲本人工智能研究所研究員詹妮弗·金(Jennifer King)提醒,一旦在聊天機器人中輸入信息,“你就失去了對這些信息的掌控。”

2023年3月,ChatGPT漏洞使得部分用戶可以窺見他人初始對話內容,所幸公司很快就修復了漏洞。OpenAI此前還曾誤發訂閱確認郵件,導致用戶姓名、電子郵件地址和支付信息外泄。

若遭遇數據黑客攻擊或需配合司法搜查令,聊天記錄可能被包含在泄露數據中。建議爲賬戶設置高強度密碼並啓用多重認證,同時避免輸入以下具體信息:

身份標識信息。包括社會保障號碼、駕照號碼和護照號碼,出生日期、住址和聯繫電話。部分聊天機器人具備此類信息自動脫敏功能,系統會主動屏蔽敏感字段。OpenAI發言人表示,“我們致力於讓人工智能模型學習世界而非個人隱私,並積極減少個人信息收集。”

醫療檢測報告。醫療保密制度本爲防止歧視和尷尬,但聊天機器人通常不受醫療數據的特殊保護。若需要人工智能解讀檢測報告,斯坦福研究中心的金建議:“請先對圖片或文檔進行裁剪編輯處理,儘量只保留測試結果,並對其他信息進行脫敏處理。”

金融賬戶信息。銀行及投資賬戶號碼可能成爲資金監控或盜取的突破口,務必嚴加防護。

公司機密信息。如果用戶在工作中喜歡使用各種通用版聊天機器人,即使只是編寫一封普通電子郵件,也可能無意中泄露客戶數據或商業機密。三星曾因工程師向ChatGPT泄露內部源代碼,全面禁用該服務。如果人工智能對工作確實有幫助,企業就應當選擇商用版或者部署定製化人工智能系統。

登錄憑證。隨着能夠執行各種現實任務的智能體興起,向聊天機器人提供賬戶憑證的需求增多。但這些服務並非按數字保險庫標準構建,密碼、PIN碼及密保問題應該交由專業密碼管理器保管。

當用戶對機器人回覆給予好評或差評時,可能視爲允許將提問及AI回覆用於評估和模型訓練。如果對話因涉及暴力等敏感內容而被標記,公司員工甚至可能會進行人工審覈。

Anthropic公司開發的Claude默認不將用戶對話用於訓練人工智能,並會在兩年後刪除這些數據。OpenAI的ChatGPT、微軟的Copilot和谷歌的Gemini雖然會使用對話數據,但都在設置中提供關閉這項功能的選項。如果用戶注重隱私,可以參考以下建議:

定期刪除記錄。Anthropic首席信息安全官傑森·克林頓(Jason Clinton)建議,謹慎型用戶要及時清理對話。人工智能公司通常會在30天后清除被標記爲“已刪除”的數據。啓用臨時對話。ChatGPT的“臨時聊天”功能類似於瀏覽器的無痕瀏覽模式。用戶啓用後,可防止信息被存入用戶檔案。此類對話既不保存歷史記錄,也不會用於訓練模型。

匿名提問。隱私搜索引擎支持匿名訪問Claude、GPT等主流人工智能模型,承諾這些數據不會用於模型訓練。雖然無法實現全功能聊天機器人的文件分析等高級操作,但基礎問答足夠使用。

謹記,聊天機器人永遠樂於繼續對話,但何時結束對話或點擊“刪除”鍵,始終取決於用戶自己。(辰辰)