萬事問ChatGPT當心!「5要事」別透露 5招加強護隱私
OpenAI研發的人工智慧聊天機器人ChatGPT已成爲許多人工作與生活的好幫手。(資料照/路透)
AI機器人ChatGPT已成爲許多人的職場好幫手,下了班也找ChatGPT吐苦水、聊心事、討論健康憂慮,分享的事情愈多,感覺愈有幫助。美國史丹福大學的專家日前警告,有些敏感訊息不宜與聊天機器人分享,否則可能助長隱私無端暴露,甚至惹來麻煩。專家也提供了5招隱私自保之道。
美國《紐約郵報》16日引述《華爾街日報》報導,即使AI業者希望儘可能擴大資料收集範圍以改善運算模型,他們也不想獲取用戶的秘密。OpenAI敦促大衆「對話過程請勿分享任何敏感訊息」。谷歌呼籲Gemini用戶「切勿輸入機密訊息或任何你不想讓檢閱者看到的資料」。2023年3月,ChatGPT曾因某個漏洞導致部分用戶能看到其他用戶聊天時輸入的內容。OpenAI也曾誤發訂閱確認電郵,導致用戶姓名、電郵地址與付款資訊外泄。這些漏洞均已修復,但若AI業者接獲搜索令,就可能必須移交相關資料。
史丹福大學人本AI研究所(Institute for Human-Centered Artificial Intelligence,HAI)研究員金恩(Jennifer King)形容,資訊一旦輸入給聊天機器人,從此「失去所有權」。她提醒,至少有5種敏感資訊絕對不該讓聊天機器人知道。第一種就是身分資訊,包括身分證號、駕照號碼、護照號碼、出生日期、居住地址、電話號碼。有些聊天機器人會針對這類內容略加編輯,但用戶徹底避免分享會更安全。
第二種是醫療報告。醫療院所必須保護患者隱私,但聊天機器人通常不在採取保護行動之列。倘若要以學術角度或實驗性質分享,上傳醫療相關報告或結果之前務必把圖片或文件裁減、編輯,金恩建議「儘量只提供醫療檢測的結果」,其餘內容不要透露給機器人。
第三種是財務帳戶。銀行、投資帳戶的號碼都不該透露,否則若遭駭客取得,恐成暗中監控甚至竊取財產的肥羊。第四種是登入帳密,AI機器人也許有很好的理由向用戶索取這類敏感個資,但機器人並不是保險庫,無法提供保護帳密安全的承諾。金恩指出,利用密碼管理軟體比較安全。
最後一種是公司特定資料。工作中使用AI機器人時務必當心無意間泄漏客戶資料或不對外公開的商業機密,就算是要機器人幫你打電郵草稿的情況也不該透露。南韓三星電子有個工程師不小心泄漏了內部原始碼,三星決定禁用ChatGPT。金恩建議,職場用戶最好使用公司訂閱的企業版本,或使用自家客製化的AI程式,並嚴格落實配套保護措施。
如需與機器人進行私密話題交流,用戶還有5招可加強自保:一、帳號的密碼複雜度增強。二,登入過程使用多重身分驗證。三、每次對話之後刪除所有內容,美國AI新創業者Anthropic的Claude通常在30天后徹底清除用戶已刪除的資料;DeepSeek仍維持無限期保留資料的服務政策,Claude預設不用聊天資料訓練模型,資料2年後刪除;谷歌Gemini與微軟Copilot則會使用聊天內容訓練。
四、使用「臨時聊天」(temporary chat)功能,這與無痕功能瀏覽網頁相似,這讓ChatGPT無法把聊天資料加入用戶個人資料庫,不會存進歷史清單,也無法用於訓練模型。五、匿名提問,匿名搜尋引擎Duck.ai可讓用戶選擇AI機器人,包括Claude、GhatGPT,但機器人完整功能也會因此受限,例如文件分析。