圖、文/CTWANT

▲(示意圖/Unsplash)
當今不少人將人工智慧(AI)聊天機器人視為生活助手,彼此無話不談。然而,國外有專家警告,若不慎透露個人敏感資訊,可能會帶來資安風險。《華爾街日報》報導指出,輸入5類資訊給ChatGPT等聊天機器人,等同於「失去對它的控制權」,呼籲使用者提高警覺。
史丹佛大學「以人為本人工智慧研究中心(Institute for Human-Centered)」研究員金恩(Jennifer King)受訪時指出,「當你把資料輸入聊天機器人,你就失去對它的控制權。」OpenAI也在官網提醒使用者「請勿分享任何敏感資訊。」Google對旗下聊天機器人Gemini使用者則強調,不應輸入「你不願審查者看到的資料」。
報導整理出5大類「高風險資訊」,使用者應避免與AI平台分享。
一、身分資料
不要向AI平台透露任何身份資訊,包含身分證字號、駕照號碼、護照號碼、出生日期、住址及電話等。雖然部分平台會進行編輯,但完全避免分享這些資訊會更安全。
二、醫療結果
雖然醫療業重視患者的隱私權,以保護當事人個資以及免受歧視,但隱私權並不適用於AI平台。金恩建議,若有需求,應將資料剪裁成「僅包含檢查結果」,並刪除個資,降低外洩風險。
三、財務帳戶
所有與金融資產相關的帳號、登入資訊,不可輸入AI平台。黑客一旦掌握此類資料,恐釀成金錢損失。
四、登入訊息
由於聊天機器人不斷增強執行任務的能力,似乎成為可向它提供帳戶使用者名稱和密碼的理由,但這些AI平台並不是保險庫,也不能保證帳戶憑證的安全,更好的辦法是將相關資訊放入密碼管理器中。
五、公司專有資料
部分使用者習慣用AI平台協助撰寫工作信件或合約草稿,卻可能不經意暴露客戶資訊、內部文件或未公開的商業機密。《華爾街日報》指出,除非一些公司訂閱企業版的客製化人工智慧程序,否則使用者仍需自行審慎把關。
若使用者仍希望與AI平台保有互動,專家建議應設定高強度密碼,並啟用雙重驗證。AI公司「Anthropic」資安長安長克林頓(Jason Clinton)補充,對話紀錄應於結束後立即刪除,多數公司會在30天後永久清除資料。
延伸閱讀