人工智慧(AI)聊天機器人ChatGPT問世後已成為許多人的職場和生活助手,甚至心情不好、身體不適都會找AI分享心事、討論病情,近來甚至還有人請AI看手相。不過有美國史丹佛大學專家警告,有5項敏感訊息永遠不該與聊天機器人分享,否則會讓隱私無端暴露、惹上麻煩,專家也提供5招自保手段。

我是廣告 請繼續往下閱讀
美媒《華爾街日報》、《紐約郵報》報導,AI業者雖希望盡量拓大資料收集範圍以改善運算模型,但公司也不想獲取用戶的秘密,OpenAI和Google也都呼籲用戶,對話過程中請勿分享敏感、機密訊息或任何不想讓審查員看到的資料。

史丹佛大學「人本人工智慧研究中心」(HAI)研究員珍妮佛·金恩(Jennifer King)警告,資訊一旦輸入給聊天機器人,就會從此失去所有權。她提點出有5種敏感資訊絕不該讓聊天機器人知道。第一種就是個人身分資訊,包括身分證號碼、駕照號碼、護照號碼、出生日期、居住地址、電話號碼。雖然有些聊天機器人會針對這類內容略加編輯,但用戶徹底避免分享會更安全。

第二種是醫療報告,醫療院所需要保護病患隱私,但聊天機器人通常不會,若要以學術角度或實驗性質分享,上傳醫療相關報告或檢驗結果時,務必把圖片或文件裁減、編輯,儘量只提供醫療檢測的結果,其餘內容都不要透露給AI。

第三種則是財務相關資訊,包括銀行、投資帳戶的號碼都不該跟AI分享,若被駭客取得,恐成暗中監控甚至竊取財產的目標。第四種則是個人的帳號、密碼,金恩提醒,AI聊天機器人不是保險庫,無法保護帳號密碼的安全,最好還是要利用密碼管理軟體比較安全。

第五種則是公司資料,金恩提醒,工作中使用AI機器人輔助時,務必要小心無意間洩漏客戶資料或是不對外公開的商業機密,就算只是要請AI幫忙起草電子郵件也不該透露。報導提到,韓國三星電子有工程師不小心洩漏內部原始碼,三星就決定禁用ChatGPT。金恩提醒,職場用戶最好使用公司訂閱的企業版本,或是自家客製化的AI程式,嚴格落實資安配套措施。

針對用戶與AI聊天機器人進行敏感話題交流,專家也給出五招自保技巧:增強帳號密碼的複雜度、登入過程使用多重身分驗證、每次對話後刪除所有內容、使用臨時聊天功能,這與無痕瀏覽的功能類似,讓ChatGPT無法把聊天內容加到用戶資料庫中,也無法用於訓練模型、使用匿名提問,如匿名搜尋引擎Duck.ai可讓用戶選擇AI機器人回答,但AI的完整功能也會因此受限。