生成式AI「ChatGPT」被企業導入提高工作效率儼然成為全球趨勢,不過韓國三星電子(Samsung Electronics)先前傳出機密資料外洩意外,為了防止機密再度外洩,集團宣布旗下員工禁止在公司擁有的資訊設備如電腦、手機上使用類似服務,三星內部調查也顯示有65%員工認為生成式AI對於資安造成威脅。

我是廣告 請繼續往下閱讀
三星電子今年三月起容許員工使用ChatGPT,不過導入短短20天內就爆出機密資料外洩的意外,包括半導體設備測量資料、產品良率等內容,都被存入ChatGPT的數據庫中。根據《彭博》取得的三星電子內部信件,該集團發現旗下員工將敏感程式碼上傳至生成式AI(generative AI)服務平台,擔心商業機密遭外洩,因此禁止員工在公司擁有的資訊設備上使用該類型服務。

這道禁令規定僅限公司擁有的資訊設備如個人電腦、平板或手機,私人裝置雖不在此限,但違規者最高恐面臨解雇下場。三星這封內部信件提醒員工,使用包括ChatGPT或Google旗下的Bard等生成式AI服務時,輸出的資料可能存儲於外部伺服器,想要追蹤或刪除都相當困難,也可能被其他用戶取得,因此提示使用者不要輸入敏感內容。

報導指出,三星內部正在研議打造使用生成式AI的安全環境,達成提高產能與效率的同時也能維護資訊安全與商業機密。不過根據4月所進行的問卷調查,三星集團有6成5的員工認為這類生成式AI服務對於公司資安造成威脅,包含摩根大通、美國銀行與花旗集團等金融業者也規定旗下員工禁止或限制使用這類服務。