(中央社記者張淑伶上海3日電)中國官媒披露,已有多起AI(人工智慧)詐騙事件,利用「換臉」及擬聲技術冒充政府人員行騙,應當高度警惕。

我是廣告 請繼續往下閱讀
新華社旗下的瞭望新聞週刊微信公眾號今天發文,指北方省分警方近日發布了一起利用「AI換臉」的「涉政詐騙」案件。不法分子模擬偽造的是受害人認識的一名領導幹部。「換臉」後的騙子在微信視訊通話中提出,其朋友有一筆工程保證金需要借用受害人公司的對公帳戶。僅10多分鐘交流,受害人就轉帳人民幣數百萬元。

這名視訊畫面中經過「換臉」的AI騙子面部表情自然,聲音逼真,所以受害人放鬆警惕,等轉帳後打電話確認,才知道被騙。

報導指出,一些領導幹部由於工作原因上電視的機率相對較高,這為不法人士提供了豐富的面部識別素材;在電視、廣播新聞中也可以找到一些領導幹部的許多聲音資料,這令「偽造成本」更低。

國網信息通信產業集團安全科研專家趙明明說:「只需提取最少10個字、最多32個字,就可以合成其聲音。」

天津日報今天的報導引述天津科技大學人工智能學院副院長張賢坤說,「AI換臉擬聲」並非新技術,但隨著人工智慧技術的不斷發展和完善,特別是計算機算力的提升,現在的「換臉」效果更加逼真,在電影、電視、廣告和遊戲領域得到了廣泛的應用。

報導指出,中國在2020年和2021年分別頒布的「民法典」、「個人信息保護法」都對生物識別資訊作出規定。最高人民法院2021年發布的「關於審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規定」,以及2022年12月多部門聯合發布的「互聯網信息服務深度合成管理規定」也進一步做出規範。

但天津師範大學法學院焦艷玲教授認為,有這麼多法律規定,利用AI換臉擬聲違法的情況仍屢屢發生,「反映出核心問題並不在立法層面,而在於法律的執行層面以及公民的意識層面」,必須加大對違法行為的預防和監管。

張賢坤則認為,雖然AI換臉擬聲如今可以做到以假亂真,但「假的就是假的」,通過電腦還是能辨別出來,未來應該很快會出現多種識別「AI換臉」圖片或影音的應用軟體。(編輯:曹宇帆)1120703