最近不少民眾接獲「接到陌生電話不要先講話,AI會蒐集民眾聲音」,讓不少民眾擔憂聲音遭盜用,但根據台灣事實查核中心調查,目前AI技術發展快,確實5-10秒的語音就能模擬出真實人聲,但若只是幾句「喂、你好」回應,聲音品質可能不佳、容易失真。專家認為,民眾確實需要提防陌生來電,但不用過度擔心聲音遭AI盜用。

我是廣告 請繼續往下閱讀
根據台灣事實查核中心調查,近期LINE流傳一段文字訊息,提醒民眾接到陌生電話不要先講話,若對方不出聲要直接掛掉,因為AI技術會蒐集民眾聲音。AI專家指出,目前AI技術發展快,大約5~10秒間的連續說話,確實能模擬出真實人聲,但如果在實際電話通話情境,聲音品質可能不佳、容易失真,如果只是「喂、你好」回應,難以製作出聲音品質佳的AI音檔。

▲AI語音詐騙。(圖/翻攝台灣事實查核中心官網)
▲近期LINE流傳提醒民眾接到陌生電話不要先講話,避免被詐騙。(圖/翻攝台灣事實查核中心官網)
成功大學統計學系教授許志仲說,現在AI技術發展快,大約5-10秒間內模擬出真實人聲。但是實際上,電話聲音品質差、容易失真;且若只是1-2句電話問候語,也很難做出品質佳的AI聲音。因此,民眾可以小心,但毋須過度擔心、過度防備到先不出聲。

不要和詐騙集團「玩」小心被套出個資

此外,資安專家、Whoscall資深產品策略協理劉彥伯表示,現今AI聲音技術確實可以在5-10秒內,模擬出真實人聲,但這5-10秒之間是要連續不斷地談話、情緒抑揚頓挫,AI才能有效學習。因此,若只是單純接起電話說「喂」、「你好」,不至於立馬就能讓AI模仿聲音。但如果民眾覺得電話可疑、或是疑似詐騙電話應直接掛掉,不要跟他繼續對話。

劉彥伯指出,觀察國外AI技術趨勢,大約在1年前就能利用短短5-10秒聲音,做出AI擬聲,不過,傳言提到的情境可能會讓效果打折,主要是因為電話聲音品質差,再來通常接電話的問候語極短。即使能做出AI擬聲,可能也不太像,品質差。

▲LINE 語音通話(圖/記者周淑萍攝)
▲AI專家建議,不要為了想跟詐騙集團「玩」而跟他們聊天,避免被套出個資。(圖/記者周淑萍攝)
如何防止AI詐騙電話

劉彥伯說,要防止詐騙電話,可以先安裝防騷擾電話的軟體,從源頭防制。另外,也可以跟家人親友間設立通話密語。此外,詐騙集團要能成功行騙,也需要了解個人的身家背景,套出個人習慣等,民眾也須小心,不要為了想跟詐騙集團「玩」而跟他們聊天,避免被套出個資。