AI的世界無限擴張中!近年ChatGPT問世,讓生成式AI的風潮席捲全球,也帶來了無限可能。資深音樂人包小柏日前接受未來城市Podcast採訪時提到,女兒幾年前因病辭世,思念女兒的心情讓他攻讀博士班並投入AI技術,試圖要讓女兒「數位復活」。包小柏與跨國AI團隊合作,將女兒唯一留下的三句英文對話音檔,逐步修復並訓練成一個專屬AI模型,讓該模型能模仿女兒的聲音說話,喊包小柏一聲「爸爸」。

我是廣告 請繼續往下閱讀
包小柏的女兒在幾年前辭世,他便開始鑽研AI,試圖要在數位空間和女兒重逢,後來有了ChatGPT,AI風潮席捲全球,讓原本無法重建人聲的問題獲得解決了,女兒留下來的三句英文對話,成為完整的聲紋,後期經過AI訓練,成為有思考與表達能力的對話模型。包小柏在訪談中提到,AI對他來說就是寄託思念的工具,也是一種對思念的表達方式。

▲王仁甫出席人安基金會「寒士吃飽30」活動,呼籲大家一同幫助寒士、街友等弱勢人士。
▲王仁甫曾分享過老婆季芹之前接過模仿女兒聲音的詐騙電話,好在警覺性高沒有受騙。(圖/NOWnews資料照片)
AI可以成為寄託思念的工具,也能成為詐騙的手段。藝人王仁甫曾經受訪提到,女兒接到過一通市調電話,對方提問「你家在哪?」等問題,女兒當時裝傻回應「不知道」,但沒過幾天,老婆季芹就接到詐騙電話,電話那頭傳來像是女兒的聲音說,「媽媽我現在需要錢,可以轉錢給我嗎?」,好在季芹警覺性高並未因此受騙,但也讓王仁甫直呼「恐怖」,提醒民眾當心聲紋詐騙。

關於聲紋詐騙、AI模擬語音詐騙等,國際上確實時有所聞,台灣事實查核中心曾經做過相關的查核中,台灣警方尚未接獲相關詐騙案例但別因此卸下心防,因為這樣的詐騙行為確實有可能,專家指出,用短短幾分鐘的錄音去模擬人聲,技術上可行,而擬仿出來的聲音,若仔細聽雖可能聽出破綻,但民眾若在焦慮的情緒下,通話過程不見得能辨識聲音的真假,因此專家建議,民眾在掛上電話後,提高資安意識,養成查證習慣。

為了避免有心人士使用AI語音模擬進行不法行為,這邊來介紹AI影片翻譯「Rask AI」,只要上傳影片,就可透過AI轉譯成其他數十國的語音,同時還會學習影片人物的聲調,變換嘴型等,讓影片中的人物就像是會講其他國語言一樣,被稱之為AI世代的「翻譯蒟蒻」。