近期韓國爆出大量將女性臉部合成到色情影片中的深度偽造(Deepfake)事件,
有數十萬名使用者在Telegram平台中的群組和頻道內,將女性親朋好友用深度偽造(Deepfake)技術製成影片後散播,目前此惡行甚至擴散至韓國教育圈及偶像圈,
許多女學生、女教師和女性藝人受害,讓不少台灣網友直呼「太恐怖了!」、「這已經是性犯罪了吧?」
我是廣告 請繼續往下閱讀
網路安全公司「Security Hero」最近發布《2023年深偽現狀報告》,報告指出,韓國是深偽不雅影片的主要目標國,其分析了10個Deepfake不雅影片網站,以及多個影片分享平台上的85個頻道,
總計9萬5820個影片中,高達到53℅的受害者是韓國女藝人;這些Deepfake影片在網絡上的總瀏覽次數達到數百萬次,99%的不雅影片受害者是女性,而94%從事演藝行業,甚至有不少是未成年。
報告也指出,
深偽不雅影片的製作者大多是10多歲的青少年,韓國教育部表示,正在考慮加害者進行最嚴厲的處罰。
數個南韓媒體報導,Telegram聊天室常出現露骨的南韓女性Deepfake色情圖片與影片,引發眾怒。據了解,
Telegram自2013年成立以來,一直被指控為「犯罪資訊傳播的溫床」,目前中國、巴西、泰國等31個國家已暫時或永久禁止使用,目前
台灣也已全面採取限制Telegram接取措施,所有用戶在台灣將無法繼續使用。
韓國當局已表示要因應日益嚴重性犯罪問題,
計劃要求通訊軟體Telegram和其他社群媒體平台,積極協助刪除和封鎖Deepfake製作的色情內容。網路監察機構南韓通信標準委員會(KCSC)及韓國警察廳也表示,將
設置24小時提供服務的被害人保護專線,
監控數位性犯罪的監管人員數量也將從目前的70人再增加一倍,加強打擊網路性犯罪。但Telegram方則坦言,目前雖已刪除部分兒童性剝削內容或犯罪相關內容,但人手不足依然是現在最主要的問題。
目前韓國政府告訴還未遭受Deepfake的學生們緊急應對方法為
「將在社交平台發佈的個人照片或個人資料全部刪除」,讓犯罪者暫時無法獲取公開臉部資料進行偽造,若已經遭受到Deepfake的受害者,請立刻向警方通報,通報之後受害者也需盡快向數位性犯罪被害者支援中心申請幫助。
雖然如此,像是女藝人、女網紅等公眾人物,無法將自身照片及影像在網路上刪除,所以還是深受Deepfake的困擾,韓國政府表示目前只能協助將偽造色情影片一個一個封鎖和下架。
許多韓國女性深受其害,轉而向國際媒體和國外網友求助,事件越演越烈,台灣網友紛紛表示「根本是嚴重的網路霸凌」、「韓國難道是東北亞印度嗎?」、「看到我的偶像本命被這樣對待,身為粉絲真的很氣憤」、
「侵犯肖像權、傳播性影像、對他人外表行為評論嘲弄,不管哪一條都是犯罪耶」、「要女性把個資刪除,怎麼不是教導男性不要製作這種噁心的東西?」
我是廣告 請繼續往下閱讀
目前Deepfake色情影片受害範圍不斷擴大,受害者不局限於公眾人物,甚至是親人、朋友或自己,但
由於Deepfake等 AI 技術涉及到法律盲區問題,只能盼各國政府能盡快提出法律對策,遏止性犯罪持續發生。