生成式人工智慧(AI)的成長除了便於人類工作外,也提升了犯罪效率,尤其是深偽技術(Deepfake)的誕生造成不少移花接木的合成裸照或色情影片。在西班牙南部小鎮阿爾門德拉萊霍(Almendralejo)日前就發生當地高達有28名未成年少女遭人盜用照片製成假裸照,她們不僅被勒索,有些人還因此害怕地不敢出門。

我是廣告 請繼續往下閱讀
據《BBC》報導,有嫌犯在阿爾門德拉萊霍(Almendralejo)地區,用AI軟體製作當地年輕女孩的裸照,還把它上傳到WhatsApp和Telegram等社群平台或通訊軟體流傳,嫌犯先是從這些未成年少女的社交平台帳號下載她們身穿衣服拍攝的照片,接著再利用以深偽、生成式AI等技術的應用程式合成出帶有少女臉部樣貌的假裸照。

受害的14歲少女母親拉約(María Blanco Rayo)指出,包含自己女兒在內,共28名受害者家長已成立支援小組,這些少女普遍介於11歲至17歲的少女。拉約指出,會發現女兒受害是因為某天女兒告訴她自己的裸照被放在網路上流傳,並稱這些都是假照片,班上還有其他女同學也發生同樣情況。

目前警方調查過程發現,至少有11名未成年男孩涉案,年齡多半落在12歲到14歲間,其中還有人利用假裸照,敲詐受害者。在人口僅有3萬多人的小鎮爆發這起性暴力事件後,許多少女甚至不敢踏出家門,此案更瞬間成為西班牙境內的頭條新聞。

按西班牙法律,刑事控訴僅針對14歲或以上人士,此案可能涉及違反隱私法,同時因採用未成年人的照片合成,可能也會被司法單位認定帶有製作兒童色情內容意圖。