韓國爆大規模性犯罪!「9.5萬換臉色情片」 受害者一半是女藝人
今日新聞 記者劉彦誼/綜合報導 2024-08-30 15:32:23
https://imgur.com/N5OkL7A
▲韓國爆出大量將女性臉部合成到色情影片中的深度偽造(Deepfake)事件,目前此惡行
甚至擴散至韓國教育圈及偶像圈。(圖/美聯社)
近期韓國爆出大量將女性臉部合成到色情影片中的深度偽造(Deepfake)事件,有數十萬
名使用者在Telegram平台中的群組和頻道內,將女性親朋好友用深度偽造(Deepfake)技
術製成影片後散播,目前此惡行甚至擴散至韓國教育圈及偶像圈,許多女學生、女教師和
女性藝人受害,讓不少台灣網友直呼「太恐怖了!」、「這已經是性犯罪了吧?」
網路安全公司「Security Hero」最近發布《2023年深偽現狀報告》,報告指出,韓國是
深偽不雅影片的主要目標國,其分析了10個Deepfake不雅影片網站,以及多個影片分享平
台上的85個頻道,總計9萬5820個影片中,高達到53%的受害者是韓國女藝人;這些
Deepfake影片在網絡上的總瀏覽次數達到數百萬次,99%的不雅影片受害者是女性,而94%
從事演藝行業,甚至有不少是未成年。
報告也指出,深偽不雅影片的製作者大多是10多歲的青少年,韓國教育部表示,正在考慮
加害者進行最嚴厲的處罰。
數個南韓媒體報導,Telegram聊天室常出現露骨的南韓女性Deepfake色情圖片與影片,引
發眾怒。據了解,Telegram自2013年成立以來,一直被指控為「犯罪資訊傳播的溫床」,
目前中國、巴西、泰國等31個國家已暫時或永久禁止使用,目前台灣也已全面採取限制
Telegram接取措施,所有用戶在台灣將無法繼續使用。
韓國當局已表示要因應日益嚴重性犯罪問題,計劃要求通訊軟體Telegram和其他社群媒體
平台,積極協助刪除和封鎖Deepfake製作的色情內容。網路監察機構南韓通信標準委員會
(KCSC)及韓國警察廳也表示,將設置24小時提供服務的被害人保護專線,監控數位性犯
罪的監管人員數量也將從目前的70人再增加一倍,加強打擊網路性犯罪。但Telegram方則
坦言,目前雖已刪除部分兒童性剝削內容或犯罪相關內容,但人手不足依然是現在最主要
的問題。
目前韓國政府告訴還未遭受Deepfake的學生們緊急應對方法為「將在社交平台發佈的個人
照片或個人資料全部刪除」,讓犯罪者暫時無法獲取公開臉部資料進行偽造,若已經遭受
到Deepfake的受害者,請立刻向警方通報,通報之後受害者也需盡快向數位性犯罪被害者
支援中心申請幫助。
雖然如此,像是女藝人、女網紅等公眾人物,無法將自身照片及影像在網路上刪除,所以
還是深受Deepfake的困擾,韓國政府表示目前只能協助將偽造色情影片一個一個封鎖和下
架。
許多韓國女性深受其害,轉而向國際媒體和國外網友求助,事件越演越烈,台灣網友紛紛
表示「根本是嚴重的網路霸凌」、「韓國難道是東北亞印度嗎?」、「看到我的偶像本命
被這樣對待,身為粉絲真的很氣憤」、「侵犯肖像權、傳播性影像、對他人外表行為評論
嘲弄,不管哪一條都是犯罪耶」、「要女性把個資刪除,怎麼不是教導男性不要製作這種
噁心的東西?」
目前Deepfake色情影片受害範圍不斷擴大,受害者不局限於公眾人物,甚至是親人、朋友
或自己,但由於Deepfake等 AI 技術涉及到法律盲區問題,只能盼各國政府能盡快提出法
律對策,遏止性犯罪持續發生。
https://imgur.com/uGhgoqk
▲總計9萬5820個deepfake影片中,高達到53℅的受害者事韓國女藝人,這些影片在網絡
上的總瀏覽次數達到數百萬次,99%的不雅影片受害者是女性,而94%從事演藝行業。(圖
/翻攝自X)
https://imgur.com/8VFGU3Y
▲韓國當局已表示要因應日益嚴重性犯罪問題,計劃要求通訊軟體Telegram和其他社群媒
體平台,積極協助刪除和封鎖Deepfake製作的色情內容。(圖/美聯社/達志影像)
https://imgur.com/VhKGR4t
▲韓國政府告訴還未遭受Deepfake的學生們緊急應對方法為「將在社交平台發佈的個人照
片或個人資料全部刪除」,讓犯罪者暫時無法獲取公開臉部資料進行偽造。(圖/韓國警
察廳提供)
https://imgur.com/n1zegPS
▲韓國是深偽不雅影片的主要目標國,而深偽不雅影片的製作者大多是10多歲的青少年,
韓國教育部表示,正在考慮加害者進行最嚴厲的處罰。(示意圖/美聯社/達志影像)
新聞連結: https://www.nownews.com/news/6511124
備註:
已經有經紀公司說會提告了
包括 Twice的公司