大家是否有关注这两天在网上被广泛讨论的韩国“Deepfake(深度伪造)”事件?据韩国媒体报道,针对女性的深度伪造犯罪在韩国日趋猖獗,不仅大学校园中出现此类案件,甚至连中小学、军队等场所也成为高发地。这些参与犯罪的人,利用深伪技术将受害女性换脸,合成为色情照片和视频,并在通信软件Telegram上私密传播。经初步调查,该事件的参与用户多达22万人,受害者80%为女性,其中还有未成年女性。长久以来都生活在被偷拍,骚扰,换脸色情图片、视频的暴力与恐惧之中的韩国女性,因为始终等不到社会公开每个犯罪参与者的信息,也得不到她们想要的公正和安全,所以她们开始向世界呼救。
在“韩国Deepfake”的相关词条下,我们可以看到很多感叹韩男龌龊,韩国不行的评论。但你我心知肚明,随着AI工具的普及,严峻的Deepfake色情暴力问题,不仅仅是韩国所要面临的问题。我们可以来看一份数据。这份数据来自全球首个Deepfake Abuse研讨会,其发布的报告显示:在所有的Deepfake视频中,98%的视频包含露骨内容,其中99%都针对女性。至今全球已知的互联网Deepfake色情影片超27万条,比起2019年的1.4万条激增18倍,而这些影片的总观看次数多达40亿次。借助公开的AI工具,如今只需一张清晰的面部图像即可创建60秒Deepfake色情视频,时间不到25分钟,且花费0美元。一项针对1522名美国男性关于Deepfake色情态度的调查显示,48%的受访美国男性至少看过一次Deepfake色情内容,而74%的Deepfake色情内容用户对此并不感到内疚。该报告详细内容,可以点击评论区链接进行阅读。
显然,针对女性的深伪犯罪,比我们想象中还要普遍和严峻。这些韩国姐妹的呼救之声,也可能是我们的警铃。
事实上,已经有姐妹在网上投稿分享了自己和身边人,被“男同学”利用深伪技术合成不堪入目的色情图频的经历。很多罪犯就潜伏在我们身边,很多受害者只是不知情,而非“这里无事发生”。
但Pussy在这里说这些,并非想引发姐妹们恐慌。
恰恰相反,我觉得正视和了解这些针对女性的性犯罪手段,是我们保护自己人身安全和正当权益的第一步。同时,我希望姐妹们可以把羞耻感和恐惧感稍微放一放:犯罪的人才最应该感到心虚、羞耻、恐惧的,而不是我们。
如果我们发现自己被偷拍了,被“换脸”了,那我们要做的是第一时间保留证据,利用法律手段捍卫自身权益。
也许取证和定罪都会很艰难,但这些事总要有人去做。我们的恐惧和崩溃,只会让作恶之人感到满足,而发声与行动却会让所有姐妹得到力量。希望无论何时何地,我们都可以支持姐妹,不管她来自什么国家,与我们有多大异同。
她们所遭受的,我们可能也会遭受;她们所奋力反抗的,或许也是一直压在我们身心之上的;握住她们的手,想必我们也会得到力量。愿与姐妹们一起,燃烧黑暗,点亮曙光。