一张伪造裸照0.48美元,“AI换脸”性犯罪背后的黑灰产业链

科技   2024-09-03 17:49   北京  

出品|搜狐科技

作者|李阳

运营编辑|王一晴

近日,韩国“N号房事件”卷土重来,韩国女性集体陷入“AI色情换脸恐慌”!

一时间,多个关于“韩国AI深度伪造淫秽影像”的话题词引发热议。

多位韩国女性称,她们接到陌生人的骚扰电话,才知道自己的姓名、电话、住址已经被传遍多个聊天室。

更可怕的是,她们的照片也被加害人通过Deepfake(深度伪造)进行AI换脸,生成了裸照或淫秽视频在Telegram平台进行传播。

据《韩民族日报》报道,目前参与人数高达22.7万!什么概念?韩国过去一年新生儿人数才23万人。

有网友自发建立了一个“受害者学校地图”的网站,用于受害者以及身边有受害者的网友进行登记使用。

短短两天时间,就有超过500所学校在网站上被标记,超过300万人次登录查询自己是否已经成为了受害者。

“N号房”事件因DeepFake再度上演,导致韩国女性集体陷入“AI换脸”的恐慌与愤怒的情绪当中。

而反观加害者的态度,则只是暂时关闭了Telegram,并公然表示“等安静下来会重新开放房间......”


韩国DeepFake

催发“N号房2.0”

追溯此次“N号房”事件的开端,最早是《韩联社》在5月发出的一篇报道。

该报道称,首尔大学两名毕业生从2021年7月至2024年4月,涉嫌利用DeepFake技术换脸合成色情照片和视频,并在“Telegram”上进行传播,受害女性多达61人,包括12名首尔大学学生。

在一个国家的最高等学府,学生正在通过科技手段加害自己的朋友、亲人和同学?

殊不知,这只是DeepFake性犯罪的冰山一角。

而就在最近,很多之前细思极恐的内幕陆续浮出水面。

一位韩国网友发帖称发现了一个聊天室,里面聚集上千人,分享自己偷拍妈妈、姐姐、妹妹的暴露照片,群里的发言恶劣至极。

于是,韩国警方对其展开调查,结果发现DeepFake(深度伪造)犯罪和当年的“N号房事件”一样。

在一个拥有1300多名参与者的聊天室里,有来自韩国几十所大学的众多小型个人聊天室。
经过韩国警方的调查,“深度伪造”犯罪和“N号房事件”一样,将特定职业女性性对象化,女兵、女教师、女护士都成为了非法合成色情图频的目标。
在平台上,不仅有“女教师房”、“护士房”、“女兵”等群组,还有以家人为对象的近亲房”、“家庭房”。
很多聊天室明确表示,想要加入必须上传女性亲属的不雅照片或视频。
就这样,DeepFake成为了韩国女性口中的“恶魔之爪”。
DeepFake“深度伪造”,简单来说就是“AI换脸”技术,包括语音模拟、人脸合成、视频生成等。
这项技术的出现使得篡改和生成效果逼真,可以达到以假乱真的效果。

5秒生成一张合成裸照

售价0.48美元

据韩媒报道,2021年至2023年,共有527名深度伪造淫秽影像受害者报案,未成年人占比59.8%。

随着技术发展,使用深度伪造技术制造虚假视频更加方便,大大降低了犯罪成本。

“只需上传熟人照片,付费后5秒钟就能生成裸体合成图。”所谓的色情深度伪造,在“Telegram”消息应用之上传播已久。

在调查过程中,某Telegram频道已经拥有超22万名成员,能够按需提供深度伪造的落照图像。

该频道设有图像机器人,能够将上传的女性照片转换为深度伪造的裸照。不仅如此,它甚至允许用户自定义生成图像中的各个身体部位。

平台规定,在免费生成两张深度伪造照片后,就需要付费才可以获得更多照片。

收费标准为每张照片一颗“钻石”,售价0.48美元(650韩元)。

用户每次至少10颗“钻石”起步,批量购买还有优惠。此外,邀请朋友加入还可以免费获得钻石,以此发展更多的用户群体。

尽管有报道称,韩国警方已经对深度伪造犯罪展开调查,但该频道的推广帖子仍时而出现在大众视野。

专家们表示,该频道的存在是深度伪造色情内容的现实缩影。而且很多人只是“觉得有趣”,他们似乎并没有意识到,自己这样的行为已经涉及犯罪。

韩国女律师协会人权事务主任Seo Hye-jin表示,“像这样在Telegram聊天室中制作性剥削及深度伪造类型的图像,并进行传播,是当前诱发大规模性犯罪的根源所在。”

如此庞大的频道及其创收模式之所以能够稳定运行,说明很多人并没有意识到这件事情的危害性。

近几年,韩国与深度伪造相关的犯罪数量及青少年犯罪比例都呈现上升趋势。

这些给受害者造成不可逆转伤害的数字犯罪行为,正在被人包装成一种“娱乐方式”。殊不知,这些图像已经成为霸凌受害者,或是成为黑灰产业链不法牟利的手段。

风暴肆虐

敲响伦理警钟

“AI换脸”性犯罪并不是个例,很多大家熟知的名人、明星,都曾是DeepFake的受害者。

Sensity作为一家监测和检测和深度伪造视频的公司,曾发布过一组数据:在2000多起深度伪造案件中,马斯克的形象出现了近四分之一的案件;

今年8月,马斯克因AI伪造技术卷入了一场诈骗事件

像巴菲特、杰夫·贝索斯(亚马逊创始人)这样的商业大佬的形象,也经常成为深度造假的对象。

据估计,这类由AI支持的深度造假每年可能导致数十亿美元的欺诈损失。而且这些图频制作成本极低,几分钟内即可完成,并通过社交媒体进行推广。

而国内在2020年也发生过一起“AI换脸涉黄”的案件,涉案人员被判有期徒刑七年三个月,并处罚金6万元。

人工智能技术正在以前所未有的速度重塑世界。同时,科学技术的滥用也引发了一系列的舆论风暴。

DeepFake技术,基于深度学习算法,通过训练大量的面部图像工具,创造出几乎可以以假乱真的照片和视频。如果将其应用到影视制作,可以实现逼真的特效。

可一旦落入恶意之手,就会成为违法犯罪的工具。

如何在享受科技发展带来便利的同时,避免科技给人带来伤害?

有人将社会的恶归咎于数字发展,但消灭了“AI换脸”技术能够救韩国女性的于水火吗?

答案显而易见。

恶魔并非是工具本身,而是躲在工具背后的罪犯。

“如何在工具层面限制AI的滥用,渠道层面加强监管切断传播,微观层面追踪传播和牟利的人,宏观层面加强普法教育,最后引发谁来执行监管。”这是近几天来我们看到最理智的分析。

科技发展带来的安全挑战,让我们意识到了科技的进步势必要建立在道德进步之上。这并不仅仅关乎于女性安全,更是为了维护每个人的尊严和权利。


搜狐科技
搜狐科技聚焦前沿科学与科技产业报道,深度跟踪基础科学、人工智能、互联网、通信等领域重大事件,洞察科技趋势与商业逻辑。
 最新文章