偷拍熟人照片,5秒内就能生成裸照!

2024-11-10 00:01   广东  
关注我的你,是最善良的!

只为苍生说话,用笔杆子道明事态原委、丈量人间温情。






偷拍熟人照片!





多名韩国女性接到陌生人发来的骚扰信息。她们并不知道,自己的姓名、电话、就读学校、家庭住址等个人信息已被传遍多个聊天室。和个人信息一起被传阅的,还有她们的照片。不法分子把她们的照片制作成涉黄图片,供聊天室里的人们观看。


01
5秒内就能生成裸照
这些受害者们可能是大学生、护士、教师,甚至是小学生,而散布这些消息的人,可能是受害者的熟人……一名小学女教师告诉记者,自己被学生告知,一个聊天室里有自己的涉黄照片。让她崩溃的是,上传者竟是自己的学生。
据韩国多家媒体报道,最近,韩国再现“N号房”丑闻,“深度伪造”,即利用AI换脸制造色情图频,
并通过社交媒体平台传播的性犯罪行为被大量曝光。

经过韩国警方和记者调查,
“深度伪造”犯罪和“N号房事件”一样将特定职业女性性对象化,女兵、女教师、女护士成为非法合成色情图频的目标,出现了“女教师房”、“护士房”、“女兵”等群组。最近,以女性家人为对象的“家庭房”、“近亲房”等也相继被发现。
自称韩国籍女子甚至在中国的微博上求助并曝光相关事件。
“你是朱华静吗?”2023年春天,女大学生朱华静收到了一条匿名短信,称“社交媒体‘电报’(Telegram)里有人在分享你的照片”,后面有一个聊天室链接。进入聊天室后,她被那些聊天内容吓坏了。
“那里有数十张裸体照片,看起来像是我的照片。可我从未拍过那样的照片。”朱华静说。“我的脸上被写着不堪入目的脏话,嘲笑我即使是名校大学毕业生,找到了好工作,
到头来也不过是供男人玩乐的工具。”

那些照片是通过深度伪造(deep fake)技术合成的。
有人还用AI软件生成了一段音频:“主人,我是你的奴隶。”
朱华静听了好几遍,声音和自己很像。可她知道,那不是真的。聊天室里可以利用软件给人“脱掉”衣服。该聊天室建于2020年,群里有多达1200人。也就是说,至少有1200个人看过朱华静的照片。不法分子们在群里直呼朱华静的名字,就像她的老朋友一样,而她对那群人一无所知。
一想到自己就这样被那群不法分子们围观,朱华静觉得天旋地转,恶心到想吐。然而,之后发生的事情,更让她心生后怕。有人知道她去过聊天室后,开始公然骚扰她。朱华静说:“我每天会接到20到30通骚扰电话,他们在电话里讲下流的语言,给我发短信,写着‘我在聊天室里看见你了’‘确定照片里的人是你吗’。”
她的社交媒体账号也被人疯狂发私信,聊天软件会收到很多条陌生人发来的加好友申请。朱华静打算对这些骚扰冷处理,拒接一切电话,注销了社交媒体账号。可那群人对她步步紧逼,有人合成了她朋友的照片,逼她就范,否则就会“让朋友因自己而受苦”。
走投无路的朱华静决定报警,并把自己收集的信息交给警方。很快,警方根据照片发布者的IP追踪到一名男性嫌疑人,将其抓捕。警察告诉朱华静,该男子与她就读同一所大学。他们听过同一场讲座,在同一个学生食堂用餐。
朱华静崩溃了。“他知道我的一切,甚至与我擦身而过。那1200个人都是如此,我却浑然不知……”目前,该案件正在首尔中央地方法院进行一审。8月14日,朱华静出现在法庭上,以受害者的身份向法官陈述自己的经历。
她说:“可能有许多人无法理解那个聊天室给我造成的伤害,有人甚至认为我在小题大做。但我必须要这么做,我要公开这些经历,让更多的人了解那群人做的事情有多坏,让更多的坏人付出代价!”在一个拥有1300多名参与者的大聊天室里,有来自韩国几十所大学的众多小型个人聊天室。
最大在野党共同民主党议员杨富男30日从警察厅方面获取的资料显示,2021年至2023年,共有527名深度伪造淫秽影像受害者报案,未成年人占比达59.8%,远高于20~29岁(32.1%)、30~39岁(5.3%)和40~49岁(1.1%)。未成年人占比从2021年的64.6%略降至2022年的52.9%,而去年再升至62%。
随着技术发展,使用深度伪造技术制造虚假视频更加方便,导致加害者中未成年人占比明显上升。涉嫌制作虚假视频被立案的加害者中,10~19岁占比2021年为65.4%,2022年略降至61.2%,去年反弹至75.8%,今年1至7月为73.6%。
使用deepfake制作非法合成视频并在Telegram上传播的所谓“熟人侮辱室”的经营者已被移交给检察官办公室拘留。受害者人数达到246人。首尔警察厅“深度伪造等虚假视频集中应对工作组”30日宣布,开设并运营Telegram“熟人侮辱室”的20多岁男子A先生于22日被紧急逮捕,并于当天送交检察官办公室拘留。以同样的罪名拘留的还有B先生,他是一名30多岁的男子,经营一家成人网站约四年,检察官办公室收到了2万多张非法性图片,包括儿童和青少年的性剥削材料。
据环球时报,8月27日韩国总统尹锡悦表示,最近以不特定人群为对象的深度伪造技术影像通过社交媒体迅速传播,不少受害者是未成年人,加害者也大多10多岁。他表示,依靠匿名恶意利用深度伪造技术是犯罪行为,希望有关部门通过掌握实际情况和调查,彻底根除这种数字技术犯罪。
针对女性的深度伪造犯罪在韩国日趋猖獗,不仅大学校园中出现此类案件,甚至连中小学、军队等场所也成为高发地,社交媒体上,特别是“电报”(Telegram)群组中不断有受害学校及被害者信息流出。
8月26日,韩国女性民友会发布题为《群体性暴力参与者达到22万人,社会崩溃要被放任到何时》的报告,指出在“电报”群组中,只需上传熟人照片,付费后5秒钟内就能生成裸体合成图。令人震惊的是,这个聊天群的参与人数高达22.7万。民友会在报告中质问道:“(韩国)女性们生活在一个无法有效惩罚或预防针对女性犯罪和暴力的社会中,失去了日常生活的安全感,仿佛生活在一个没有国家的状态中。这样的社会还有存在的必要?”面对深度伪造性犯罪的蔓延,韩国社会各界呼吁政府采取更强硬措施。
韩国国会女性家庭委员会27日表示,将于9月召开紧急对策会议,商讨相关解决方案。国会相关网站上还出现一份征求公众同意的请愿书,要求严厉惩罚“电报”平台性犯罪的肇事者。
据韩联社29日报道,韩国政府和执政党国民力量党当天同意,加强针对利用“深度伪造”(deepfake)技术进行犯罪行为的打击力度。报道称,社交媒体近期出现大量针对年轻女性的伪造淫秽影像,引发韩国公众愤怒。
韩联社称,最近社交媒体平台“电报”(Telegram)被发现存在大量疑似分享淫秽影像的群组,这些淫秽影像经“深度伪造”换脸而制成,以不特定人群为对象,受害者包括普通女性和女兵,许多受害者和犯罪者是青少年。
当地时间8月29日,在韩国国会举行的紧急会议上,韩国政府和执政党还决定推进与“电报”的运营公司构建合作热线,并采取立法措施,打击以传播为目的制作“深度伪造”色情内容的犯罪行为,将相关最高刑罚从目前的5年提高到7年监禁。
韩国执政党国民力量党政策委员会主席金相勋在会议结束后表示,“(‘深度伪造’色情内容)正在通过‘电报’广泛传播,但由于其服务器位于海外,国际合作似乎面临挑战。”他补充说,韩国政府将与“电报”的运营方举行会议,并寻求与该公司建立热线,以推动建立定期协商。
与此同时,韩国国家媒体监督机构——韩国广播通信委员会表示,由于“电报”创始人兼首席执行官帕维尔·杜罗夫已经在法国被逮捕,韩国方面已紧急致函法国当局,要求协助打击网络色情内容犯罪。
韩国国民力量党党首韩东勋敦促政府迅速采取措施遏制此类犯罪行为,并强调有必要下调未成年人承担刑事责任的年龄标准。目前,根据韩国《少年法》,年龄在10至14岁之间的儿童不对自己的行为承担刑事责任,不会被送往监狱,而是会被送去少年拘留所,或被判罚从事社区服务。

报道称,在这场会议上,韩国政府和执政党还同意设立一个跨部门工作组,负责领导打击“深度伪造”犯罪工作。韩国国防部表示,正在积极配合警方调查,并采取措施保护受害者,比如提供咨询和接收举报。该部门发言人表示,“我们意识到情况的严重性……我们还将采取各种预防措施,比如预防教育。”

在8月27日举行的政府内阁会议上,韩国总统尹锡悦敦促执法机关加大打击数字性犯罪的力度,以打击利用人工智能(AI)技术生成的“深度伪造”内容。

偷拍熟人照片,5秒内就能生成裸照的说法在多个证据中得到了证实。例如,有报道指出,在韩国,利用AI深度伪造技术,只需上传一张脸部照片,不到5秒钟,就能生成逼真的裸照。此外,还有其他工具和平台也提供了类似的功能,如Undress AI和X-Pictures等,它们可以在几秒钟内从着装照片生成逼真的裸体图像。

这些技术的出现引发了广泛的担忧和讨论,尤其是在隐私和安全方面。例如,有报道提到,韩国女性因为这种技术而失去了日常生活的安全感。这种技术的滥用不仅侵犯了个人隐私,还可能对社会造成更大的危害。

因此,对于这种技术的应用,需要严格监管和防范措施,以保护个人隐私和防止其被滥用。

AI深度伪造技术是如何工作的,以及它是如何在短时间内生成逼真裸照的?

AI深度伪造技术,特别是用于生成逼真裸照的技术,主要依赖于生成式对抗网络(GANs)。GANs由两个深度神经网络组成:生成器和鉴别器。生成器的任务是创造出能够欺骗鉴别器的假图像或视频,而鉴别器则负责判断图像或视频的真实性。

具体到生成逼真裸照的技术,如DeepNude和MakeNude等应用,它们利用深度学习算法从穿着衣服的照片生成裸体图像。这些应用通过分析和重建最逼真的裸体图像来实现这一目标。例如,DeepNude采用复杂的算法,逐像素分析图像,无缝脱去拍摄对象的衣服,留下逼真的图像。MakeNude则通过一次点击即可自动移除照片中的衣物,创建逼真的假裸照。

这些技术的实现需要大量的训练数据和计算资源。例如,DeepNudify投入了4320小时的AI学习时间和包含999,000张图像的强大训练集,以提供准确且逼真的结果。这表明,深度伪造技术在短时间内生成逼真裸照的能力,是基于大量数据和复杂算法的训练结果。

目前有哪些法律或政策正在努力防止AI深度伪造技术的滥用,特别是在保护个人隐私方面?

目前,为了防止AI深度伪造技术的滥用,特别是在保护个人隐私方面,多个国家或地区和地区正在采取法律和政策措施。以下是一些具体的例子:

美国政府正在起草新法律,以禁止生产和传播冒充个人的深度伪造内容。这些拟议的法案由美国联邦贸易委员会(FTC)提出,旨在阻止诈骗者,并为选举过程提供法律保障。

在隐私保护方面,加州已经通过了Assembly Bill 602,该法案允许个人要求删除或销毁所有被篡改的私密图像,并禁止传播未经授权的深度伪造内容。此外,美国还提出了No AI FRAUD Act和No FAKES Act,这些法案旨在保护公民免受AI生成的假冒和伪造侵害,并对违法者进行惩罚。

欧盟《人工智能法案》确保AI系统的开发、部署和使用过程中人的权利得到充分保护,建立明确的法律框架和道德准则,规范AI技术的使用,防止滥用个人数据。

在网络平台方面,强调其在网络空间管理和自治义务上承担的责任,以防止深度伪造技术被滥用。国际合作和协调也被认为是解决跨境案件追捕问题的重要手段。

如何识别和防范AI生成的虚假裸照,以保护个人隐私不被侵犯?

使用检测工具:目前已有技术可以检测图片是否由生成式AI模型生成。例如,GAN图检测通常使用预先训练好的GAN模型来生成假图像,并将这些假图像与真实图像混合在一起形成一个混合的数据集。然后,将该数据集送入分类器中进行训练,以区分真实图像和虚假图像。分类器通常采用卷积神经网络(CNN)进行训练,并基于图像的梯度、频率特征等进行判断,从而有效检测出虚假图像。

加强法律监管:多国已经通过相关法令禁止传播伪造色情作品,并允许受害者控告制造者。例如,弗吉尼亚州、加州、明尼苏达州和纽约州已通过此类法令。这种法律手段可以对制造和传播AI生成虚假裸照的行为形成震慑作用。

提高用户防范意识:用户需要具备一定的专业防范意识,了解如何识别AI生成的虚假内容。这包括对AI生成图像的特征有所了解,如拼写错误的单词、不协调的平面或有皱纹的皮肤等。

采用隐私保护技术:一些隐私保护技术如人脸匿名化技术,可以在一定程度上防止个人隐私被滥用。例如,DeepPrivacy和PP-GAN等模型可以去除或模糊掉图像中的敏感信息,从而减少被AI滥用的风险。

加强社交媒体平台监管:社交媒体平台如Snapchat、TikTok等应加强与政府部门的合作,共同打击AI生成虚假裸照的传播行为。尽管目前这些平台的合作效果有限,但加强监管仍然是必要的。

针对AI深度伪造技术的滥用,国际社会有哪些合作机制或倡议?

针对AI深度伪造技术的滥用,国际社会已经采取了一些合作机制和倡议。首先,联合国教科文组织发布了《人工智能伦理建议书》,这是全球首个针对人工智能的伦理规范框架,旨在为各国提供指导,以应对深度伪造带来的挑战。此外,中国提出了《全球人工智能治理倡议》,呼吁各国政府、国际组织、企业等共同促进人工智能治理。

在具体措施方面,欧盟委员会提出了关于人工智能的法案提案,旨在制定统一的AI规则,并特别关注深度伪造现象及其潜在危害。韩国也通过了《公职人员选举法》修正案,禁止利用AI深度伪造进行非法竞选活动,并对违法行为施以严厉处罚。

此外,国际社会还通过教育和宣传来提高公众对深度伪造技术的认识,增强防范意识。例如,WSJ媒体法医委员会与全球专家合作,举办培训研讨会,并与学术机构合作探索技术对抗深度伪造的方法。Meta和Twitter等大型媒体公司也与新闻机构和政府合作,

推动全球对话并提供媒体素养教育。

数字化转型行家
只为苍生说话,用笔杆子道明事态原委、丈量人间温情。
 最新文章