Deepfake的扩散
Deepfake始于2017年。从那时起,这项技术就变得普遍。以下是一些关于Deepfake如何席卷全球的统计数据:
-到2024年底,AI生成的Deepfake的全球市场价值将达到7910万美元。此外,2023年达到13.9亿美元,年复合增长率(CAGR)为37.6%
- 2023年有95,820个Deepfake视频——自2019年以来增长了550%
-在线Deepfake视频数量大约每六个月翻一番;例如,2020年6月有49,081个视频,仅在同年12月就增加到85,047个
-恶意实体已开始使用Deepfake来绕过验证检查,2024年迄今尝试增加了3,000%
-从2018年到2019年,Deepfake视频增加了100%,达到14,678个
-与2022年相比,2023年在线视频Deepfake增加了三倍,基于语音的Deepfake增加了八倍
- 2023年,社交媒体用户分享了约50万个语音和视频Deepfake,其中许多是伪造的政客——这对全球政治有重大影响
欺诈和威胁
尽管Deepfake发明的时间相对较短,但已经给人们造成了很大的损害。以下是这项技术破坏能力的简短预览:
-与其他形式相比,Deepfake和其他AI驱动的恶意活动是最普遍的身份欺诈类型
-电子邮件是Deepfake钓鱼攻击最常见的传播方式
- 2024年,约26%的人在网上遇到过Deepfake诈骗,其中9%成为受害者
-令人惊讶的是,80%的Telegram频道包含Deepfake内容
-不幸的是,相当数量的Deepfake攻击受害者(77%)因此损失了金钱
-三分之一的Deepfake受害者损失超过1,000美元。同时,7%的受害者损失高达15,000美元
人们对Deepfake的看法
虽然Deepfake的使用有所增加,但许多人仍然不知道这种技术的存在。以下是普通人对这项技术的看法统计:
-人们不能再忽视Deepfake的问题;58%的受访者认为Deepfake是一个日益严重的问题,需要紧急监管
-尽管存在这些担忧,71%的人不知道什么是Deepfake;只有三分之一知道它们
-也就是说,越来越多的人知道什么是Deepfake:2022年为29%,比2019年的13%有显著增加
-另一个来源发现,2024年对Deepfake的担忧增加了66%,特别是随着美国大选的临近
-事实上,66%的美国人遇到过旨在误导他们的Deepfake视频和图像,其中15%经常在网上寻找它们。只有33%的人表示很少或从未遇到过Deepfake
Deepfake如何影响企业
Deepfake与公民之间的不利联系是显而易见的,但你知道它们也可以被用来对付企业吗?以下是企业如何应对Deepfake的威胁:
-超过10%的组织已成为成功或试图进行Deepfake欺诈的目标,主要是由于其过时的网络安全协议
-客户方面呢?新研究发现,近一半(40%)的公司及其消费者已成为Deepfake攻击的受害者
- 2023年有50万个Deepfake视频和语音
-尽管企业针对性的Deepfake攻击普遍存在,但只有52%的组织有信心识别其CEO的Deepfake
商业领袖对Deepfake的看法
虽然Deepfake对企业的威胁显而易见,但许多商业领袖尚未做出适当的回应。以下是他们对Deepfake的看法:
-尽管大多数公司都成为Deepfake威胁的受害者,31%的企业高管仍坚持认为Deepfake没有增加他们的欺诈风险
-同样,37%认为Deepfake不会使他们的企业面临风险——主要是因为他们认为他们的公司不够大,不会成为目标,而且他们的网络安全措施足够
-三分之一的领导者(32%)不相信他们的员工能够识别针对其企业的Deepfake欺诈尝试
-超过50%甚至说他们的员工没有足够的培训来识别和应对Deepfake攻击
Deepfake的社会影响
Deepfake技术的兴起引发了人们对其潜在社会影响的日益关注。从传播错误信息到破坏对数字媒体的信任,Deepfake对个人和社会都构成独特威胁:
-由于全球努力警告人们这项技术,人们对Deepfake的怀疑越来越多
-同样,77%的美国人希望对误导性Deepfake进行更多监管和限制
-约61%的美国成年人也表示普通美国人无法识别经过修改的照片和视频
-由于Deepfake,32%的成年人比以往任何时候都更加怀疑社会媒体
- Deepfake也会影响人们的记忆,尽管影响很小
Deepfake与色情
Deepfake已成为色情领域的一个令人不安的工具,经常在未经同意的情况下用来制作露骨内容:
- Deepfake创作者只需不到25分钟,无需花费任何费用就可以制作任何人的一分钟色情视频——只需要一张清晰的图像
-不出所料,96%的在线色情Deepfake是非自愿的
-大多数(98%)的在线Deepfake不是政治性的或娱乐性的——它们是色情的
-大多数Deepfake案件(87.7%)发生在加密货币领域,其次是金融科技(7.7%)和在线游戏(1.6%)远远落后
-几乎所有(94%)出现在色情Deepfake中的人都在娱乐行业工作,比如名人和网红
我们在检测Deepfake方面有多好...hmmm或者是多糟?
尽管技术不断进步,检测Deepfake仍然是一项具有挑战性的任务:
-虽然57%的人可以发现Deepfake视频,但43%的人无法区分经过修改和真实的内容
-不幸的是,人类只能73%的时间检测到语音克隆或语音Deepfake
-人脑可以在54%的时间内无意识地检测Deepfake
-人类有相当大的误差。在一次测试中,受访者将69%的真实面孔识别为假面孔
-另一个来源测试了280名参与者检测Deepfake的能力,报告的平均准确率为62%。然而,个人数据范围从30%到85%
-进一步强调人眼在Deepfake检测中的不可靠性,培训仅平均提高3.84%的准确性