短短十分钟,430万巨款灰飞烟灭。一场伪装完美、几乎无法察觉的“变脸”骗局,让人们在震惊中感受到恐惧与无助。
这是一种新型骗局——“AI换脸”,它以科技为支撑,将人工智能的技术魅力扭曲成犯罪利器。央视曝光的案例不过是冰山一角,随着技术的普及与滥用,这种骗局的成功率竟接近100%。这背后,不仅是个人安全的困局,也是社会信任的坍塌。
人工智能技术正在改变世界,但这种改变并非总是朝着理想的方向前进。
近年来,随着AI换脸、换声等深度伪造技术的迅速发展,这些技术的用途已从娱乐和专业创意制作,逐步渗透到诈骗、勒索等犯罪领域。其隐秘性、精准性和高度仿真的特点,让它成为现代诈骗中最令人头疼的新型武器。
AI换脸技术的最初应用场景是电影、游戏等创意领域。例如,电影制作公司常用它为演员“重塑年龄”,让他们出演年轻或老年的自己。2016年,“DeepFake”技术首次在学术界亮相,其核心是通过深度学习算法训练模型,将一个人的面部特征完美嫁接到另一张脸上。
很快,这项技术被推广到大众领域,各类免费或低成本的应用程序涌现,让普通用户也能轻松使用。
在AI换脸的基础上,AI换声技术也迅速崛起。这种技术通过分析目标人物的语音特征,包括音调、节奏、语速等,生成高度仿真的语音。与换脸技术结合后,这种“视听双修”的伪造手段,让诈骗分子能够以假乱真,精准模仿目标对象的外貌、声音甚至语气,制造出以假乱真的视频或音频。
到2022年,这些技术的应用门槛已显著降低。一些在线平台甚至提供傻瓜式操作,让普通人无需专业知识便可生成仿真的伪造内容。技术的普及让诈骗团伙如虎添翼,他们可以低成本、高效率地制作足以欺骗他人的伪造视频。
2023年,警方曝光的福州案件就是AI换脸骗局的一个典型案例,同时也揭示了这类骗局背后的技术性与心理操控性。
郭先生是一位科技公司的负责人,在行业内颇具影响力,日常工作中与多个客户和合作伙伴保持紧密联系。某天下午,他突然接到一位长期合作伙伴发来的视频通话请求。这位“伙伴”在视频中面容清晰,神态自然,还带着一些特有的微表情,这些都符合郭先生对其熟悉的印象。视频通话中,“伙伴”提出公司出现资金周转问题,急需一笔资金救急,希望郭先生立即协助转账。对方的语气真挚,且一再强调事情紧急,表示稍后会立即归还资金。基于对合作伙伴多年的信任,郭先生毫不犹豫地转账430万元。然而,在资金转账完成后,“伙伴”突然失联。郭先生这才意识到情况不对,匆忙报警,但巨款已无法追回。
AI换脸骗局之所以成功率接近100%,不仅仅是技术的仿真能力强,还因为骗子巧妙地结合了心理学的操控手段。这种“技术+心理”的双重攻击,让受害者几乎没有招架之力。
AI诈骗常用手法
level1 合成声音
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
案例
2020年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
level2 AI换脸
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
案例
近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。
如何防范?
HOME
面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:
多重验证,确认身份
01
目前,AI换脸难以肉眼区分。因此,在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。
保护信息,避免诱惑
02
加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
相互提示,共同预防
03
做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
稿件来源:镇平安办、警民直通车上海、全民读史