正在和你视频聊天的人
居然是戴着“ai面具”的假人?
AI动态换脸技术
悄然侵袭着我们的网络安全防线
福建某科技公司法人代表郭先生10分钟内被骗430万元。案发时,他的好友通过(被盗用远程操控的微信)视频联系他,称自己的朋友在外地竞标,急需430万元保证金,想借用郭先生公司的资金走账。基于对好友的信任,加上视频聊天“核实”了身份,在10分钟内,先后分两笔把430万元转到了对方的银行账户上。事后,郭先生拨打好友电话才得知被骗。
诈骗分子通过在公共领域和社交平台或盗取个人账号的方式,收集受害人及其熟人的信息数据,如姓名、电话、照片、声音、视频等。
诈骗分子利用AI换脸技术,换脸成受害人的熟人或陌生优质异性,并利用AI拟声,将声音转变成所冒充身份的声音,使用虚拟摄像头或提前录制好的视频,通过视频电话骗取信任。
诈骗分子以紧急理由要求受害人转账汇款,如工作业务、个人借款、投资理财、紧急事件等理由,并催促其尽快操作。
通过AI换脸技术,诈骗分子可以伪装成他人身份,与受害人进行视频通话的方式进行骗取信任。
AI换脸技术需要大量的前期素材投喂并且无法完全绕过实时平台视频通话。
该骗局系隐私信息泄露与诈骗陷阱的结合,要减少在社交平台和公共领域上发布个人照片信息、声音信息等隐私,防止被不法分子盗用。
网络上有熟人、朋友、同事等联系你,以紧急事由,要求你转账汇款,要保持警惕,通过多方渠道进行核实。
在视频通话中要注意辨别声音和画面是否同步、脸部遮挡是否有变形、视频过程中让对方摸脸、按鼻子或是做其他动作。
内容来源:“宁德反诈”公众号,本微信的主要目的在于分享信息,让您了解更多的资讯。其版权属于原作者,如涉及侵权请告知,我们会尽快处理。