近日,福州市某科技公司法人代表郭先生在与“好友”视频聊天时,被对方以借用账户转账为由,10分钟内被骗走430万元。经调查,视频中的好友其实是骗子利用AI换脸和拟声技术伪造的。
这是近期全国范围内出现的一种新型电信诈骗,该诈骗利用AI人工智能,通过“换脸”和“拟声”技术模仿受害人的朋友或亲戚的声音和外貌,以此骗取受害者的信任,进行网络诈骗。
小明
小白
在AI时代,亲眼所见和亲耳所闻可能都不再是真相的保证。犯罪分子利用视频通话或电话邀请,甚至以录制视频赠送礼物等方式获取受害者的图像和声音资料,然后借助AI技术进行面部和声音的替换。
他们冒充受害者,在数字空间中向受害者的亲朋好友行骗。由于这种欺诈手法极为逼真,不仅使老年人难以分辨而成为受害者,即便是对新技术更为熟悉的年轻人也常常上当受骗。
AI诈骗怎么防?
面对日益猖獗的AI诈骗,我们应该如何提高安全防范意识,避免上当受骗呢?以下是一些防范建议:
1
不轻信陌生电话或视频
如果有陌生人或熟人通过电话或视频联系你,并要求你提供个人信息或转账汇款,要保持警惕,并通过其他方式核实对方身份;
2
不随意透露个人信息或资产情况
不要在网上公开或分享过多的个人信息或资产情况,如姓名、电话、地址、出生日期、银行卡号、验证码等,以免被不法分子利用;
3
不下载未知软件或点击可疑链接
不要随意下载未知来源或非正规渠道的软件或应用程序,并要定期检查手机、电脑是否中毒。不要轻易点击来自陌生人或熟人发送的可疑链接,并要注意保护自己的社交账号密码;
4
不贪图小利或同情心
不要轻信陌生人或熟人给你介绍的投资理财项目、中奖信息、紧急救助等,并要求你转账汇款。如果有疑问或感觉异常,要及时报警求助。