迪拜:高管接到“人工智能克隆声音”电话后,亿万富翁差点损失了巨额资金

文摘   2024-10-24 20:23   湖南  


尽管75%的阿联酋员工认为他们可以识别深度伪造的图像,但在实验中,只有37%的人能够识别真实图像和人工智能生成的图像


一位印度亿万富翁透露了一段令人震惊的个人经历,他在迪拜的公司差点被一个人工智能骗局骗了。该骗局涉及人工智能(AI)克隆他的声音,欺骗他的一名高级管理人员几乎授权了一笔巨额资金转移。


亿万富翁、跨国集团巴帝企业(Bharti Enterprises)创始人兼董事长苏尼尔·巴蒂·米塔尔(Sunil Bharti Mittal)在周一举行的新德里电视世界峰会上讲述了这一事件。


米塔尔解释说,骗子模仿他的声音如此逼真,以至于他听到录音后都“惊呆了”。米塔尔说:“我在迪拜的一位高级财务主管负责管理我们的非洲总部,他接到了一个电话,电话里用的是我的声音,我的语气,指示他进行一大笔转账。”“他很明智,知道我绝不会在电话里提出这样的要求。”


这位不愿透露姓名的高管迅速报告了这个可疑电话,避免了重大的经济损失。“当我听到录音时,我被它的完美表达惊呆了。这听起来就像我说话的方式。”


这一事件发生之际,全球和阿联酋对滥用人工智能(尤其是深度假技术)的担忧日益加剧。


阿联酋网络安全委员会最近警告了深度虚假内容的危险,强调了欺诈、侵犯隐私和错误信息的风险。Deepfakes(人工智能生成的媒体,旨在模仿真人)可以制作出高度可信但完全捏造的视频、图像或音频,对个人和组织构成严重威胁。


阿联酋网络安全委员会也发起了一项宣传活动,警告称分享深度虚假内容可能导致欺诈或法律后果,并敦促公众在传播数字内容之前核实其真实性。


卡巴斯基商业数字化(Kaspersky Business数字化)最近的一项调查显示,尽管75%的阿联酋员工认为他们可以识别深度伪造,但在测试中,只有37%的员工能够成功区分真实图像和人工智能生成的图像。网络专家表示,企业仍然极易受到深度造假骗局的攻击,比如那些涉及ceo授权电汇的虚假视频或音频的骗局。


卡巴斯基(Kaspersky)高级数据科学家德米特里•阿尼金(Dmitry Anikin)强调了保持警惕的必要性。“许多员工高估了自己识别深度伪造的能力,这构成了重大的安全风险。网络犯罪分子越来越多地利用这种技术冒充高管,实施诈骗和勒索。”


源自khaleejtimes






 


长|按|扫|码|关|注



*公众号内容仅供参考和交流




UAE迪拜法务
阿联酋企业入驻,商法投资,法律咨询,收购企业,诉讼仲裁等全程协助; 有法律问题可以留言,谢谢
 最新文章