随着人工智能AI技术的广泛应用,诈骗集团仅凭一张照片、一段音频便能通过合成技术假冒“熟人”,以假乱真。在此提醒广大金融消费者务必警惕新型诈骗手段,避免金融资产受到损害。
一
案情简介
近日,刘先生接到一通“老友”打来的视频电话,几句寒暄后,对方告知刘先生最近生意不错,准备购买一批货物。第二天,刘先生再次接到“老友”的语音电话,表示自己在付货款时操作失误,资金24小时后才能到账,一时半会无法筹集资金,希望刘先生帮忙先行垫付货款300万元,待24小时后款项到账立刻归还。刘先生表示自己存单尚未到期,但“老友”声称损失的利息可以为其全额补齐。碍于“老友”情面,刘先生来到中国银行网点办理存单提前支取业务,因存单金额较大,利息损失较多引起银行员工的注意,在沟通中工作人员怀疑刘先生可能遭受了新型诈骗,刘先生立刻主动与好友电话联系确认,这才意识到被骗了,停止了业务办理,避免了资金损失。
二
案例解析
本案例刘先生的遭遇属于典型的“AI换脸诈骗”。因人脸效果更易获取对方信任,诈骗分子利用AI技术换脸,可以伪装成任何人,进而以借钱、紧急资金求助等借口诱导亲朋好友转账,最终达到诈骗钱财目的。
三
风险提示
第一,妥善保管个人信息。切勿随意向他人透露、提供身份证号、银行卡号等敏感信息,保护好面部、指纹等个人生物信息,警惕AI换脸术,避免被不法分子“围猎”。
第二,可回拨电话进行确认。当金融消费者接到陌生电话、短信涉及资金转账时,应立即放下电话,莫慌莫忙、保持冷静,拨打日常使用的家人或朋友电话确认,切勿贸然转账以防被骗。
第三,被骗后应及时报警。广大金融消费者一旦遭遇诈骗导致资金损失时,应第一时间拨打110报警,及时向公安机关反映,务必保存转账回执、聊天记录等证明资料。
了解更多消保知识
请扫码关注
中国银行微银行
河北省分行公众号
【消保课堂】