✦
✦
✦
✦
如何防止陷入这些诈骗?
✦
✦
✦
✦
深度伪造:利用人工智能进行诈骗的新手段
✦
这种类型的诈骗似乎越来越普遍,甚至在美国等国家也屡见不鲜。已有案例显示,诈骗者不仅冒充受害者亲友的声音,甚至在视频通话中伪造其面容,使受害人误以为自己真的在与亲友交谈。
通过各种人工智能应用,网络犯罪分子能够克隆人们的声音和图像。他们甚至可以拦截受害者的多个电话,以识别口音、表情和关键词,从而使他们相信自己是某个人。
IBM总经理胡安·曼努埃尔·梅萨(Juan Manuel Mesa)在Caracol Radio中谈到了这个话题。梅萨指出,网络犯罪分子可以从社交媒体上获取图像和声音内容进行复制,从而实施诈骗。因此,他建议大家要小心自己在互联网上分享的内容,以避免成为“深度伪造”的受害者。
同样,他提到了电话劫持的情况,在这种情况下,网络犯罪分子拦截受害者的电话,假装是受害者,以此欺骗亲友,使用人工智能生成的虚假声音,向对方请求汇款或转账。
“我们的一项建议是,仅在必要时才在社交媒体上曝光自己。此外,发布儿童的照片等内容也是非常高风险的,因为如今人工智能正在被错误地使用。”梅萨在采访中补充道。
✦
✦
本文来源于哥伦比亚时代报(el Tiempo)科技专栏的报道:
原文参见:https://www.eltiempo.com/tecnosfera/novedades-tecnologia/estan-clonando-las-voces-de-familiares-con-ia-para-estafar-asi-opera-el-nuevo-engano-de-los-ciberdelincuentes-en-colombia-3391367
本文使用ChatGPT辅助翻译,内容服务于中拉科技互鉴,不代表平台观点,如有疏漏,欢迎指正。
翻译 / 王一茗
校对 / 王 涵
审核 / 李 倩
排版 / 王金妮