“人人都能赢4000欧元!” 一条来自阿兰·德龙的神秘视频在网络上迅速传播……

科技   社会   2024-08-28 22:59   罗马尼亚  

「想法」,添“星标”,点“在看”
法国生活资讯一手掌握!


8月18日,法国传奇影星阿兰·德龙(Alain Delon)去世,令无数海内外影迷落泪惋惜。但就在他去世后的24小时后,一条来自阿兰·德龙的神秘视频在网络上迅速传播。

👇


“如果你看到这个视频,说明我已经死了……我决定将留下的一部分遗产赠送给所有法国人民,每个人都能够通过我创建的在线赌场赢得4000欧元。我希望我的女儿已经启动了这个应用程序……您所要做的就是为您的账户充值作为押金,我会在视频下方留下该应用程序的链接。”


在这段46秒的视频中,阿兰·德龙本人“现身”并提出如果网友在他的在线赌场赢不到钱,他愿意提供10万欧元的补偿。


图源:LP


如此巨大的诱惑加上明星效应,让不少“很傻很天真”的网友欣喜若狂!



但是,天下真的有掉馅饼的好事吗?


AI换脸骗局大揭秘,多位明星背锅


在社交平台Facebook上,一个名为Le Point Français的页面发布了一个奇怪的公告:



想要从法国电影偶像阿兰·德龙的部分遗产中受益,没有比这更简单的了……您所要做的就是在指定的在线赌场注册并缴纳押金。



当然,这段视频是“Deepfake”—— 一种基于人工智能(AI)的多媒体合成技术。实际上,阿兰·德龙从未录制过这条消息,该视频也与演员没有任何关系。


图源:社交媒体X截图


没错,我们又被可恶的AI换脸骗到了!


随着Deepfake技术的普及,我们在网络上看到越来越多的骗子。诈骗原理很简单:骗子利用名人的样貌说他们创建了一个赌博应用程序来帮助人们致富,以此满足他们的慈善目的。


人工智能和“grazers”(网络诈骗者)专家维克多·巴伊特(Victor Baait)解释道,去年3月份,就有人通过Deepfake模拟了基利安·姆巴佩(Kylian Mbappé)的样貌进行诈骗,试图宣传一家赌场。


图源:社交媒体X截图


通常情况下,在视频发布后不久,页面评论区会出现一条置顶评论:鉴于感兴趣的人数已经增加(……),请您理解,不要拖延申请注册的时间。


图源:社交媒体X截图


人工智能专家Victor Baait 指出:


阿兰·德龙的去世对这些骗子团伙来说是一个绝佳的机会!他们了解他的生活,他们知道该说什么才能让视频变得可信,特别是利用他女儿的情况……这些细节足以赚取部分网友的信任。



电子易容术?一种制作精良的网络骗术


相信有不少小伙伴会好奇:如果真有人相信了这个骗局,往在线赌场账号里存钱会发生什么情况?


图源:pexels


维克多·巴伊特对此也作出了解释:


要么骗子会先给你汇一笔钱,让你相信是自己赢了很多钱,继而再鼓励你存入更多的本金;要么你会被阻止进行下一步操作,之前存入的钱也无法取出。


在网络上,Deepfake这种通过AI换脸的电子“易容术”已经成为常态。它不是简单的模仿,而是利用AI工具从头到脚完全“复制”一个真人的外貌、身型和声音,最后以图像、视频或声音片段呈现。


图源:WITNESS Media Lab.


早在2017 年,一位匿名 Reddit 用户就分享了 盖尔·加朵(Gal Gadot) 和 泰勒·斯威夫特(Taylor Swift) 等著名明星的经AI篡改的成人视频。


图源:海外各社交媒体截图


很快这一趋势迅速蔓延,一些企业迅速推出一种全新的信息技术服务:将用户已故亲人的旧照片通过Deepfake技术栩栩如生地呈现出来,并添加了他们的声音。


图源:pexels


之后,Deepfake在社交媒体上流行起来。通过恶搞名人,起到娱乐大众的效果。


图源:相关新闻报道截图


于是,我们会在许多恶搞短视频里看到类似的画面。比如,教皇方济各穿着一件巨大的白色羽绒服👇


图源:社交媒体X截图


法国总统马克龙变成了路边捡垃圾的流浪汉👇


图源:社交媒体X截图


经历前两个阶段后,一些心怀鬼胎的骗子团伙也瞄上了Deepfake。他们利用这种技术模拟名人形象传播虚假的信息,以达到勒索金钱或操纵舆论的目的。


图源:pexels


维克多·巴伊特感叹道:


有一点可以肯定,这种虚假视频真的有人相信。骗子团伙向Meta(全球最大的社交网络服务网站)付费来播放这些广告。他们乐此不疲地这样做,说明这些广告真的有效。我相信,阿兰·德龙的虚假视频也为他们带来了盈利,因为他们已经开始再次向Meta支付费用来推广这个骗局了。


图源:社交媒体X截图



练就火眼金睛,如何一眼识别AI骗局


尽管网络安全提供商正在不断改进其识别算法,但Deepfake技术也在不断升级。在这场“科技拉锯战”中,受伤最多的便是网友。在亦真亦假的网络世界,如何才能一眼识别这种骗局?

以下是网络安全专家提供的“拆招”Tips:


首先要警惕消息来源,追溯视频的发布地点和发布者。还记得“阿汤哥”汤姆·克鲁斯(Thomas Cruise)的假视频吗?它是由 TikTok 上的 @deeptomcruise 发布的,不是汤姆·克鲁斯本人。通常情况下,如果视频信息来源尚不明确,你就需要对其进行判断——究竟是粉丝账户还是新闻出版物。  


图源:tiktok@deeptomcruise


其次,利用搜索引擎这个一种强大的工具,它可以帮助你进行更深入的挖掘真相。例如,你对某个画面或图片产生疑问,可以通过搜索引擎进行反向图片检查。这种方法非常适用于网络社交平台上经常出现的“钓鱼贴”“杀猪盘”等诈骗方式。


图源:Weird


最后,你也可以通过一些额外的“线索”来区分真实视频和Deepfake伪造视频: 


图源:sosafe-awareness


肢体动作不自然 


人物动作不规律,从一个形象到另一个形象的动作是否连贯一致,头部和身体的位置是否协调? 


图源:pexels


奇怪的画面色彩  


注意视频的颜色,以及光线是否从一帧到下一帧出现波动。问问自己,这个人的自然肤色是否看起来不正常,面部是否有不应该出现的阴影?   


图源:pexels


奇怪的眼球运动 


如果你发现画面中的人物眼睛不自然地移动,或者眨眼频率不自然,请务必小心!


图源:pexels


尴尬的面部表情和情绪 


人物的面部表情是我们最为注意的一点。看看他们的脸或鼻子是否指向另一个方向,他们的面部表情是否与对话中的情绪不符? 


图源:pexels


不自然的牙齿/头发  


目前,Deepfake技术在模拟人类牙齿、头发等细节部位仍有缺陷。如果画面人物的每颗牙齿不清晰,或者头发看起来整齐顺滑得不正常,那就要小心了!毕竟,谁也不可能没有一根散落的头发丝。


图源:pexels


音频不一致  


Deepfake 创作者更注重完善视频画面,从而忽略音频的匹配度。你可以尝试注意画面人物说话的音调和语气是否真实自然,或者能否听到不寻常的背景噪音?甚至有些虚假视频根本没有原音频!


图源:pexels



正所谓“真亦假时假亦真”!看来,我们真的需要一双慧眼才能勇闯遍布谎言陷阱的网络世界!大家在冲浪时也遇到过类似的诈骗事件吗?你们又是怎么识破的?欢迎在评论区分享你的“防诈”经验~


文字:开心妹

图源:已在文章中标注,侵删

审编:Léa

参考来源:

https://www.leparisien.fr/high-tech/chacun-pourra-gagner-4-000-euros-apres-la-mort-dalain-delon-une-escroquerie-en-ligne-utilise-son-image-27-08-2024-CB4YMQGKJNG65DD64Z26DDBISQ.php

https://sosafe-awareness.com/blog/how-to-spot-a-deepfake/



本文为想法专稿,未经授权谢绝转载。如需转载,请点击“阅读原文”查看转载须知。



你可能还想看👇


点击图片查看详情👆

关注并将“想法哥享法妹”设为星标🌟
就能第一时间看到我们的推送哦~

想法哥享法妹
《欧洲时报》新媒体信息分享平台,想法哥和享法妹为你提供法国生活的各类新鲜实用资讯。
 最新文章