“张文宏”带货?紧急提醒

百科   2024-12-12 17:23   江苏  

最近,有网友发消息称
“张文宏是不是带货了?”
视频中
张文宏在卖一种蛋白棒
家里的老人信以为真已经下单

还转发了很多群


据媒体报道
这个名为“般画234”的账号
在视频中
以“张文宏”身份反复介绍一种产品
口型是他的,声音也是他的
但稍微懂点AI的小伙伴们
一眼就能分辨
这是AI合成的视频!

目前
这段视频已在该账号内不可见
但商品橱窗内
还保留着蛋白棒售卖的页面
显示已售出1266件


近年来
AI剪辑冒充明星的案例屡见不鲜
也有不少人因此上当

今年10月
老牌港星黄百鸣
在社交媒体上发布声明表示
有人盗用他过去的影片
并利用人工智慧技术替换掉原有声音
假借自家名义代言一个
不知名的药膏品牌
这种行为纯属欺诈
旨在误导公众并从中取利


学会三招识别AI“换脸换声”

我们可以要求对方在视频对话的时候,在脸部面前,通过挥手的方式去识别实时伪造的视频。在挥手的过程中会造成面部的数据干扰,他所伪造的人脸会产生一定的抖动或者闪现,或是一些其他异常的情况。


在点对点的沟通过程中,可以问一些只有对方知道的问题,验证对方的真实性。


还可以让对方通过按鼻子按脸的方式,观察其面部变化,真人的鼻子按下去是会变形,但AI生成的鼻子并不会,同样脸部也是一样的。



值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。



例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。


同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。


来源:荔枝新闻综合中国青年报、新闻坊、侬好上海、@晏秋秋视频号、大皖新闻  





科普江苏
科普知识轻阅读
 最新文章