最近,有网友发消息称,
“张文宏是不是带货了?”
视频中,
张文宏在卖一种蛋白棒,
家里的老人信以为真已经下单,
还转发了很多群。
据媒体报道,
这个账号名为“般画234”
在视频中
“张文宏”反复介绍一种产品,
口型是他的,声音也是他的,
但稍微懂点AI的小伙伴们
一眼就能分辨,
这是AI合成的视频!
目前,
这段视频已在该账号内不可见,
但商品橱窗内
还保留着蛋白棒售卖的页面,
并显示已售出1266件。
近年来,
AI剪辑冒充明星的案例屡见不鲜,
也有不少人因此上当。
今年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要到银行贷款200万元给自己的男朋友“靳东”拍戏。
民警随即拿起老人的手机进行查看,发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成,但老人对网络知之甚少,对于骗子所说所做深信不疑。
最终,民警通过向老人展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才幡然醒悟,表示不会再相信网络上的“靳东”,并放弃了开卡贷款的念头。
今年10月,
老牌港星黄百鸣
在社交媒体上发布声明表示,
有人盗用他过去的影片
并利用人工智慧技术替换掉原有声音,
假借自家名义代言一个
不知名的药膏品牌,
这种行为纯属欺诈,
旨在误导公众并从中取利。
学会三招识别AI“换脸换声”
例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。
同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。
点亮和
让更多小伙伴
知道这个消息
↓↓↓
编辑:幸婉茵、黎洋宏