你看到的“张文宏”不一定是本人!

时事   2024-12-21 16:00   内蒙古  

点击上方蓝字关注我们

近期

知名医生“张文宏”在直播销售蛋白棒

假的,假的,假的!

不少网民尤其是老年群体信以为真

其实,这是AI(人工智能)合成的

千万别入坑

1

张文宏回应:多次投诉屡禁不绝


近期,这段AI(人工智能)合成的“张文宏”视频让不少网民,尤其是老年群体信以为真。

市民王秀兰说:“我之前看过很多张文宏医生的报道,非常相信他的专业水平,同时也相信他推荐的保健品。没想到直播里看到的并不是张文宏医生本人,这种造假手段真是太恶劣了!”她还表示,当时如果不是支付环节出了问题,她就信以为真下单购买了。

对此,华山医院感染科主任、国家传染病医学中心主任张文宏在接受媒体采访时表示,这样的卖货账号不止一个,且一直在变换,他曾多次向平台投诉,但问题屡禁不绝。“事情已经持续几个星期了,有很多不明真相的老百姓,特别是那些对AI不太熟悉的、年纪比较大的市民,很容易就会相信。我看到购买量在不同的地方都不少,最多的有1000多单。我在发现这个事情后立即投诉了那个AI合成的视频,但是他的账号一直在换,我最后也没有精力再追究了。这些假的AI合成信息就像蝗灾一样,一次又一次地发生,就像漫天飞来的蝗虫一样害人。”张文宏说。

除了向平台方投诉,张文宏称也曾考虑过报警,但对方难以捉摸,就像幽灵一般难以定位,这让他犯了难。“报警总要有个具体的对象吧,现在我应该报警抓谁呢?他一天换一个账号,而且全是虚拟的,我向谁报警呢?!所以,我认为这侵犯了消费者的利益,相应的部门应该来进行处理。”张文宏说。

2

AI技术被不法分子利用


众所周知,现在人工智能技术发展迅速,只要有个别人说话的视频,系统就能捕捉这个人的面部特征和声音特点,然后输入一段自己编好的话术,这个AI做的“假人”就能像真的一样“说话”了。不幸的是,有些不法分子开始利用这项技术制作假的名人推销视频,骗人购买他们的产品。比如,骗子特别喜欢模仿张文宏这样的名医来推销保健品,专门骗中老年人。

这种AI做的假带货视频不仅欺骗了消费者,而且侵犯了被模仿者的肖像权和名誉权。

3
手机上“眼见”“耳听”不一定为实
值得一提的是,近期国家金融监督管理总局发布的消费者权益保护风险提示中也提到,利用AI技术实施诈骗主要有“拟声”和“换脸”两种手段,即通过模拟他人声音或形象来骗取信任进而诈骗钱财。“拟声”和“换脸”等合成技术的一大特点是“以假乱真”,不法分子可以利用此类技术轻易伪装成他人,并通过快速筛选目标人群、精准定制诈骗脚本实施诈骗。因此手机上的“眼见”“耳听”都不一定为实。在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗手段。消费者尤其是老年人应提高警惕。
业内专家提醒,“AI拟声”和“AI换脸”技术虽然能逼真地模仿原始人物的语言和行为,但仍然存在破绽,例如眨眼频率过低、眼睛移动不协调、面部表情不自然、唇形不匹配、语句不连贯等。在无法确认对方身份时,老年朋友应尽量避免在手机上进行转账操作。


丨来源:中老年时报(记者 姚华)  图片来源于网络

丨校读:殷晓蕾

丨责编:曹洁 殷晓蕾

丨审核:张靖瑜

丨终审:王晓茹

声明:转载请注明来源于青橙融媒 生活官方微信


青橙融媒 呼和浩特晚报
呼和浩特晚报官方微信平台
 最新文章