“张文宏带货”?张文宏回应了!
时事
2024-12-12 23:31
天津
事情已经有几个星期了,有很多不明真相的老百姓、特别是有些对AI不是很熟悉的、年纪比较大的市民,他们就会很容易相信。我看购买量在不同的地方好像都有不少,最多的有1000多的。我在发现这个事情后立即投诉过那个AI合成的视频,但是他的账号一直在换,我最后也没有精力了。这些假的AI合成信息就像蝗灾一样,一次又一次发生,像漫天飞过来的蝗虫一样害人。事实上,从平台投诉结果来看,我觉得最终也难以解决问题。报警总要有个对象对吧,现在报警报谁呢?他一天换一个账号,而且全是虚拟的,我向谁报警?!所以,我认为他侵犯了消费者的利益,相应的部门应该来进行处理。今天
上海市消保委也对该事件
严厉发声
上海市消保委副秘书长唐健盛表示,实际上这根本就不是张文宏老师在带货,这完全是用AI来做的,这事情非常恶劣。首先这种做法其实已经构成了对消费者的欺诈,消费者如果说上当的,那么完全可以按照消费者权益保护法的规定,要求商家做出退一赔三,并且金额不足500元的要这个按照500元来赔。此外,我们觉得相关的监管部门应该对这种恶劣的行为要采用非常严厉的方法进行处罚,因为这不仅仅是涉及到消费者权益,它其实还涉及到整个社会的良知跟道德。紧急提醒!
国家金融监督管理总局发布的消费者权益保护风险提示中介绍,利用AI技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集声音或面部信息。再利用“拟声”“换脸”等技术合成消费者的虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假信息,从而实现诈骗目的。专家表示,网络渠道“眼见”不一定为实。“拟声”“换脸”等合成技术的一大特点是“以假乱真”,不法分子可以利用此类技术轻易伪装成他人,并通过快速筛选目标人群、精准定制诈骗脚本,实施诈骗。因此,在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路,消费者应提高警惕。专家介绍,“AI拟声”“AI换脸”包装作伪后的通话和视频虽然能逼真地模仿原始人物的语言和行为,但仍然存在破绽,例如眨眼频率过低、眼睛移动不协调、面部表情不自然、唇形不匹配、语句不连贯等。在无法确认对方身份时,应尽量避免转账操作。此外,消费者应提高个人信息保护意识,尽量避免在互联网过多暴露个人照片、声音、视频等信息,要对需要录入个人信息的非正规软件特别警惕。在开启“定位服务”、输入“身份证号”或是录入“人脸识别信息”“指纹识别信息”等个人生物信息时,一定要慎之又慎;发现APP过度、强制收集个人信息时及时向有关部门投诉举报。妥善设置个人社交账户的浏览权限,不过度公开或分享涉及个人信息的动图、视频等,不轻易向陌生人开启手机屏幕共享。