张文宏:假消息就像蝗虫一样!
文摘
2024-12-13 16:45
浙江
“这样的卖货账号不止一个,且一直在变,我多次向平台投诉但屡禁不绝。很多不明真相的老百姓、特别是有些对AI不是很熟悉的、年纪较大的市民,就很容易相信。我看购买量在不同的地方好像都有不少。我在发现这个事情后立即投诉过那个AI合成的视频,但他的账号一直在换,我最后也没有精力了。这些假的AI合成信息就像蝗灾一样,一次又一次发生,像漫天飞过来的蝗虫一样害人。事实上,从平台投诉结果来看,我觉得最终也难以解决问题。”除了向平台方投诉,张文宏称自己也曾考虑过报警,但对方看不见摸不到,就像幽灵一般难以描述,只能寄希望于相关部门加强监管。“报警总要有个对象对吧,现在报警报谁呢?他一天换一个账号,而且全是虚拟的,我向谁报警?所以我认为,他侵犯的是消费者的利益,我觉得相关部门应该处理。”张文宏说。上海市消保委副秘书长唐健盛表示,实际上这根本就不是张文宏老师在带货,这完全是用AI来做的,这事情非常恶劣。首先这种做法其实已经构成了对消费者的欺诈,消费者如果说上当的,那么完全可以按照消费者权益保护法的规定,要求商家做出退一赔三,并且金额不足500元的要这个按照500元来赔。此外,我们觉得相关的监管部门应该对这种恶劣的行为要采用非常严厉的方法进行处罚,因为这不仅仅是涉及到消费者权益,它其实还涉及到整个社会的良知跟道德。2023年,国家金融监督管理总局就在消费者权益保护风险提示中介绍,利用AI技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集声音或面部信息。再利用“拟声”“换脸”等技术合成消费者的虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假信息,从而实现诈骗目的。专家表示,网络渠道“眼见”不一定为实。“拟声”“换脸”等合成技术的一大特点是“以假乱真”,不法分子可以利用此类技术轻易伪装成他人,并通过快速筛选目标人群、精准定制诈骗脚本,实施诈骗。因此,在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路,消费者应提高警惕。