Dr Bing | 现象
前几天看到个消息:我Bing最喜欢的张文宏医生,居然开始带货了?!
有网友发现,张医生前阵子出现在一条卖货的视频里,侃侃而谈介绍一款“白芸豆威化蛋白棒”。
视频里的张医生说,这蛋白棒吃了对身体嘎嘎棒,延年益寿百病全消。
张医生作为家喻户晓的公众人物,影响力自然没得说,不少信任他的老年人不仅咔咔下单,还把视频转到群里呼吁家人们一起买:
张医生推荐的,赶紧冲!
惊了个呆啊。倒不是说张医生不能带货,而是他一个在社会具有很高权威性和公信力的名人,在有公职的情况下这么大喇喇的卖一款蛋白棒,总归让人觉得诡异蹊跷。
但脸是他的,口型是他的,声音也是他的!这个怎么解释?
记者赶紧联系到了张文宏医生询问他情况。
张医生表示:
他说,视频里根本就不是他,而是骗子拿他在网上讲话的视频用AI合成的,而且这样的卖货账号不止一个!
他已经和各个平台投诉很多次了,可对方是打一枪换个地方,马甲多如牛毛,防不胜防!
其实吧,我后来又找到那个视频仔细看了下,感觉是确实是有点问题。
比如画面模糊,声音也有卡顿,稍微分辨一下还是能看出是AI合成的假视频的。
但对那些对AI不熟悉的老年人网友,就属实造成考验了。
最关键,他还卖得真不少!
就说被记者发现的那个账号,生生卖了1000多单。
等你想起来投诉,人家早转移了,真是一点脾气没有。
张医生自己是发现一个就投诉一个,但搞到最后也实在精疲力尽了。
报警总要有个对象对吧,现在报警报谁呢?他一天换一个账号,而且全是虚拟的,我向谁报警?
这些假的AI合成信息就像蝗灾一样,一次又一次发生,像漫天飞过来的蝗虫一样害人。
而且从平台投诉结果来看,最终也没解决问题。
面对这种情况,“只能寄希望于相关部门加强监管”“因为他侵犯的是消费者的利益。”
咱都知道,自打有了PS这东西,有图不再有真相。
而随着AI视频技术的出现,眼见也不一定为实,耳听也可能为虚,连以往被视为“石锤”的视频也不再能相信了。
以后还有啥是可以相信的?
其实,张医生这种假AI卖卖蛋白棒啥的,已经不算很严重了。
这几年用AI搞诈骗已经成了最新流行产业,而且全球都有这个趋势,各类骗术花样频出。
光是利用显要名人合成AI视频搞骗局的,几乎天天都能看到。
还记得去年就有新加坡网友发现,新加坡总理李显龙居然号召大家投资了?!
而且这段视频在Facebook和X被传得到处都是,视频的结尾赫然一个投资骗子的链接。。。
李显龙劝老百姓投资?这怎么听怎么觉得荒谬啊。
后来经过媒体鉴别才发现,骗子是用Deepfakes技术把李显龙今年3月接受中国新闻网采访的一段视频内容,包括声音和字幕都修改为李显龙和主持人讨论一个“新型投资项目”!
而且这个项目还是马保国马爸爸设计的“革命性投资平台”!
那叫一个天花乱坠,新加坡不少华人网友都被忽悠了!
韩国也有类似案例。
去年有网友在Facebook发现,三星董事长李在镕总是谈到某某投资计划,不少韩国网友跟风受骗。
搞得李在镕也不得不出面辟谣:不是我不是我真的不是我!
这类案件里,拜老登更是AI攻陷的重灾区。
在前阵子的一段视频里,一段拜老登宣布征兵的深度伪造视频片段大范围流传。
后来才被证实:假!
今年1月,拜老登给新罕布什尔州的选民打电话干扰选举。
后来也被证实:假!
到7月份,X上也有个非常火的视频——拜老登退出总统竞选后首次发表视频讲话。
结果又被证实:假假假!
网友都麻了。。。
除了用AI变脸骗钱的,还有用AI变脸骗色的。
早在17年底,国外Reddit论坛的一个叫deepfake的网友就把AI换脸技术用到了色情产业上。
他们把电影《神奇女侠》的主演盖尔·加朵的脸合成到色情视频里,放在P站上卖,赚得盆满钵满。
之后,这一“换脸色情片”迅速蔓延到了各大社交网站、论坛,连很多普通女性没逃过,引起轩然大波。
而更让人后怕的是,目前AI换脸色情黑产已经形成了完整的产业链。
从下游成品情色视频、中游定制视频,到上游软件及教程都有提供,有的卖家甚至提供全产业链产品和售后服务!
除了以上这些,还有不少1V1针对性骗局。
比如之前一个案例,一家由马主任背书的所谓外汇公司,轻松骗走了一名82岁的退休老人将近70万美元!
视频里马主任提到一个承诺快速回报的激进投资项目,不光罪刑和表情细节都高度吻合,最主要还融入了马主任标志性的南非口音,把老头忽悠的一愣一愣。
等他把这辈子全部积蓄打过去,才发现自己是被骗了。。。
还有前段时间,香港警方也披露了一起多人“AI换脸”诈骗案,涉案金额高达2亿港元!
某跨国公司香港分部一负责财务的职员,有天突然接到“公司总部CFO”发起的“多人视频会议”。
在会上,CFO让他按照要求转账,把2亿港元分别15次转到5个本地银行账户。
之后,这懵逼员工才知道自己被骗了!
原来所谓的视频会议里只有受害人一个人是“真人”,其他“参会人员”都是“AI换脸”后的诈骗人员!
内地也有类似的案子。
去年内蒙古包头市就发生了一起金额高达430万元的诈骗案件,也是靠“AI换脸”作案的。
一个老板说,朋友打微信视频给他,说要借他公司走一下账,还把银行转账底单的截图通过微信发给了他。
想着都是老熟人了,他压根也没多想,也不核实钱到没到就直接把430万分两笔打了过去。
钱到账后他又去通知朋友查收,朋友是一脸莫名奇妙,直接回过来一个问号!
这时老板才意识到,BBQ了!
总结下来就一句话:防不胜防!
现在的AI视频越来越逼真,只要犯罪分子稍微动点脑筋,对那些不够了解AI的人造成降维打击。
而即便是有能力鉴别深度伪造视频的人,也有很多会不经意间被打眼。
最关键这种技术几乎没啥门槛,用起来都是傻瓜式的,用来干违法犯罪的勾当不要太“香”。
根据 Sumsub 2023 年的身份欺诈报告的调查结果,仅去年一年,全球的深度伪造视频增加了五倍!
那么我们的问题来了,有什么办法能识别AI换脸技术的诈骗呢?
这个问题我自己也没有太系统的方法。
不过我让AI回答了,再融合了一些AI大神写的技术贴,咱们可以一起学习一下。
首先,看细节!
比如检查图像或视频中的细节,看看人物形象的边缘是不是模糊?有没有锯齿状?动作是不是丝滑流畅?
人物说话时,嘴部的动作是不是清楚?(AI合成的内容嘴巴周围会有模糊现象。)
以及嘴巴张开时,牙齿是不是显示正常?
(比如有AI技术从业的网友拿霉霉的AI视频举例子,这牙齿都重影了,居然有好几层,这类细节都可以留意下。)
再就是听声音。
人声是不是真实、清晰、稳定?有没有卡顿和失帧?
第二,看数据!
比如可以查看视频的元数据,来获取有关文件来源和视频生成方式的线索。
如果可能的话,也可以在网上查找原始素材,追踪文件的制作过程。
那如果是AI换脸后视频通话又要怎么识别呢?
也有几个比较简单的方法,比如,我们可以要求对方在视频的时候在脸面前挥挥手,或者用手指按压鼻子。
因为挥手的过程中会造成面部的数据干扰,伪造的人脸就会产生抖动和失真。
而真人的鼻子按下去会变形,但AI生成的鼻子并不会!
以及最朴素的方法,对暗号!
可以问一些只有对方知道的问题,验证对方的真实性。
不过咋说呢,就算这些鉴别方式,也都是基于现有算法的局限性。
道高一尺魔高一丈,未来随着AI技术的不断发展更新,估计这些办法也会失效。
所以,防范AI诈骗,咱还是要从自身出发,做好信息保护,提高警惕啊!
尤其是当我们处理和钱有关系的交易,一定多留个心眼,不要轻易相信视频、声音,宁可多打几个电话确认。
再就是不要随便泄露你的个人信息,尤其要注意图像、声音、指纹等生物信息的保护。
你的个人公开视频越多,就越招骗子喜欢,意味着AI算法参考的数据多,生成的“数字人”也就更真实。
其实,即便是再聪明的人脑人眼,也一定有被打眼的时候,普通人炼不出火眼金睛。
有数据显示,大约 30% 经过 AI 换脸的合成照片合成视频,人类仅凭肉眼根本无法识别!
所以不能完全把视频打假的活儿交给普通网友。
最好还是从源头上解决问题,比如立法相关法律,或者约束这些服务的提供商,让各个AI技术公司和平台把好关。
今年9月,国家网信办已经发布了《人工智能生成合成内容标识办法(征求意见稿)》,要求从视频制作和发布的源头做好信息管理。
希望能收到好的效果吧!
按年级:小学三年级以上
按分级阅读:牛津树5~12级,RAZ F-P
按阅读能力:接近剑2水平~KET水平
想提升听力,实现“听力先行”
想从分级阅读过渡到章节书
分级阅读卡住了,想突破瓶颈
想提升口语表达
分级入章盲选好书,漫画搭配音频、动画片,磨耳朵积累词汇;语言技能贴合教改趋势,有输入有输出,让娃学会用英语讲中国故事。详情请看今日次条。
【合作微信】广告:yhl_berry ,开团bernibong
材质用料扎实、版型时髦大方;高颜值高品质,可搭亲子装;拍照出片、日常实用,还有新年特别款!详情请看这里。
澳洲美利奴羊毛,100%羊毛材质,柔软亲肤;多色可选,各种风格都能搭;版型修身不紧绷,上身优雅有气质。详情请看这里。
再提醒加个小号防丢咯: