为啥不信?因为普通人做不出来。那个录音已经传遍全网,里面有几个重要的点就是,第一,音频说的是方言,第二,音频还在飙脏话,第三,音频还有各种环境音。
以前这几点组合起来,很多人都认为 AI 根本做不到。但其实都错了。普通人对 AI 的了解比较肤浅,根本不知道现在的 AI 技术已经发展到了什么程度。
其实,官方通报里面已经说了这个音频到底是怎么合成的了。我贴一下原文:现已查明,9月16日,王某某利用从互联网下载的音视频资料,杜撰卢某某酒后言论脚本,先使用AI工具训练生成假冒卢某某的音频,后用视频软件合成音视频,其中出现的女声也系AI工具训练生成。
大家看到了吗?这个人是先通过卢总在网上的音视频材料进行 AI 训练,然后才生成的那些传播的语言。
说得再详细点。
第一步,从网上下载卢总说话的音频素材。他直播视频那么多,这事儿轻而易举。
第二步,通过大模型平台,把卢总的数据进行训练,训练成一个特定的卢总音频模型。
第三步,写文本,即写出任何想让卢总讲的话,然后让一个和卢总口音相似的人来说这些话。
第四部,替换。把音频转换成卢总的声音。
第五部,配上环境中。这个也可以 AI 合成,也可以就真的用真实环境中录一段剪辑进去就行了。
普通人可以收集数据,但是不会训练模型,更别提到哪里去替换音频了,所以有门槛导致人们对 AI 伪造音频的技术理解有偏差。
本来写到这里差不多了就。没想到有家 AI 公司主动认领了这件事儿。而且这个 AI 平台是 一位00后搞的,今年2月才正式上线。了不起。
我贴一下:9月27日,深圳市言域科技有限公司创始人谢伟铎在接受采访时表示,网传的涉卢某某录音确系嫌疑人使用该公司自主研发的AI配音大模型平台生成。嫌疑人利用卢某某此前直播片段约30秒的录音进行声音克隆,并通过文本生成了虚假音频。
说这些只是想科普一下,AI 现在的能力真的能以假乱真。所以想要提醒大家,真的要谨防诈骗。不要朋友发你个语音或者视频向你借钱,你就真转了。一定要确认是不是本尊。
方法也很简单,那就是交叉验证。比如,对方微信发你语音,那你就让他发视频。再不放心,就视频通话。更保险的是,再打个电话,手机号码那种电话,不是微信语音电话。
当然,最保险的还是见面谈。你看重要的视频,国家领导人都见面谈,咱们也别省那个功夫。祝大家永远别被诈骗,毕竟一次大型诈骗很多时候意味着个人社死、妻离子散、家破人亡。