近日,雷军在社交平台用三个“愤怒”的表情表达了对大量非本人配音的短视频的不满。这些视频中“雷军”的声音均由 AI 生成,内容多样且风格与雷军本人迥异。
这并非个例,去年“AI 孙燕姿”等合成声音的火爆,以及“郭德纲用英语说相声”“霉霉讲中文”等 AI 配音视频的出现,都显示了 AI 语音克隆技术的广泛应用。不久前的三只羊“录音门”事件,虽经警方调查为 AI 伪造,但内容的不良影响已造成。
AI 技术的发展迅速。过去几年,其语音克隆、图像和视频的深度伪造技术从复杂高深逐渐变得易于获取和使用。据相关数据显示,过去一年中,AI 相关的滥用事件数量增长了数倍。
AI 技术的进步本应带来便利,但滥用现象却对个人和社会造成了诸多危害。一方面,对个人隐私构成严重威胁,比如个人声音被恶意克隆用于非法目的;另一方面,可能扰乱社会秩序,虚假信息的传播容易引发公众恐慌和信任危机。
短期内,AI 滥用可能带来一定的“灰色经济”利益。然而长期而言,若不加以管控,将对整个行业的健康发展造成阻碍。比如,消费者对 AI 技术的信任度降低,导致相关产品和服务的市场萎缩。
为防止 AI 语音滥用,业界已采取一些措施。多重身份验证措施的应用,通过生物识别和短信验证等手段,一定程度上减少了语音诈骗带来的损失。AI 技术提供商开发的检测工具,以及研究机构的相关研究,都在努力应对这一问题。
但多位业内人士指出,AI 滥用问题很难彻底根除。法律在这方面的管理规范仍存在诸多空白和挑战。例如,对于 AI 生成内容的法律界定尚不明确,责任追究机制也不完善。
历史上,新技术的出现往往伴随着问题和挑战。如同互联网初期的网络犯罪,随着法律和技术手段的不断完善,才逐渐得到有效控制。总之,AI 滥用风险的解决需要多方面的努力,包括技术创新、法律完善和公众意识的提高。
能否根除这一风险,仍需我们持续探索和应对。
观看下方视频
为1%的人捕捉商业先机