用AI生成的数据训练AI,AI会越来越“傻”!

文摘   2024-08-02 17:31   北京  

▲ 欢迎订阅2024年《科学焦点》,阅读更多精彩内容

▲ 每月一本,共12本

优惠价:264(原价:480



AI之所以能“有问必答”,在很大程度上是训练的数据量足够大的功劳。目前来看,只要用于训练AI的数据量足够大,AI就能继续扮演好我们的“良师益友”角色。不过,事情并没有这么简单和乐观,AI正在变傻。

文 | 梅林

视觉设计 | 李梅


现阶段,训练AI的数据主要来自网络。网络中海量的数据保证了AI能更快、更完善、更妥帖地回答我们提出的问题,满足我们的需求。随着AI的发展,网络中由AI生成的数据势必越来越多,那么用于训练AI的数据中,由AI自己生成的数据也会越来越多。这会给AI带来一个大问题。

AI正在变傻

一篇发表于2024年7月24日的《自然》(Nature)杂志上的文章指出,用由AI生成的数据训练AI,随着AI的迭代,可能会让AI濒临“崩溃”。

来自牛津大学、剑桥大学、英国帝国理工学院、多伦多大学等高校的研究人员,用先前几个版本的大语言模型(LLM,比如GPT、OPT)生成的数据占多数的网络数据训练了某个版本的LLM-n。他们发现,随着n的增加,LLM将会出现“模型崩溃”(model collapse)现象。

以Meta的大语言模型OPT为例。研究人员对OPT-125m做了测试。他们最早输入的训练数据是“根据英国作家波因茨·赖特(Poyntz Wright)的说法,一些在1360年之前开始建造的中世纪建筑,通常是由经验丰富的石匠和石匠临时工完成建造的,当地教区的劳工也会参与进来。但是,其他作者不这么认为,他们认为是建设团队的负责人根据早期垂直式建筑的例子设计了这些建筑。”

起初的几个版本的OPT还能根据训练数据,给出一些垂直式建筑准确的建筑时期。由于后期的版本是由之前版本生成的数据训练的,随着迭代,后期的版本给出的答案就变得越来越离谱——甚至到了第9代,OPT给出了一群兔子的名字。

AI变傻后会怎样?

那么,AI变傻了,或者说它崩溃了,会带来怎样的后果?研究团队指出,这种对训练数据长期的“污染”早已经发生了。例如,研究人员观察了“巨魔农场”(troll farms,专门在网络中散播不实言论或煽动性言论的组织,可以理解为“水军”“网络喷子”)的形成过程。巨魔农场给搜索引擎带来的“污染”就是,导致搜索结果的改变。而更令人担忧的是,随着AI大语言模型更多地走进网络世界,这样的“污染”的规模将变得更大,传播速度也会越来越快。

为此,谷歌降低了巨魔农场内容的搜索权重,而主打保护用户隐私的搜索引擎DuckDuckGo干脆删除了这些内容。但这些做法都不能从根本上解决AI变傻的问题。为了让AI能进行长期的“正规学习”而不是受到“污染”,必须保证网络中人工创造的原始数据始终都能访问。研究人员认为,要实现这一点,关键在于如何将AI生成的数据与人工创造的数据区分开来。

这就涉及到了AI生成数据溯源的问题,但是科学家目前还不知道如何大规模地追踪AI生成内容的源头。

在文章中,研究人员给出了一个可能的解决方案。建立社区层面上的合作,确保AI生成内容涉及的方方面面,都能共享解决内容溯源问题的信息。

参考文献:

    https://www.nature.com/articles/s41586-024-07566-y#Abs1
聚焦前沿科学,关注正在或即将改变人类生活的研究、技术和产品。“《科学焦点》杂志直营店”上线啦!
长按下图中的二维码或点击文章末尾的「阅读原文」,欢迎来我们的小店逛一逛!


▲ 欢迎订阅《科学焦点》,阅读更多精彩内容
▲ 2024年第8期全新上线
每期优惠价:22元(原价:40),全年订阅优惠更大



SF中文
Science Focus独家授权,聚焦前沿科技,关注正在或即将改变人类生活的研究、技术和产品。