Scaling Law遇阻,AI 性能或难再有大提升

科技   2024-11-18 19:45   北京  
文丨海中天
AI模型是不是遇到了性能瓶颈?可能真是如此。
外媒The Information报道称,下一代OpenAI模型的性能似乎不会有太大提升,这不是一个让人高兴的信号,它意味着生成式AI可能遇到了瓶颈。

OpenAI的下一代模型叫Orion,据测试或者使用过的人透露,相比于GPT-4,它的提升不会特别大。从GPT-3到GPT-4进步明显,Orion相比GPT-4的进步小很多,执行编程任务时更是如此。

行业曾经认为,模型的进化会遵循所谓的“尺度定律(Scaling Law)”,未来的模型会越来越先进,但The Information的报道似乎正在推翻这一结论。
OpenAI CEO山姆·奥特曼(Sam Altman)今年2月曾表示:“尺度定律是上帝决定的,常数是由技术人员决定的。”奥特曼认为,当模型的规模变大,获得更多数据和算力,AI会变得越来越聪明。

奥特曼可能会坚持自己的观点,认为注定的公式决定AI会变得更聪明。从另一个角度看,OpenAI内部已经有员工在质疑所谓的定律,硅谷也发现领先模型遇到了瓶颈。

尺度定律终结了吗

目前Orion还没有训练完,为了提升性能,它采用一些额外措施,比如根据人类反馈建议优化训练后的模型。

Orion一年前公布,虽然从最新的报道看性能不会带来惊喜,但在正式推出前仍然有可能出现戏剧性提升。媒体的报道在警告行业,投入几十亿美元拼命训练,估值无限高,最终带来的新模型可能不会让人惊叹。

为什么会这样?主要有两个原因。

首先是数据,它是尺度定律公式的重要组成部分,企业正在快速消耗网上数据,快要耗光了。
企业用人类创造的数据训练模型,比如文本、视频、论文、小说,但人类创造的数据供应有限。根据Epoch AI的预测,2028年之前可用的文本数据就会被消耗光。为了克服困难,企业正在让AI合成数据,但这类数据存在缺陷。
企业软件开发商Databricks的联合创始人Ion Stoica说:“面对一般知识性问题,目前的LLM(大语言模型)似乎进入了瓶颈期。”事实数据比合成数据更有用。

其次是算力问题,它也是AI性能能否提升的关键,算力不是无限的。奥特曼上个月曾表示,在调配算力时,公司面临诸多限制,很难做决定。
早就有专业人士发声,指出今年发布的AI模型和即将出现的模型进步都不大。

收益递减无法避免

纽约大学教授Gary Marcus认为,AI研发注定会碰到南墙,他还刊文强调,AI出现了“收益递减”现象。

今年6月OpenAI的竞争对手Anthropic发布Claude 3.5模型,Gary Marcus使用新模型后认为,Claude 3.5在推理、编程、数学方面有些微进步,其它模型也一样有进步,但都不大。

Gary Marcus认为,AI市场投入大量美元,AI模型却并没有出现可持续的指数级增长。
OpenAI和Safe Superintelligence的联合创始人Ilya Sutskever也持相似观点。看到The Information的报道后他告诉媒体,扩大预训练规模的作用已经遇到了瓶颈,做正确的事变得更重要了。

AI企业肯定不会放弃,它们一定会寻找各种办法大幅提升AI模型性能。Anthropic CEO Dario Amodei认为,明年AI模型训练将会进入新时代,训练一个模型可能要100-1000亿美元。奥特曼曾透露,GPT-4的训练成本达到10亿美元。
投入巨额资金之后,AI模型到底会变得有多聪明?我们只能拭目以待。

训练的成本太高 企业难以承受

谷歌母公司Alphabet准备更新Gemini模型,但有消息称模型并没有达到内部预期。Anthropic准备发布新Claude模型,也就是3.5 Opus,虽然业界十分期待,但推出时间却已经延迟。

也就是说,加上OpenAI,三大知名AI开发商都遇到了麻烦。由于缺少人类创造的高质量数据,没有充足的编程数据拿来训练,Orion的编程性能难以让用户满意。

从另一个角度看,为了获得些微的性能提升,企业却投入大量金钱,这样下去还能持续多久?

2027年之前,训练一个AI模型可能要100-1000亿美元,如果是1000亿美元,比全球三分之二国家的GPD还要高,数据触目惊心,说明AI模型的规模和成本正在飞速膨胀。
成本最大的来源是算力,算力并不便宜。根据Leopold Aschenbrenner的估计,GPT-4在训练时消耗了2.1e+25 FLOPs的算力。购买这些算力要多少钱呢?大约4000万美元。

听起来不多,但事情远没有那么简单。

首先,你要搭建训练集群,用来处理模型训练问题。比如GPT-4,它需要1万块与H100相当的GPU,每块25000美元,总计2.5亿美元。其次,训练需要耗费大量电力,还要建设数据中心,安装降温设备,搭建网络,等等。整个集群的成本约为5亿美元。
花100-1000亿美元训练一个模型?听起来简直疯了。如果亏损严重,即使是谷歌这种富可敌国的企业也会退缩。

不缺少乐观者望向下一站

在美国硅谷,仍然有很多人对AI性能的提升感到乐观。

今年7月,微软首席技术官Kevin Scott说:“与别人的看法不同,我们认为随着训练规模的扩大边际收益不会降低。”

有些新策略可能带来帮助,比如,在开发过程中增强推理部分,让AI变得更聪明。简单来说,就是在模型训练完之后加入模型之前未见过的数据,优化输出结果。

今年9月OpenAI发布OpenAI o1,它重点关注推理优化。

尽管如此,对于尺度定律是不是能驱动AI模型不断提升性能这个问题,许多行业人士仍然保持怀疑。如果未来出现的模型表现不佳,人们会对所谓的“AI繁荣”重新评估。
如果想继续优化模型,首先还是要解决数据问题。公开互联网、出版图书虽然有很多文本数据,但低垂的果实已经被摘取。

合成数据可能不是一个好选择,经过几次递归训练后模型可能会崩溃。

企业最终可能还是要依赖推理,增强模型的推理能力。问题在于,目前即使是最先进的推理模型也很容易被愚弄。有些专家建议用较大的“老师”模型通过更精炼的高质量信息训练“学生”模型。
如果LLM模型真的遇到瓶颈且无法突破,接下来可能会通过专业化来提升。例如,微软用所谓的小语言模型取得一些突破,它专注于任务和问题类型。未来的AI可能会关注更狭窄的特殊领域。

如果您有什么想说的,欢迎在评论区留言讨论!
投稿或寻求报道,欢迎私信“投稿”,添加编辑微信
如果您想要获取最新的科技趋势分析、行业内部的独家见解、定期的互动讨论和知识分享、与行业专家的直接面对面交流的机会!
欢迎扫描下方二维码,加头部科技创始人、AI头号玩家俱乐部主理人张晶晶微信!

头部科技
头部科技是技术新世界的记录者、探索者和推动者。我们致力于普及细分场景的科技解决方案,打造科技和人才创新知识图谱。无论你身处技术公司或传统行业,在这里都可以找到智能化、数字化升级的案例和伙伴。在无限的时空中,和你共同探索科技原力是我们的荣光。
 最新文章