Ilya Sutskever:预训练已到瓶颈!

旅行   2024-11-13 07:30   北京  

扩大训练规模已经失效了!

OpenAI 联合创始人、AI 领域权威 Ilya Sutskever 在接受路透社采访时表示:预训练(Pre-training)已经遇到瓶颈

这个消息可算是Ilya 加持的一颗重磅炸弹啊。

要知道,预训练——通过海量无标注数据来训练模型理解语言模式和结构的方法,可是 ChatGPT 成功的关键所在啊!

Sutskever 可并非胡说八道。

作为预训练Scaling Law 的早期倡导者,他的观点值得重视。他表示:

2010 年代是扩大规模的时代,但现在我们重新回到了探索和发现的时代。所有人都在寻找下一个突破点。

新方向:测试时计算

既然预训练遇到瓶颈,那下一步该怎么办?

研究人员们已经找到了新的方向:测试时计算(Test-time compute)

这是什么概念?

简单来说,就是让模型在使用过程中(也就是推理阶段)自己评估多个解决方案,然后选择最优答案

OpenAI 的 Noam Brown 透露了一个惊人的数据:这种方法带来的性能提升,相当于把模型规模扩大 10 万倍!

硬件市场要变天?

这个转变不仅仅影响 AI 模型的发展方向,还可能颠覆整个 AI 硬件市场

为什么呢?

因为未来可能需要:

  • 更少的训练环节

  • 更多的推理过程

这意味着市场对专门用于推理的芯片需求会大增。英伟达等公司恐怕得重新考虑他们的市场策略了。

投资界已经嗅到了这个变化。红杉资本(Sequoia Capital)等机构正在调整他们的投资方向。

推理能力才是王道?

Sutskever 现在已经离开 OpenAI,创立了 Safe Superintelligence(SSI)。

虽然他没有透露具体细节,但表示他的团队正在研究一种替代预训练Scaling Law 的新方法

他强调:「现在比以往任何时候都更重要的是,要找到正确的扩展方向。

看来,未来的 AI 发展将更注重提升模型的推理能力。通过类似思维链(CoT)这样的方法,让模型具备「思考」的能力,这似乎是目前最有前途的发展方向。

值得注意的是,这并不意味着 AI 发展已经停滞。或许正相反——这代表着我们正在进入一个全新的阶段:

从简单的规模扩张,转向更智能的发展道路。


👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章