OpenAI 新模型Orion 或难产!

旅行   2024-11-10 17:40   北京  

大语言模型的进展速度可能正在减缓。

虽然ChatGPT的用户数量在飞速增长,甚至跻身全球第8大站点,但支撑它的基础技术却遇到了前所未有的挑战。

OpenAI的最新旗舰模型Orion传来不太乐观的消息:相比GPT-3到GPT-4的巨大飞跃,这次的进步幅度大幅缩水

去年5月,Sam Altman还信心满满地向员工表示,Orion即使只完成20%的训练,就已经能与GPT-4平分秋色了。但事与愿违,根据OpenAI内部员工透露,Orion在某些任务上甚至无法稳定超越其前辈

具体来说,虽然Orion在语言任务上有所提升,但在编程等领域并未显示明显优势。更糟糕的是,它可能会带来更高的运营成本。

AI的进化真的遇到瓶颈了吗?

数据饥荒来袭


问题出在哪?

原来是高质量训练数据已经见底了

这个问题直接挑战了AI领域的「扩展定律」:即只要有足够的数据和算力,模型就能持续进步。但现实给了我们当头一棒。

为应对这个危机,OpenAI成立了由Nick Ryder领导的基础团队,专门研究数据短缺问题和探索扩展定律的极限。

他们开始尝试用GPT-4和其他推理模型生成训练数据,但这又引发了新的担忧:模型可能会出现「近亲繁殖」现象,新模型继承了旧模型的局限性

Ben Horowitz一针见血地指出:

「我们投入的GPU算力在增加,但智能水平的提升却停滞不前。」

OpenAI的应对之策


面对这个困境,OpenAI开始转变策略。

他们加强了后训练优化,通过强化学习和人类反馈来提升模型在特定任务上的表现,并与Scale AI等公司合作进行评估。

同时,他们开发了创新的o1推理模型,引入「思考时间」概念,通过增加计算资源来提升输出质量。虽然这个模型的定价是普通模型的6倍,但在数学家和科学家群体中已经获得了积极反馈。

为了应对Anthropic的竞争,OpenAI还在加强代码编写能力,并开发能控制电脑的AI代理,专注于处理多步骤任务。

OpenAI的研究员Noam Brown在TEDAI大会上提出了一个尖锐的问题:

「我们真的要训练那些耗资数千亿甚至上万亿美元的模型吗?总有一天,这种扩展模式会失效的。」

行业新动向


这种变化也影响了整个AI行业。

Meta的Mark Zuckerberg表示,即使模型进步放缓,现有技术也足以支撑大量消费级和企业级产品的开发

OpenAI计划在明年初发布Orion时可能会改变传统的「GPT」命名方式,这个细节似乎也暗示着LLM改进方向的重大转变。

目前,该模型正在进行严格的安全测试。

Jonathan Frankle(@jefrankle)一语道破天机

「没有哪个指数增长能永远持续下去。」

Databricks的联合创始人Ion Stoica提出了一个有趣的观察:AI能力的进步可能出现分化

在编程和复杂问题解决方面仍在稳步提升,但在一般性任务上确实遇到了瓶颈,而合成数据在通用知识方面的帮助也相当有限。

AI的进化可能不会永远保持指数级增长,但这并不意味着创新的终结,而或许,也正是新突破口的开始

如果传统的扩展方法确实遇到了瓶颈,我们可能需要在AI研究方面开辟新的道路。比如

  • 探索新的模型架构

  • 开发更高效的训练方法

  • 寻找突破性的算法创新

你认为AI发展的下一个突破口会在哪里?


👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章