开源模型将在一年内追平闭源?

旅行   2024-11-06 07:00   北京  

开源AI模型正在快速追赶闭源霸主的脚步!

Epoch AI研究所最近发布了一项深度调查报告,对比了开源和闭源AI模型在性能和计算资源方面的差距。

研究不仅揭示了开源模型的追赶速度,也为预测未来AI发展趋势提供了重要线索。

开源模型的追赶之路

研究显示,在关键基准测试上,最优秀的开源大语言模型(LLM)通常需要5到22个月才能达到闭源模型创下的最高记录

以MMLU基准为例,Meta的Llama 3.1 405B模型用了16个月才首次追平原版GPT-4的成绩。这个数据令人印象深刻,因为它意味着开源模型正在以惊人的速度缩小与闭源巨头之间的差距。

15个月的计算资源鸿沟

研究团队还比较了开源和闭源模型在训练计算量上的差异。

结果表明,虽然两类模型的计算规模都在快速增长,但开源模型仍落后约15个月

这个发现意义重大,因为训练计算量通常被视为模型性能的重要指标。15个月的差距意味着开源阵营虽然落后,但并非遥不可及。

开源模型的崛起

尽管顶尖模型大多是闭源的,但开源模型在AI领域的地位不容小觑。数据显示,2019年至2023年间,开源模型占据了大部分新发布的AI模型,比例最高达到66%

值得注意的是,2024年的数据尚未完全统计,目前主要聚焦于领先(通常是闭源)模型,因此可能不能完全反映实际情况。

未来差距或将缩小

研究人员发现,在一些较新的基准测试中,如GPQA,开源模型追赶的时间似乎在缩短。

这可能预示着开源与闭源模型之间的差距正在逐渐缩小

此外,Meta公司宣布将把Llama 4的规模扩大到Llama 3.1的10倍

如果这一计划实现,并且闭源模型保持当前发展趋势,那么到2025年,开源的Llama 4可能会在规模上追平最大的闭源模型

开源模型的双刃剑

开源模型的权重可以自由复制、共享和修改,这无促进了创新,有助于推广有益的AI应用。

但这种开放性也带来了潜在风险——它们可能被用来移除原有的安全防护措施,产生有害输出

研究团队指出,如果开源模型能在一年内(或更短时间)达到闭源模型的前沿水平,这就意味着我们只有很短的窗口期来了解和应对这些前沿能力,因为很快任何人都可以下载到具备同等能力的模型。

Epoch AI (@EpochAIResearch) 对这项研究的意义做出了总结:

「总的来说,我们发现开源模型在性能和训练计算量两个方面都大约落后闭源模型一年左右。这个时间差很重要——它为我们提供了一个窗口期,让我们能在同等能力的开源模型发布之前,评估前沿模型的潜在利弊。」

该研究不仅揭示了AI行业的发展动态,也为政策制定者、研究人员和企业提供了宝贵的参考。

随着开源模型不断缩小与闭源巨头的差距,我们或许正站在AI发展的一个重要转折点上。

那么问题来了:

你认为开源追平甚至超越闭源模型要多久呢?



👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章