李开复的01.ai 用3百万造出GPT-4级对手!

旅行   2024-11-18 08:30   北京  

3百万美元就能造出一个GPT-4对手?

——这是正在中国科技创业公司01.ai身上发生的事!

让人震惊的是,01.ai 仅用了2000块GPU就训练出了一个能与GPT-4竞争的大模型。而OpenAI当初训练GPT-4可是花了8000-10000万美元,用了上万块GPU

01.ai是如何做到的?

背后有什么秘密武器?

神奇的工程优化

01.ai的秘诀在于其创新的工程优化方案。

他们把计算密集型问题巧妙地转化为内存导向的任务,并构建了多层缓存系统专用推理引擎

这套系统让他们把推理成本降到了每百万token仅需10美分,这个数字仅是行业标准的1/30

Extended Brain(@Extended_Brain)指出:

这家公司在短短不到一年时间内就达到了10亿美元估值,成为独角兽企业。

弯道超车的中国速度

Teflo(@teflocarbon)分享了一个有趣的观点:

资源限制反而会激发创新。当你拿不到足够的资源时,就必须开动脑筋寻找创新方案。

heddo_2(@heddo_2)也表示:

这是一个老故事的重演:美国提供0到1的创新理念,而中国则在实现和成本优化方面做到最好。

技术创新的关键

01.ai的技术创新主要集中在这些方面:

  • GPU资源优化分配

  • 训练速度和推理效率的双重提升

  • 定制推理架构以最大化硬件利用率

Polo M(@traintest_split)认为:

管制限制反而推动了优化研究的进步。

质疑声中的思考

当然也有不少质疑的声音。

Engineering Randomness(@EERandomness)指出:

他们比OpenAI晚了两年。现在的OpenAI可能用更少的GPU就能达到同样效果。

Per-Anders Edwards(@per_anders)则更直接:

从OpenAI总是用更多算力和数据的做法来看,我怀疑他们可能缺乏真正的工程师,只有脚本小子和数据录入人员。

不管怎样,01.ai用极其有限的资源达到了惊人的效果,这或许预示着人工智能开发的新趋势:

不是比拼谁的资源多,而是比拼谁能把资源用得更精。

UC Berkeley的LMSIS基准测试显示,01.ai的模型已经排到了第六名,这个成绩对于一个仅投入3百万美元的项目来说,确实令人刮目相看。

在各种管制和限制下,中国AI公司正在用自己的方式证明:创新不一定要靠砸钱,巧干也能赢。

👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章