3百万美元就能造出一个GPT-4对手?
——这是正在中国科技创业公司01.ai身上发生的事!
让人震惊的是,01.ai 仅用了2000块GPU就训练出了一个能与GPT-4竞争的大模型。而OpenAI当初训练GPT-4可是花了8000-10000万美元,用了上万块GPU!
01.ai是如何做到的?
背后有什么秘密武器?
神奇的工程优化
01.ai的秘诀在于其创新的工程优化方案。
他们把计算密集型问题巧妙地转化为内存导向的任务,并构建了多层缓存系统和专用推理引擎。
这套系统让他们把推理成本降到了每百万token仅需10美分,这个数字仅是行业标准的1/30!
Extended Brain(@Extended_Brain)指出:
这家公司在短短不到一年时间内就达到了10亿美元估值,成为独角兽企业。
弯道超车的中国速度
Teflo(@teflocarbon)分享了一个有趣的观点:
资源限制反而会激发创新。当你拿不到足够的资源时,就必须开动脑筋寻找创新方案。
heddo_2(@heddo_2)也表示:
这是一个老故事的重演:美国提供0到1的创新理念,而中国则在实现和成本优化方面做到最好。
技术创新的关键
01.ai的技术创新主要集中在这些方面:
GPU资源优化分配
训练速度和推理效率的双重提升
定制推理架构以最大化硬件利用率
Polo M(@traintest_split)认为:
管制限制反而推动了优化研究的进步。
质疑声中的思考
当然也有不少质疑的声音。
Engineering Randomness(@EERandomness)指出:
他们比OpenAI晚了两年。现在的OpenAI可能用更少的GPU就能达到同样效果。
Per-Anders Edwards(@per_anders)则更直接:
从OpenAI总是用更多算力和数据的做法来看,我怀疑他们可能缺乏真正的工程师,只有脚本小子和数据录入人员。
不管怎样,01.ai用极其有限的资源达到了惊人的效果,这或许预示着人工智能开发的新趋势:
不是比拼谁的资源多,而是比拼谁能把资源用得更精。
UC Berkeley的LMSIS基准测试显示,01.ai的模型已经排到了第六名,这个成绩对于一个仅投入3百万美元的项目来说,确实令人刮目相看。
在各种管制和限制下,中国AI公司正在用自己的方式证明:创新不一定要靠砸钱,巧干也能赢。
👇
👇
👇
👇
本文同步自知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
每天约监控6000 条消息,可节省约800+ 小时的阅读成本;
每天挖掘出10+ 热门的/新的 github 开源 AI 项目;
每天转译、点评 10+ 热门 arxiv AI 前沿论文。
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!