根据Tech Crunch报道,李飞飞等斯坦福大学和华盛顿大学的AI研究人员的一篇新研究论文表示,他们成功地用不到50美元的费用训练了一个AI推理模型。
这个名为s1的模型,在测量数学和编码能力的测试中,表现与最前沿的推理模型(如OpenAI的o1和DeepSeek的R1)相似。s1模型已经在GitHub上发布,并附带了训练它所用的数据和代码。
s1背后的团队表示,他们从一个现成的基础模型开始,然后通过蒸馏(distillation)对其进行微调,这是一个从另一个AI模型中提取“推理”能力的过程,通过训练其答案来实现。
研究人员表示,s1是通过蒸馏Google的推理模型——Gemini 2.0 Flash Thinking Experimental模型获得的。蒸馏方法与伯克利研究人员上个月以约450美元创建AI推理模型的方式相同。
对于一些人来说,几位没有数百万美元资金支持的研究人员仍能在AI领域进行创新的想法令人兴奋。但s1也引发了关于AI模型商品化的真正问题。
如果有人能够以相对便宜的成本复制一个价值数百万美元的模型,那么AI模型的“护城河”在哪里?
不出所料,大型AI实验室并不高兴。OpenAI指责DeepSeek不当利用其API数据进行模型蒸馏。
s1的研究人员希望找到一种最简单的方法,以实现强大的推理性能和“测试时扩展”(test-time scaling),即让AI模型在回答问题前多思考一会儿。这些都是OpenAI的o1模型中的一些突破,DeepSeek和其他AI实验室已通过各种技术尝试进行复制。
s1论文建议,推理模型可以通过相对较小的数据集和一种叫做监督微调(SFT)的过程进行蒸馏,其中AI模型被明确指导去模仿数据集中的某些行为。
SFT通常比DeepSeek用于训练其与OpenAI o1模型竞争的R1模型的、大规模强化学习方法便宜。
Google通过其Google AI Studio平台提供免费访问Gemini 2.0 Flash Thinking Experimental,尽管每天有使用限制。
然而,Google的条款禁止逆向工程其模型,以开发与该公司自有AI服务竞争的产品。我们已联系Google进行评论。
s1基于阿里巴巴旗下中国AI实验室Qwen的一款小型现成AI模型,该模型可免费下载。为了训练s1,研究人员创建了一个包含1000个精心挑选问题的数据集,并且每个问题都附有答案和Google的Gemini 2.0 Flash Thinking Experimental模型的“思考”过程。
研究人员表示,在使用16台Nvidia H100 GPU进行训练的不到30分钟时间里,s1在某些AI基准测试中表现出色。参与该项目的斯坦福大学研究员Niklas Muennighoff告诉TechCrunch,他今天大约花20美元就能租到所需的计算资源。
研究人员还使用了一个巧妙的技巧,让s1检查自己的工作并延长“思考”时间:他们告诉它等待。在s1的推理过程中加入“wait”一词帮助该模型得出略微更准确的答案,论文中提到。
2025年,Meta、Google和Microsoft计划在AI基础设施上投资数千亿美元,这些资金将部分用于训练下一代AI模型。
这种规模的投资可能仍然是推动AI创新的必要条件。蒸馏已被证明是以低成本重新创建AI模型能力的有效方法,但它并不能创造出远超现有模型的新AI。
参考资料
[1] https://techcrunch.com/2025/02/05/researchers-created-an-open-rival-to-openais-o1-reasoning-model-for-under-50/
稿件经采用可获邀进入Z Finance内部社群,优秀者将成为签约作者,00后更有机会成为Z Finance的早期共创成员。