撰文|赵晋杰 编辑|王靖 来源/字母榜
上述两款推理模型,均全面对标OpenAI o1完整版。其中,Kimi k1.5凭借同时支持文本和视觉推理的特性,成为首个可以比肩o1完整版水平的多模态模型。
01
DeepSeek-R1和Kimi k1.5新模型一经发布,便在海外用户群中引发热议。
英伟达AI科学家Jim Fan第一时间发帖总结两大模型的相似之处,认为两者都简化了强化学习框架,同时提升了推理性能和效率,并评价两家公司所发表的技术论文,都堪称“重磅”级别。
伯克利人工智能博士,Huggingface机器学习科学家Nathan Lambert、科技大V AK等也纷纷试用kimi,还有不少业内人士对这两款来自中国的产品进行了测评。
与DeepSeek-R1一样,Kimi k1.5新模型同样展现出了详细的思考过程。
北京时间1月31日,苹果发布了新一季度财报,以此为契机,选中Kimi k1.5推理模型,输入提示词“写一篇苹果财报分析稿,其中尤其要关注中国市场的变化,以及苹果AI何时在国产iPhone中上线的情况”。
经过一段时间思考,Kimi给出了苹果2025财年第一财季的业绩报告数据,并特意指出其中大中华区营收为185.13亿美元,同比下降11%。
除了给出联网参考的94个网页信息之外,Kimi还列出了自己的详细思考过程。
如果将大模型看作一个数学家,没有加入推理功能之前,大模型在证明了一个新的定理,或者解了一道新的数学题时,只会把答案写出来,不会把思考的过程写出来。但是,有了推理功能的加入,现在大模型就可以把原本只存在于数学家个人头脑中的思考过程,给尽可能完整呈现出来。
Kimi k1.5推理模型的思考过程,颇有点“授人以鱼不如授人以渔”的作用,将其用来指导学生学习,或者辅助程序员编写代码等,都有了更强的实际用途,大模型从有用,逐渐变得真正好用起来。
更重要的是,相比DeepSeek-R1,Kimi k1.5还是OpenAI之外首个实现o1完整版水平的多模态模型。
在Kimi k1.5推理模式下,上传一张苹果最新一季财报的数据图表,并给出提示词“给出图中大中华区的营收情况,以及同比变化,并分析大中华区营收占比”。
Kimi不仅读懂了图片中的营收数字,还通过列出数学公式的方式,准确算出了大中华的营收同比下降了11%,且营收占比也从去年同期的17%,下降至今年的15%。
杨植麟曾在一次采访中解释道,长文本就是某种意义上的长推理,“如果我们想让AI从完成一两分钟的任务变成完成长周期的任务,那必然要在一个很长的context(上下文)里,才有可能真正把AI进一步往下推进。”
加入图片识别等多模态功能,在某种程度上也可以看作是对长文本准确率的一种提升,这种提升,未来还可能随着无损压缩视频多模态的融入,变得更加强大。
02
对人才的重视和培养,成为DeepSeek和月之暗面能够率先做出对标OpenAI最新模型o1的共性之一。
在DeepSeek目前约150人左右的团队中,大多是一帮Top高校的应届毕业生、没毕业的博四、博五实习生,以及一些毕业才几年的年轻人。
从2023年初成立至今,月之暗面更是长期被视为中国大模型创业公司中,技术人才密度最高的玩家之一。
在Kimi k1.5中,月之暗面团队找到了一种提升推理效率的原创技术,即Long2Short高效思维链。
在o1模型中,OpenAI一般依赖于逻辑链条(Chain-of-Thought,CoT)来逐步推导出解决方案,这是一种用时间换取精准答案的方法。
月之暗面团队开发的long2short技术途径,把长思维链(复杂的推理过程)的推理结果“教给”短思维链(简单高效的推理过程),两者进行合并,最后针对“短模型”进行强化学习微调,从而达到提升token利用率以及训练效率的目的。
在Short CoT(短文本)模式下,Kimi k1.5的能力同样大幅领先GPT-4o和Claude 3.5,领先幅度高达550%。
良好的产品使用体验正在给Kimi带来用户量的增长。根据SimilarWeb 2024年12月的数据,Kimi在web端排名全球前五,仅次于ChatGPT、Google Gemini、Claude和Microsoft Copilot。
03
在DeepSeek和Kimi们的突袭之下,来自OpenAI等对手的一轮新竞争,已经在赶来的路上。
奥特曼预告中的OpenAI 新模型o3-mini紧急上线,甚至新一代高级语音模型也发布在即,为了在追求AGI道路上走得更快,奥特曼更是联手软银孙正义,搞起了5000亿美元的算力开发大计划。
可以预见,追赶的压力,或许很快便会再次来到国产AI们的头上。
但通过DeepSeek-R1和Kimi k1.5新模型的这番突袭,一个值得关注的新变动是,国产大模型正在向外界越来越多地证明其自主创新能力,甚至不排除有一天完成对OpenAI的真正超越。
近期,Meta首席AI科学家杨立昆(Yann LeCun)在达沃斯“技术辩论”会议上再次提醒道,“我认为当前LLM(大语言模型)范式的生命周期相当短,可能只有三到五年。五年内,任何清醒的人都不会再使用它们了,至少不会作为AI系统的核心组成部分……我们将看到一种新的AI架构范式的出现,它可能不会有当前AI系统的那些局限性。”
对于任何立志于实现AGI的大模型玩家而言,追赶OpenAI都绝不是公司成立的初衷和目标,OpenAI与国产大模型之间的差距,正在逐渐缩小已是不争的客观现实。
斯坦福大学计算机科学系客座教授、谷歌大脑联合创始人吴恩达(Andrew Ng)近期发文指出,DeepSeek的讨论让许多人认识到一些显而易见的重要趋势,其中之一便是中国在生成式AI领域正赶超美国。
2022年11月ChatGPT刚刚推出之际,美国在生成式AI领域远远领先中国,这一领先差距被业内认为在2-3年之间。但经过两年发展,OpenAI对国产大模型的领先优势已经被收缩到6个月。
通过Kimi、DeepSeek等模型的持续突破,“中国企业展现出强大的创新能力,在视频生成等特定领域甚至已经实现了局部领先。”吴恩达点评道。
国产大模型在技术上的快速迭代能力,甚至引得奥特曼在o3-mini的问答环节中,也不得不正视道,OpenAI的领先优势不会再像往年那么大了。
归根结底,大模型所蕴藏的无限技术创新空间,为国产大模型玩家们,在打造产品差异化方面提供着无限机遇。
更广阔的AI创新前景,也将孕育出更多国产大模型的奇袭时刻。