不甘示弱!微软祭出小型语言模型Phi-4,在数学竞赛上超过GPT-4o和Gemini1.5

科技   2024-12-13 21:19   北京  
文丨都保杰

临近年底,知名公司们的AI产品迭代百花齐放,前有OpenAI Sora引领AI大模型文本生成视频出尽风头,后有谷歌新一代原生多模态模型Gemini 2.0 Flash正式发布搅动市场。

微软终于是坐不住了,好歹得拿出点东西。

12月13日,微软透过一篇论文介绍推出了最新一代专注于复杂推理的小型语言模型:Phi-4,它以较小的尺寸(14B参数)提供了更高质量的结果,除了传统的语言处理外,它还尤其擅长数学等领域的复杂推理。

微软官方介绍,由于整个流程的进步,包括使用高质量的合成数据集、高质量有机数据的整理以及训练后的创新。
Phi-4 在数学推理方面的表现优于同类和更大的模型,例如GPT-4o和Gemini Pro1.5,实现在规模与质量之间取得突破。  
论文中提到,大型语言模型(LLM)的最新进展表明,数据质量的显著提高可以与传统上通过用模型和数据集大小缩放计算所获得的性能提升相媲美,有时甚至超过。
微软展示了Phi-4能够进行数学推理的一个例子:
在5只蜗牛的比赛中,最多会出现一次平局,但平局可以涉及任何数量的蜗牛。例如比赛的结果可能是Dazzler第一名,Abby、Cyrus和Elroy并列第二,Bruna排名第五,这场比赛一共有多少种不同的比赛结果?
Phi-4给出了正确计算结果。
虽然OpenAI的GPT-4o和Google的Gemini2.0等较大模型异常火热,但Phi-4表明更小的、简化的架构可以在专门任务中实现卓越的性能。
微软将Phi-4的进步归功于高质量合成数据与人类生成内容数据集的集成,以及训练后未公开的改进,这些努力反映了人工智能行业更广泛的趋势,研究团队越来越关注合成数据使用和训练后优化方面的创新。

今天,公司估值近140 亿美元的Scale AI首席执行官Alexandr Wang也在帖子中预测了这一行业转变,他表示该行业已经遇到了“预训练数据墙”,需要为后训练数据繁荣做好准备,并补充说公司未来将竞相开发更高效的人工智能模型。


如果您有什么想说的,欢迎在评论区留言讨论!
投稿或寻求报道,欢迎私信“投稿”,添加编辑微信
如果您想要获取最新的科技趋势分析、行业内部的独家见解、定期的互动讨论和知识分享、与行业专家的直接面对面交流的机会!
欢迎扫描下方二维码,加头部科技创始人、AI头号玩家俱乐部主理人晶总微信!

头部科技
头部科技是技术新世界的记录者、探索者和推动者。我们致力于普及细分场景的科技解决方案,打造科技和人才创新知识图谱。无论你身处技术公司或传统行业,在这里都可以找到智能化、数字化升级的案例和伙伴。在无限的时空中,和你共同探索科技原力是我们的荣光。
 最新文章