临近年底,知名公司们的AI产品迭代百花齐放,前有OpenAI Sora引领AI大模型文本生成视频出尽风头,后有谷歌新一代原生多模态模型Gemini 2.0 Flash正式发布搅动市场。
微软终于是坐不住了,好歹得拿出点东西。
12月13日,微软透过一篇论文介绍推出了最新一代专注于复杂推理的小型语言模型:Phi-4,它以较小的尺寸(14B参数)提供了更高质量的结果,除了传统的语言处理外,它还尤其擅长数学等领域的复杂推理。
微软官方介绍,由于整个流程的进步,包括使用高质量的合成数据集、高质量有机数据的整理以及训练后的创新。Phi-4 在数学推理方面的表现优于同类和更大的模型,例如GPT-4o和Gemini Pro1.5,实现在规模与质量之间取得突破。 论文中提到,大型语言模型(LLM)的最新进展表明,数据质量的显著提高可以与传统上通过用模型和数据集大小缩放计算所获得的性能提升相媲美,有时甚至超过。在5只蜗牛的比赛中,最多会出现一次平局,但平局可以涉及任何数量的蜗牛。例如比赛的结果可能是Dazzler第一名,Abby、Cyrus和Elroy并列第二,Bruna排名第五,这场比赛一共有多少种不同的比赛结果?虽然OpenAI的GPT-4o和Google的Gemini2.0等较大模型异常火热,但Phi-4表明更小的、简化的架构可以在专门任务中实现卓越的性能。微软将Phi-4的进步归功于高质量合成数据与人类生成内容数据集的集成,以及训练后未公开的改进,这些努力反映了人工智能行业更广泛的趋势,研究团队越来越关注合成数据使用和训练后优化方面的创新。今天,公司估值近140 亿美元的Scale AI首席执行官Alexandr Wang也在帖子中预测了这一行业转变,他表示该行业已经遇到了“预训练数据墙”,需要为后训练数据繁荣做好准备,并补充说公司未来将竞相开发更高效的人工智能模型。
如果您想要获取最新的科技趋势分析、行业内部的独家见解、定期的互动讨论和知识分享、与行业专家的直接面对面交流的机会!欢迎扫描下方二维码,添加头部科技创始人、AI头号玩家俱乐部主理人晶总微信!