Hugging Face 发布了 SmolLM2,这是一个新的紧凑型语言模型系列,可实现令人印象深刻的性能,同时需要的计算资源比大型语言模型少得多。
在 Apache 2.0 许可下发布的新型号有三种尺寸 — 135M、360M 和 1.7B 参数 — 使其适合部署在处理能力和内存有限的智能手机和其他边缘设备上。最值得注意的是,1.7B 参数版本在几个关键基准测试中优于 Meta 的 Llama 1B 模型。
小型模型在 AI 性能测试中具有强大的冲击力
“SmolLM2 比其前身有了重大进步,特别是在指令遵循、知识、推理和数学方面,”Hugging Face 的模型文档说。最大的变体是使用多样化的数据集组合在 11 万亿个令牌上进行训练的,包括 FineWeb-Edu 和专门的数学和编码数据集。
这一发展发生在 AI 行业努力满足运行大型语言模型的计算需求的关键时刻。虽然 OpenAI 和 Anthropic 等公司通过越来越庞大的模型突破界限,但人们越来越认识到需要可以在设备上本地运行的高效、轻量级的 AI。
对更大 AI 模型的推动使许多潜在用户落后。运行这些模型需要昂贵的云计算服务,而这些服务也有其自身的问题:响应时间慢、数据隐私风险以及小公司和独立开发人员根本无法承受的高成本。SmolLM2 提供了一种不同的方法,将强大的 AI 功能直接引入个人设备,指向未来,更多的用户和公司可以使用先进的 AI 工具,而不仅仅是拥有大型数据中心的科技巨头。
随着 AI 迁移到移动设备,边缘计算得到推动
考虑到 SmolLM2 的大小,它的性能尤其值得注意。在衡量聊天能力的 MT-Bench 评估中,1.7B 模型获得了 6.13 分,与更大的模型相媲美。它在数学推理任务上也表现出了出色的表现,在 GSM8K 基准测试中得分为 48.2。这些结果挑战了模型越大越好的传统观点,表明仔细的架构设计和训练数据管理可能比原始参数计数更重要。
这些模型支持一系列应用程序,包括文本重写、摘要和函数调用。其紧凑的尺寸支持在隐私、延迟或连接限制使基于云的 AI 解决方案不切实际的情况下进行部署。这在医疗保健、金融服务和其他数据隐私不容商量的行业中可能特别有价值。
行业专家认为,这是更高效的 AI 模型更广泛趋势的一部分。在设备上本地运行复杂语言模型的能力可以在数据隐私至关重要的移动应用程序开发、IoT 设备和企业解决方案等领域实现新应用程序。
高效 AI 的竞赛:更小的模型对行业巨头构成挑战
但是,这些较小的模型仍然存在局限性。根据 Hugging Face 的文档,他们 “主要理解和生成英语内容”,并且可能并不总是产生事实准确或逻辑一致的输出。
SmolLM2 的发布表明,AI 的未来可能不仅仅属于越来越大的模型,而是属于更高效的架构,这些架构可以用更少的资源提供强大的性能。这可能对 AI 访问民主化和减少 AI 部署对环境的影响产生重大影响。
这些模型可通过 Hugging Face 的模型中心立即获得,每种尺寸变体都提供基本版本和指令调整版本。
关注+星标“硅基LIFE”,每日获取关于人工智能、芯片领域最新动态。 加微信fusion9000,进“硅基LIFE”粉丝交流群交流并接收实时滚动推送的最新信息