超快速,高性能!Meta发布移动端MobileLLM

2024-11-04 17:43   上海  


前沿科技速递🚀


随着人工智能的快速发展,语言模型的应用日益普及,尤其是在移动设备和资源受限的环境中。最近,Meta推出了针对移动设备优化的小型语言模型,分别是MobileLLM,这为小型语言模型的发展注入了新的活力。


来源:传神社区
01 MobileLLM:为移动设备量身定制的语言模型

Meta最近发布的MobileLLM是一款专为移动设备设计的语言模型,其参数量在十亿以下,提供125M、350M、600M和1B等多个规模选项。这款模型的推出不仅标志着小型语言模型领域的重大进展,更是为了应对云计算成本上升和延迟问题,使得在资源受限的设备上也能高效运行AI模型。


02 核心创新
MobileLLM的设计包含多项核心创新,使其能够在资源有限的移动设备上高效运行,并保持卓越的语言处理能力。以下是其主要的创新点:

1. 深薄架构设计

MobileLLM采用了深薄架构,这一设计理念打破了传统的模型扩展法则,证明在小型语言模型中,增加层数(深度)比增加参数宽度更有效。通过增加模型层数,MobileLLM能够更好地捕捉复杂的抽象概念和上下文信息,这使得其在语言理解和生成任务中的表现显著优于其他同规模模型。

2. 嵌入共享技术

嵌入共享是MobileLLM的一个重要创新。在大多数语言模型中,输入和输出嵌入通常是分开的,这会导致参数的冗余。MobileLLM通过共享嵌入层的权重,减少了模型的参数量,同时保留了模型的表达能力。特别是在小型模型中,嵌入占据了较大的比例,嵌入共享显著提高了参数的利用效率。

3. 实时块级权重共享

实时块级权重共享的设计使得MobileLLM能够在多个层之间有效共享参数。这种方式减少了内存占用和计算延迟,同时提升了模型的计算效率。这种策略确保了模型在保持复杂性的同时,不会因资源受限而显著影响性能,特别是在移动设备上。

4. 量化兼容性

MobileLLM支持多种量化技术,例如W8A8量化,使其能够在不同硬件平台上高效运行。这一兼容性意味着,无论是在高性能的设备上,还是在资源受限的智能手机上,MobileLLM都能够实现优异的推理性能。这种灵活性确保了模型在广泛应用场景中的可用性。

03 卓越性能

MobileLLM模型在常识推理任务中的表现尤为突出,其125M与350M规模的模型与市场上同类模型相比具有明显的优势。
MobileLLM-125M在多项指标上超越了其他同规模模型。在ARC-e任务中,MobileLLM-125M的表现达到了43.9%,高于GPT-neo-125M的41.3%。在更复杂的WinoGrande任务中,其性能更是达到了53.1%,显著高于RWKV-169M的50.9%。这一系列的表现突显了MobileLLM-125M在处理具有挑战性的推理任务上的能力。
MobileLLM-350M同样表现出色。在PIQA测试中,它以69.8%的高分领先市场,远超过BLOOM-560M的62.8%。在WinoGrande的评测中,其以57.2%的成绩优于大多数竞争对手,证明了其在更大规模任务处理上的有效性。

04 模型下载

传神社区:
https://opencsg.com/models/facebook/MobileLLM-1B
huggingface:
https://huggingface.co/facebook/MobileLLM-1B





欢迎加入传神社区



•贡献代码,与我们一同共建更好的OpenCSG


•Github主页

欢迎🌟:https://github.com/OpenCSGs


•Huggingface主页

欢迎下载:https://huggingface.co/opencsg


•加入我们的用户交流群,分享经验



扫描上方二维码添加传神小助手






“      关于OpenCSG

开放传神(OpenCSG)成立于2023年,是一家致力于大模型生态社区建设,汇集人工智能行业上下游企业链共同为大模型在垂直行业的应用提供解决方案和工具平台的公司。


关注OpenCSG

加入传神社区



传神社区
该账号是开放传神(OpenCSG)分享大模型的技术、见解、传神开放社区等方面的内容!
 最新文章