6小时完成Llama 3.1-8B适配并开源!MindSpore Transformers大模型套件使能开发者创新

文摘   2024-07-25 09:45   广东  

北京时间7月24号, Meta 正式发布 Llama 3.1开源大语言模型, 包含8B、70B 及 405B 参数版本。其中的Llama 3.1 405B模型,在多项基准测试中可以媲美GPT4、Claude3.5等目前最强的闭源大模型。此外,8B 与 70B 参数的 Llama 3.1 模型与其他参数量相似的闭源和开源模型相比,也同样具有竞争力。


01

6小时完成Llama 3.1适配

开发者基于MindSpore Transformers大模型套件,6小时完成Llama3.1-8b的微调及推理的迁移适配并将代码开源至Gitee代码平台,面向所有开发者开放体验、调用,后续将同步上传至各大模型社区。

MindSpore Transformers Llama3.1代码仓地址:https://gitee.com/mindspore/mindformers/blob/dev/research/llama3_1

MindSpore代码仓地址:
https://gitee.com/mindspore/mindspore

开发上,基于MindSpore Transformers大模型套件上开箱即用的Llama3进行微调和推理部署,即可得到Llama 3.1。

微调上,开发者利用大模型套件的权重转换工具,一行代码实现huggingface权重一键转化,同时通过使用MindFormers提供的Trainer等高阶易用性接口,仅需修改配置文件即可完成微调适配并成功跑通训练,loss曲线表明微调后训练任务稳定运行。


推理部署上,代码拉取、权重下载、权重转换步骤与微调一致,实现权重一键转换,推理结果显示,基于MindSpore Transformers适配的Llama 3.1模型精度与原生模型精度对齐。

MindSpore Transformers llama3.1开箱流程

微调:


模型跑通后,Loss曲线显示微调任务稳定运行。

推理:


推理结果显示,可以看到基于MindSpore Transformers+昇腾AI处理器适配后的模型推理结果与Llama 3.1原生模型的结果完全一致,实现精度对齐。

02

关于MindSpore和MindSpore Transformers


昇思MindSpore是华为开源的首个业界全场景AI融合框架,原生支持AI大模型与科学智能。大模型开发套件MindSpore Transformers基于MindSpore内置的并行技术和组件化设计,构建了大模型训练、微调、评估、推理、部署的全流程开发套件,支持业内主流的Transformer类预训练模型和SOTA下游任务应用,可以帮助用户轻松的实现大模型训练和创新研发。


点击阅读原文进入华为开源官网了解更多

华为开源
华为开源文化宣传,活动动态推广。
 最新文章