开源来袭 | OpenCSG再次推出开源大模型 LLM-Finetune项目

文摘   科技   2024-04-02 08:00   日本  

大模型在多领域中展现卓越“超能力”


围绕大语言模型(LLMs)的技术发展持续占据着各个媒体的头条,尤其在预训练、微调、推理和智能代理等领域成就斐然,凭借大模型的“超能力”,可以显著提升工作效率。在营销、文案、视频制作和智能助手等多个领域应用广泛,大模型已经取得显著的成效,虽然尚不能完全替代人类,但已大幅提高用户的工作效率。对于开发人员来说持续迭代更新大模型技术是保证不落后的基础,开放传神(OpenCSG)在此之前开源了大模型的推理项目、开源代码大模型等项目,这一举动在业界引起开发者的共鸣,OpenCSG将再次开源大模型的微调项目 LLM-Finetune项目。



什么是LLM-Finetune?


在构建大语言模型应用程序时,通常采用两种主要方法来融合专有数据和特定领域知识:检索增强生成(RAG)和模型微调(Fine-tuning)检索增强生成通过在提示中引入外部数据来丰富内容,而模型微调则直接将附加知识融入模型的内部结构中。


当下,各种大模型微调的技术异彩纷呈,比如以参数高效微调(PEFT)为代表的微调方法就是数十种,使用者一时之间很难决策如何使用,使用哪一项技术更好,并且现有的微调技术面临过程复杂,集成困难,效率低下等问题,仅仅准备微调环境,就需要数天,甚至更长时间。


为此,OpenCSG工程师们新益求新,与日前再次重磅开源大模型微调技术LLM-Finetune项目,构建大模型从预训练、微调、推理以及应用端到端的整体生态链。




OpenCSG开源LLM-Finetune项目的亮点


LLM-Finetune项目是一个专注于大模型微调技术的Python项目,它极大地简化了微调过程,提高了效率和可扩展性。用户可以通过以下几个步骤来利用LLM-Finetune进行模型微调:

  1. 模型配置灵活:用户首先需要根据项目提供的YAML文件模板,配置用于微调的参数。这些模板包含了一些常用的模型微调配置,用户可以根据自己的需求进行选择和修改。

  2. 一键式启动:配置好YAML文件后,用户可以通过命令行工具一键启动微调过程。这个过程是自动化的,能够根据集群中的资源情况智能地进行资源的扩展和释放,确保微调过程的高效运行。

  3. 微调过程可精确配置:在YAML配置文件中,用户可以详细设定微调的各种参数,如学习率、checkpoints的存储方法和策略、最大长度、微调的最大步数等。这些配置项让用户能够精细控制微调过程,以达到最佳的微调效果。

  4. 定制化模型微调方案:LLM-Finetune项目支持用户通过YAML模板快速定制化模型微调方案。这意味着用户可以根据自己的特定需求,快速创建适合自己的微调方案,而无需从头开始编写复杂的配置。

  5. 更多模型支持:项目不仅支持一些常用的模型,还持续增加对更多模型的支持,支持量化模型训练。这样,用户可以选择更多的预训练模型进行微调,满足不同应用场景的需求。


LLM-Finetune架构图

LLM-Finetune支持在单个或者多个GPU上微调,集成了DeepSpeed和Accelerate等分布式微调,支持单机单卡,单机多卡和多机多卡等训练场景,用户自定义数据集,且支持全集和子集选取,自动区分训练、评估和测试数据集。支持多个机器的联动微调,同时支持在CPU等场景计算资源上进行微调,支持多个微调技术,抽象模型finetune方法层,方便集成更多微调方法以及更多类型模型。


LLM-Finetune大模型微调项目革旧鼎新,集众家之所长,可以帮助用户快速的将初始的预训练大模型提升到一个全新的境界,使其具备了超凡的智能和卓越的表现力。长路漫漫,在后续的发展中,OpenCSG主导和引领LLM-Finetune项目持续发展,支持更多的微调算法,进一步提高易用性和微调效率。将重点支持更多模型的微调,以及更多的微调方法,在易用性方面,用户更加方便启动微调项目。



LLM-Finetune开源地址:

https://github.com/OpenCSGs/llm-finetune

推理项目的开源地址:

https://github.com/OpenCSGs/llm-inference

开源大模型的开源地址:

https://github.com/OpenCSGs/CSGHub


欢迎star!


“      关于OpenCSG

开放传神(OpenCSG)成立于2023年,是一家致力于大模型生态社区建设,汇集人工智能行业上下游企业链共同为大模型在垂直行业的应用提供解决方案和工具平台的公司。


关注OpenCSG

加入传神社区


 最新文章