大模型微调搞不定?看这期直播就够了

科技   2024-08-16 18:30   上海  

在之前的 AI 进阶指南(上)的课程中,我们已经学习了很多与大模型相关的知识点,对于备受关注的大模型微调怎么能不分享一波呢?道客船长这就给大家奉上大模型微调的知识大餐啦!

大模型微调是一种通过特定领域的数据集对已经完成预训练的大模型进行进一步训练的过程,目的是优化模型在特定任务上的性能。

在实际业务场景中,大模型微调可以应用于多个领域,例如情感分析、实体识别、文本分类、对话生成等 。随着大型语言模型(LLM)参数规模的扩大,微调这些模型相比从头开始训练新模型更具成本效益。微调技术多样,包括全量微调和参数高效微调等。鉴于全量微调在资源消耗上的高成本,参数高效微调因其较低的计算和存储成本而受到青睐,这种方法通过仅调整模型的一小部分参数,既能降低资源需求,又能保持或接近全参数微调的性能水平。

参数高效微调(PEFT)包括多种策略,如增量式(Addition-based)、选取部分参数更新(Selective-based)和重参数化(Reparameterization-based)等方法 ,其中包含有 Prefix Tuning、Prompt Tuning、Adapter Tuning、LoRA 等多种技术,通过最小化参数更新,实现了在资源有效利用和快速适应新任务之间的平衡。

为了更好地支持资源拓展,提升容错率,支持并行模型训练、减少训练时间等需求,我们会更推荐利用容器和分布式能力进行大模型的微调,在课上我们也会介绍几款云原生的开源项目及其用法,例如 KubeRay, deepspeed 等技术是如何帮助大家更好的利用云原生技术能力来优化大模型的微调,达到更高效、更灵活地微调大模型的同时,降低训练成本。

如果你对于大模型微调的策略感兴趣、想深入了解、学习或者跟讲师互动沟通,这节直播课不容错过,「DaoCloud 道客」的高级研发工程师 - 黄敏杰老师将现身说法,除了概念描述、案例分享、视频教学,还有实操演示,帮助大家快速入门大模型微调。

就在 8 月 20 日晚上 19:00 - 20:00,点击下方链接预约直播课

热门推荐

            

访问以下网址,或点击文末【阅读原文】立即体验

d.run,让算力更自由
https://d.run/




DaoCloud 公司简介

「DaoCloud 道客」,云原生领域的创新领导者,成立于 2014 年底,凭借其自主知识产权的核心技术,成功打造了新一代云原生操作系统 DaoCloud Enterprise 5.0,致力于推动企业数字化、智能化转型。依托在云原生领域的技术积淀与持续创新,「DaoCloud 道客」推出 d.run 算力一体化解决方案,作为专业的技术提供商参与并推动多个区域算力枢纽中心的建设,为各行各业提供稳定、高效的算力支持。成立迄今,公司已在金融科技、先进制造、智能汽车、零售网点、城市大脑等多个领域深耕,标杆客户包括交通银行、浦发银行、上汽集团、格力集团、京东方、屈臣氏集团等。公司总部位于上海,并在新加坡、北京、深圳、成都、南京、武汉等地设立多家分公司及合资公司,总员工人数超过 300 人,是国家级“专精特新”小巨人企业、上海市高新技术企业,并入选了科创板培育企业名单。


网址:www.daocloud.io

邮件:info@daocloud.io

电话:400 002 6898




道客船长
分享云原生技术相关信息,助力开发者和企业云海扬帆!本公众号由 DaoCloud 负责运营
 最新文章