时至今日,大语言模型迎来了它的第二个秋天,我与两位微软同事雪冰和博洋合著的书籍《大语言模型原理、训练及应用》,也在这个收获的季节正式发布。
本书全面介绍了大语言模型的训练、应用和优化,分为七个章节,内容涵盖了从基础理论到实际操作的各个方面。
第一章详细讲解了大语言模型的基本概念和核心应用场景,帮助读者建立扎实的理论基础。
第二章深入探讨了大语言模型的训练方法,包括Transformer架构、模型参数量评估和分布式训练等关键技术。
第三章和第四章则聚焦于GPU池化和GPT的优化与编排,提供了实用的技术指导。
第五章和第六章通过丰富的案例展示了GPT和Copilot在实际应用中的广泛应用,帮助读者掌握实战技能。
第七章探讨了小语言模型的优化及在边缘端的部署,为读者提供了前沿的技术视角。无论是初学者还是有经验的从业者,本书都将是一本不可或缺的参考指南。
书中实验源码对应链接:
https://github.com/xinyuwei-david/david-share/tree/master/Code-of-Book
书籍采购地址:
https://item.jd.com/14776306.html
由于出版社产能限制的原因,目前本书可以先无货订购,书籍会在10天内从京东发货,操作步骤如下。
1.访问https://item.jd.com/14776306.html,或点击文后“原文链接”。
2.点击“无货订购”
3.选择“一周内”,并确认订购(订购不会实际扣款)。
为了感谢读者的支持,请在文后留言谈谈您对大语言模型、Copilot、以及小语言模型的看法。我将根据留言点赞数量取前三名,由出版社赞助邮递书籍。