新书发布:大语言模型原理、训练及应用

文摘   2024-09-02 18:23   新加坡  

时至今日,大语言模型迎来了它的第二个秋天,我与两位微软同事雪冰和博洋合著的书籍《大语言模型原理、训练及应用》,也在这个收获的季节正式发布。

本书全面介绍了大语言模型的训练、应用和优化,分为七个章节,内容涵盖了从基础理论到实际操作的各个方面。

  • 第一章详细讲解了大语言模型的基本概念和核心应用场景,帮助读者建立扎实的理论基础。

  • 第二章深入探讨了大语言模型的训练方法,包括Transformer架构、模型参数量评估和分布式训练等关键技术。

  • 第三章和第四章则聚焦于GPU池化和GPT的优化与编排,提供了实用的技术指导。

  • 第五章和第六章通过丰富的案例展示了GPT和Copilot在实际应用中的广泛应用,帮助读者掌握实战技能。

  • 第七章探讨了小语言模型的优化及在边缘端的部署,为读者提供了前沿的技术视角。无论是初学者还是有经验的从业者,本书都将是一本不可或缺的参考指南。

书中实验源码对应链接:

https://github.com/xinyuwei-david/david-share/tree/master/Code-of-Book

书籍采购地址:

https://item.jd.com/14776306.html

由于出版社产能限制的原因,目前本书可以先无货订购,书籍会在10天内从京东发货,操作步骤如下。

1.访问https://item.jd.com/14776306.html或点击文后“原文链接”。

2.点击“无货订购”

3.选择“一周内”,并确认订购(订购不会实际扣款)。


为了感谢读者的支持,请在文后留言谈谈您对大语言模型、Copilot、以及小语言模型的看法。我将根据留言点赞数量取前三名,由出版社赞助邮递书籍。

大魏分享
https://github.com/davidsajare/david-share.git
 最新文章