NLP大牛Thomas Wolf等新书《Transformer自然语言处理》,466页pdf及代码

科技   2024-12-16 00:00   北京  

本书介绍

自2017年问世以来,Transformer模型在众多自然语言处理(NLP)任务中取得了突破性进展,成为业界的主流技术。对于数据科学家和程序员而言,这本书将指导你如何利用Python深度学习库Hugging Face Transformers来训练和扩展这些复杂的模型。Transformer模型已经在多个领域大放异彩,包括撰写新闻报道、优化搜索引擎结果,甚至开发出能够讲笑话的聊天机器人。本书由Lewis Tunstall、Leandro von Werra以及Hugging Face Transformers的联合创始人Thomas Wolf共同撰写,他们将通过实践方法向你展示Transformer的工作原理以及如何将其集成到你的应用程序中。你将迅速掌握这些模型在各种任务中的应用。


    本书免费获取地址:

    关注下方公众号“大模型科技说”回复关键字“ttw24”获取下载地址。

    本书将教你如何构建、调试和优化用于核心NLP任务的Transformer模型,包括文本分类、命名实体识别和问答系统。你还将学习如何进行跨语言迁移学习,以及在标签数据稀缺的情况下如何有效应用Transformer模型。此外,书中还会探讨如何通过模型蒸馏、剪枝和量化等技术提高Transformer模型的部署效率。从零开始训练Transformer模型,学习如何扩展到多GPU和分布式环境也是本书的重点。


    本书旨在帮助你构建自己的语言处理应用程序,因此它侧重于实际案例,并在必要时深入理论。这本书的风格是实践操作,我们鼓励你亲自运行代码示例以进行实验。书中涵盖了NLP中Transformer的所有主要应用,每一章(少数例外)都专注于一个特定任务,并结合实际案例和数据集。每章还会介绍一些额外的概念。


内容截图


本书免费下载地址

    关注微信公众号“大模型科技说”回复关键字“ttw24”获取下载地址。

大模型科技说

大模型科技说

       商务合作请联系微信号:AI_Knowledge_Zone

深度学习与NLP
专注深度学习、NLP相关技术、资讯,追求纯粹的技术,享受学习、分享的快乐。
 最新文章