在人工智能(AI)技术日新月异的今天,大型语言模型(LLM)的高效部署与优化已成为行业发展的关键。为了满足这一迫切需求,NVIDIA DLI(Deep Learning Institute)特别推出了一门全新的免费课程,教您如何利用NVIDIA Inference Microservices(NIM)来大幅提升模型性能。
请注意,这门课程限时免费,机会难得!
该课程由行业专家精心设计,旨在通过理论讲解与实操演练相结合的方式,帮助学员全面掌握NVIDIA NIM在模型优化与部署中的应用。在课程中,学员将亲自动手探索流处理、预填充和解码技术,分析吞吐量和延迟之间的权衡,并深入理解张量并行和飞行批处理的概念。此外,课程还涵盖了模型基准测试和推理超参数选择等内容,确保学员能够在实际应用中实现高效的模型部署和资源策略。
据课程介绍,学习目标包括:
掌握使用NVIDIA NIM优化和部署模型的技术;
通过实操获得流处理、预填充和解码等基础知识;
分析LLM推理中吞吐量和延迟的权衡;
考察输入/输出长度、张量并行和批大小对性能的影响;
理解TensorRT-LLM中的飞行批处理、KV缓存和块预填充实现;
学习如何在多GPU/多节点环境中有效扩展模型并评估效率;
从现有基准测试中评估和推断部署见解;
使用GenAI-Perf可靠地基准测试模型;
为特定用例选择最合适的推理超参数;
对本地和外部云解决方案进行成本效益分析,以提供LLM资源。
完成本课程后,学员将能够掌握LLM推理部署的控制点,评估给定用例的成本、效益和可行性,并为本地和云策略制定LLM资源计划。
更多信息:
课程时长: 3小时
难度级别: 中级
授课语言: 英语
课程先决条件:
具备Python编程经验。
掌握AI和机器学习的基础知识。
熟悉大型语言模型(LLM)及其应用。
本课程专为AI从业者量身定制,旨在帮助您深入理解模型部署与优化的精髓,特别是在复杂多变的扩展环境中。通过深入浅出的理论讲解与实战演练相结合,您将掌握一系列提升LLM效率与效能的先进技术和策略。
请务必抓住这个限时免费的机会,掌握使用NVIDIA Inference Microservices优化和部署大型语言模型的最新技术与策略,让您在快速发展的AI领域中保持领先地位!
课程地址:https://learn.nvidia.com/courses/course-detail?course_id=course-v1:DLI+S-FX-18+V1&ncid=so-face-436250&fbclid=IwY2xjawGYP0xleHRuA2FlbQIxMAABHUUIbx1rWicDaLw-v8sz9RJmvcVirDdFxTOAcNeGBDgQUU9pmqj7mLhxRQ_aem_itQANbK8TvCkIF98YjNPLw
请注意:新用户注册DLI,别忘记还可以免费领取一个收费课程哟!欢迎加群,大家一起来学习(放心,本群不会推销收费课程,仅仅作为学习交流群)