作为大湾区国际创客峰会暨Maker Faire ShenZhen 2024的主办方,我们今年和去年一样,还会招募一系列卫星活动,进一步联结全球创客与大湾区生态。今天则为大家分享第五场卫星活动:NVIDIA小课堂
活动名称:NVIDIA小课堂
活动时间:11月16日 14:00-15:00
活动形式:嘉宾分享
如果你是一位开发者、学生,或者只是一位科技爱好者,想要了解更多AI技术,了解如何高效部署AI模型,那么这场卫星活动,你一定不要错过!
探索AI的无限可能,NVIDIA小课堂 可以让您快速上手加速AI新技术!
11月16日,我们将深入解析CUDA-X库加速AI推理解决方案,以及NVIDIA NIM平台构建RAG智能检索应用。活动中,您将学习CUDA、TensorRT、Triton推理服务等技术,了解如何高效部署AI模型。资深讲师何琨、李奕澎将分享实战经验,助您提升专业技能。
报名方式放在最后~
14:30-15:00
主题分享二:基于NVIDIA NIM构建LLM-RAG智能检索应用
报名时间:2024年10月31日 -11月15日
报名方式:注册加入NVIDIA 开发者计划(详情见文末)
活动时间:2024年11月16日 14:00-15:00
活动地点:万科云城设计公社3号共享会议室
费用:免费
讲师:何琨
NVIDIA 企业级开发者社区高级经理
拥有多年的GPU 和人工智能开发经验。自2017年加入NVIDIA 开发者社区以来,完成过上百场培训,帮助上万个开发者了解人工智能和 GPU编程开发。
1. 分享主题: 利用NVIDIA CUDA-X库加速AI推理流程
2. 分享内容:在本次演讲中,我们将深入探讨NVIDIA的AI推理加速解决方案。内容涵盖CUDA基础、TensorRT及其LLM优化、Triton推理服务和NVIDIA NIM 预构建容器工具。我们将展示如何通过这些技术提升AI模型的推理性能,优化深度学习工作负载,并实现高效的模型部署。
通过本次小课堂的主题演讲,您可以收获以下内容:
• 什么是CUDA
• TensorRT介绍及示例展示
• TensorRT LLM 简介及示例展示
• NVIDIA 推理服务Triton介绍
3. 分享时间:11月16日14:00-14:30
讲师:李奕澎
NVIDIA 企业开发者社区高级经理
拥有多年数据分析建模、人工智能自然语言处理开发经验。在对话式人工智能与大模型技术领域有丰富的实战经验与见解。曾开发法律、金融、保险文档中基于实体抽取的智能问答系统,曾主导开发基于 NLP 知识抽取,KG 知识图谱的建立的科研文档智能检索系统。加入NVIDIA 开发者社区以来完成过上百场培训,帮助上万个开发者了解人工智能。
1. 分享主题: 基于NVIDIA NIM构建LLM-RAG智能检索应用
2. 分享内容:NVIDIA NIM 是一套用于部署 AI 模型的推理微服务,是一套易于使用的预构建容器工具。帮助企业客户加速在云、数据中心和工作站中部署生成式 AI 模型。让各类生成式 AI 模型的使用更为便捷和高效,为 AI 技术带来了新的突破和无限可能。诚邀您参加本次Ai小课堂, 了解如何利用这些先进的模型和平台实现生成式Ai的最佳实践,通过本次小课堂的主题演讲,您可以收获以下内容:
· NVIDIA NIM 推理微服务平台
· NIM与langchain结合使用的方法
· RAG工作流程与原理
· 基于NIM实现RAG智能检索应用
3.分享时间:11月16日 14:30 – 15:00
扫描下方二维码,加入NVIDIA 开发者计划,即可参与NVIDIA小课堂。
同时,只要您加入NVIDIA开发者计划,即可享受“新注册开发者免费DLI课程”的专属福利。新用户可以在注册过程中选择一门单课价值超 600 元的 DLI 在线自主培训课程免费学习。为您精选 20 门课程,涵盖生成式 AI 与大语言模型(LLM)、图形与仿真、加速计算、数据科学和深度学习五大前沿领域,任选一门,满足您的学习需求。部分课程提供完全配置的云端实验环境,结合动手实践,您可以快速获取端到端应用开发经验和提升专业技能,还可以获得 NVIDIA 培训证书,为您的能力和职业发展提供有力证明。