10 月 17 - 18日,由 GOSIM 开源创新汇主办、CSDN 承办的 GOSIM CHINA 2024 将在北京盛大启幕。作为 GOSIM 开源年度大会的第三届盛会,本次活动邀请了 60 多位国际开源专家,汇聚了来自全球百余家顶尖科技企业、知名高校及开源社区的技术大咖、项目负责人和生态领袖。预计将有 1000 + 开发者和开源人才齐聚北京,共议全球开源技术的创新与应用新趋势。
GOSIM CHINA 2024 以国际化、社区化、强互动为特色,主题围绕 AI 模型与基础设施、具身智能、下一代互联网、下一代媒体、Rust 编程语言、App 开发等 6 大热点技术,共组织 了 2 场 Keynote 、6 大主题论坛、 6 场 workshop 、2 场黑客马拉松大赛……聚焦技术发展前沿趋势,探索开源技术的应用与创新。精彩内容不止如此,欢迎您点击阅读全文报名参与!
随着大模型和生成式 AI 的发展,算力、算法平台、数据也都面向全新需求。AI 模型与基础设施的发展正经历着前所未有的变革。为了深入交流和探讨推动 AI 发展最新技术的发展现状,《AI 模型与基础设施》专题邀请了潞晨科技创始人兼董事长、新加坡国立大学计算机系校长青年教授尤洋、CodeGeeX 团队技术负责人郑勤锴、vLLM 核心贡献者游凯超、英特尔软件与先进技术事业部高级软件工程师 张怀龙Huailong Zhang 等 13 位技术专家与核心贡献者,以塑造人工智能未来为主题进行主题演讲。
《AI 模型与基础设施》专场,精彩议题抢先看
核心作用:探索 AI 基础模型在构建先进智能系统中的关键作用,了解它们如何推动从自动驾驶到自然语言处理等前沿领域的突破。 边缘设备的 AI 方案:讨论如何将 AI 模型直接部署在边缘设备上,为低延迟、实时应用场景提供高效的解决方案。边缘推理框架让 AI 能力从云端延伸到本地,实现实时自主决策。 透明与创新:探讨完全开源的 AI 模型如何通过透明、协作的方式推动开发,赋予开发者更多的创新空间,促成更加开放、共享的 AI 生态。 大规模训练框架:深入了解大规模 AI 训练框架,展示它们如何支持尖端 AI 技术的进步,为复杂模型的高效训练提供坚实的基础。 微调与定制:重点介绍微调技术,展示如何针对特定应用需求对基础模型进行优化和调整,从而实现更精确的 AI 解决方案。 垂直领域的 AI 变革:展示 AI 在各个垂直领域中的应用,包括医疗、金融、制造等,解析 AI 如何彻底改变行业格局,推动产业升级。
AI 模型与基础设施,塑造未来的开源力量
OPEN-SORA:高效低成本视频生成模型
潞晨科技创始人兼董事长、新加坡国立大学计算机系校长青年教授:尤洋
纽约州立大学计算机科学博士学位,并拥有工商管理硕士学位。CantorAI 的联合创始人,曾在华为美国研究所和土耳其研究所担任研究工程师、架构师及跨国研发团队的领导者。吴博士为企业和大学提供关于人工智能、知识图谱和搜索技术发展的咨询、创新及产品化服务。此外,他还通过“RelevantNews”微信公众号分享关于 AI 领域的前沿见解。
议题简介:Open-Sora 项目是全球首个类 Sora 开源复现方案,它创造了一个高效低成本的视频生成模型。本次演讲将从 Open-Sora 的核心理念出发,详细解析其独特的模型架构,展现这一架构对视频生成效率的优化和对成本的显著降低。演讲还会讨论 Open-Sora 如何在保持高质量输出的同时,实现对不同视频分辨率和长度的适应性,以及如何克服此类大模型训练中常遇到的数据存储问题,并在推理成本和内存使用两方面进行深入优化。Open-Sora 模型以其趣味性和高质量在开源社区内反响热烈,本次演讲,我们还将展现这些开源社区的内的创作,和您一起探索视频生成领域的前沿技术。
百变大模型高效训练框架 LLaMA Factory
北京航空航天大学研究员、LLaMA Factory作者:郑耀威
北京航空航天大学博士。以第一作者在 ACL、CVPR、AAAI、WWW 等国际会议发表多篇论文,担任 AAAI、EMNLP、Neural Computation 等会议和期刊审稿人。曾获得华为杯数学建模全国一等奖、蓝桥杯全国一等奖、北航榜样、北航博士新生奖学金。大模型训练框架 LLaMA Factory 作者,GitHub 开源项目获得超过 3 万 Stars,受邀至人工智能计算大会、阿里云 AI 智领者峰会、中国人民大学、智谱 AI 作大模型主题报告。
议题简介:LLaMA Factory 是一个高效、易用、可扩展的开源大模型高效训练框架,在 GitHub 开源社区获得超过 3 万 Stars,得到多家国内外企业的关注或落地应用。本次分享将从大模型高效训练的角度详细剖析 LLaMA Factory 的构建动机与组成模块,包括上百种大模型的全栈微调适配原理,LoRA 算子优化加速方法,多种微调 Trick 集成思路等等。
CodeGeeX4:应用于人工智能编程的多功能代码生成模型
智谱 AI CodeGeeX 团队技术负责人:郑勤锴
郑勤锴专注于大型代码生成模型的研究,在 NeurIPS、KDD 等会议发表论文十余篇,并在 2020 年 KDD CUP 中获得金牌。作为 CodeGeeX 系列模型的主要作者,他在 GitHub 上累计获得了超过 16,000 颗星。
议题简介:我们介绍最新 CodeGeeX4 模型系列的开源版本 CodeGeeX4-ALL-9B。它是在 GLM-4-9B 基础上持续训练的多语言代码生成模型,大大增强了代码生成能力。使用单个 CodeGeeX4-ALL-9B 模型,可支持代码自动补全与生成、代码解释器、网页搜索、函数调用、版本库级代码问答等综合功能,覆盖软件开发的各种场景。CodeGeeX4-ALL-9B 在 BigCodeBench 和 NaturalCodeBench 等公开基准测试中取得了极具竞争力的性能。它是目前参数小于 10B 的最强大代码生成模型,甚至超过了更大的通用模型,在推理速度和模型性能方面实现了最佳平衡。
基于LLM的 AI 应用工作流编排系统
英特尔软件与先进技术事业部高级软件工程师:张怀龙Huailong Zhang
Huailong 曾在著名公司如阿尔卡特-朗讯、百度和 IBM 工作。目前,他在英特尔的软件与先进技术组(SATG)担任高级软件工程师,同时也是 Istio 社区的维护者。除了专注于云原生微服务及相关技术的研究和实践外,他还致力于云原生与大型语言模型(LLM)技术的跨学科创新研究。他在 OpenVINO 和 KServe 等社区为 LLM 推理服务的云原生场景做出了贡献,并且是 OPEA 社区(https://opea.dev/)的开发者和维护者。Huailong 在多个会议上发表过演讲。
议题简介:大型语言模型(LLMs)的快速发展催生了多种架构和框架,每种都引入了独特的 AI 工作负载和工作流。然而,高效编排、工作负载重用以及降低基于 LLM 的应用部署障碍等挑战仍然是企业面临的关键障碍。本议题将探讨英特尔的开源项目 OPEA(企业 AI 开放平台)如何应对这些挑战。重点将放在 GMC(GenAI 微服务连接器)上,这是一种旨在优化 AI 工作负载的动态编排工具。
Functionary: 利用工具与大型语言模型协同工作
MeetKai Inc. Functionary机器学习负责人:Musab Gultekin
Musab 目前担任 MeetKai Inc. Functionary 团队的机器学习负责人。自 2015 年以来一直从事语言相关的工作。他的工作已惠及全球 3000 多万用户。他拥有计算机科学硕士学位。开发了多款语言类移动应用,全球用户总数超过 100 万。
议题简介:Functionary 是一个开源的大型语言模型(LLM),能够在保持对话能力的同时使用工具。我们将讨论如何通过函数调用来实现复杂的代理任务,以及我们如何解决函数调用过程中遇到的挑战。
元象大模型的实践探索
元象大模型算法负责人:轩文烽
元象大模型算法负责人,领导元象大模型的研究和开源工作。此前,他在腾讯担任高级专家工程师,并在自然语言处理领域拥有十余年的丰富经验,涉及网页搜索、微信公众号文章及智能音箱等应用。此外,他还曾担任 3D FPS 拟人化游戏 AI 技术负责人,主导了业内首次大规模应用 FPS 拟人化 AI 的项目。毕业于哈尔滨工业大学 NLP 实验室。
议题简介:主要介绍元象大模型在从 0 到 1,从 Dense 到 MoE 的研发过程中的实践探索,包括数据、模型、架构等方面。数据层面,大模型需要哪些数据,怎么加工处理,怎么迭代更新;模型层面,从 Dense 到 MoE,如何设定专家大小、专家权重;架构层面,如何提升训练效率,如何保证稳定训练等。
vLLM:简单、快速且低成本的 LLM 服务解决方案
vLLM核心贡献者:游凯超
清华大学的博士生,在软件学院龙明盛教授的指导下学习。在访问加州大学伯克利分校期间参与 vLLM 项目,由伊恩・斯托伊卡教授指导。他是 vLLM 项目的核心贡献者之一,致力于 vLLM 的分布式推理架构。
议题简介:vLLM 是一个快速易用的 LLM 推理和服务库。在本讲座中,我将简要介绍 vLLM 项目的发展历程、其背后的开源社区,并重点介绍许多用户感兴趣的一些功能。
AutoGen:以多智能体对话推动下一代 LLM 应用实现
宾夕法尼亚州立大学助理教授、AutoGen 联合创始人:吴清云
宾夕法尼亚州立大学信息科学与技术学院的助理教授。在微软研究院纽约市实验室做了一年的博士后,并于 2020 年在弗吉尼亚大学获得计算机科学博士学位。她获得了 2019 年 SIGIR 最佳论文奖和 ICLR 2024 LLM agent workshop 最佳论文奖,是 AutoGen 的创建者和核心维护者之一,它是用于智能体人工智能应用的领先编程框架。
议题简介:AutoGen 是一个用于具身人工智能的开源编程框架。它使得开发大型语言模型(LLM)应用成为可能,这些应用使用多个可以相互交谈以解决问题的智能体。在本次演讲中,演讲者将介绍 AutoGen,并分享最新的更新和正在进行的研究工作,涵盖评估、接口、学习/优化/教学以及与现有 AI 技术无缝集成等关键方向。演讲者还将深入探讨围绕 AutoGen 的开放性问题和未来计划。
FlagOpen 中 Aquila 系列中英双语大模型的构建与开源
北京智源人工智能研究院自然语言组算法专家:王良栋
2022 年加入北京智源人工智能研究院,专注自然语言大模型的训练和算法优化,主要负责 pretraining 阶段和 post-pretraining 阶段的算法工作。期间先后负责和参与智源自研 LLM 模型 Aquila 系列的设计与研发工作,并担任 Aquila 系列的持续开源开放;同时也是智源多个开源项目如 FlagAI 和 FlagScale 的主要贡献者之一。
议题简介:北京智源人工智能研究院自成立以来一直致力于开源开放,FlagOpen 开源体系覆盖大模型的多个方面。本次主要围绕 Aquila 系列中英双语大模型介绍智源在自然语言大模型的研发工作和开源项目,具体包括算法方案、预训练与对齐算法框架、预训练与对齐数据集构建与开源。
用MoFA编织您的AI应用
MoFA 项目负责人:吴宗寰
纽约州立大学计算机科学博士学位,并拥有工商管理硕士学位。CantorAI 的联合创始人,曾在华为美国研究所和土耳其研究所担任研究工程师、架构师及跨国研发团队的领导者。吴博士为企业和大学提供关于人工智能、知识图谱和搜索技术发展的咨询、创新及产品化服务。此外,他还通过“RelevantNews”微信公众号分享关于 AI 领域的前沿见解。
电子科技大学信息与通信工程学院副教授:李龙江
internLM:具有全栈工具链的开源LLM
上海AI实验室研究员:高剑飞
上海人工智能实验室高级工程师,书生浦语及相关工具链核心开发者,带领团队开发了多款开源软件,MMRazor(模型压缩工具箱)、XTuner(LLM高性能训练系统)和 LMDeploy(LLM 高性能推理引擎)的量化模块。当前专注于大模型结构设计,以及大模型推理和训练系统,希望能够通过高性能的开源软件,提升社区的研发效率。
议题简介:InternLM 由上海人工智能实验室开发。我们保留开源的高质量 LLM 以及用于开发和应用的全栈工具链。在本次演讲中,我们将分享 InternLM 及其相关工具链的最新发展,涵盖代理、评估和人工智能基础设施等领域。
为 Ascend 开发带来了全新的训练和推理体验
华为主任工程师、openMind架构师:马勇强
19年硕士毕业于北京大学,LLaMA-Factory团队成员,开源项目chinese-chatbot-corpus ownner,曾担任网易资深算法工程师,长期专注于NLP模型落地、开发效率提升方向
议题简介:Ascend 的持续发展离不开开源社区的合作。作为 Ascend 的生态窗口,OpenMind 工具套件专注于为开发人员提供从模型分发到集成模型训练和推理的轻量级功能,从而降低 NPU 的开发门槛。本次分享将为观众提供与 OpenMind 相关的专有功能,包括提高融合运算符的效率和容器的自适应版本管理、包括 Llama-Factory 在内的开源社区中第三方库的适配能力,以及与 Magic Leap 社区合作的进展。
迈向实用化多模态大模型
清华大学研究员、MiniCPM-V项目作者:余天予
清华大学计算机系博士生,RLHF-V, RLAIF-V, MiniCPM-V 作者。
议题简介:多模态大模型作为迈向通用人工智能的必由之路,展现了智能跃迁的巨大潜力。它不仅是学术探索的前沿,更是构建人类命运共同体,促进全球合作的催化剂。高昂的部署推理成本、频繁的幻觉行为、稀缺的高质量数据都极大制约了多模态大模型的发展,MiniCPM-V 从这些关键问题入手,首次实现了和闭源商用多模态大模型可比的端侧多模态理解能力。
立即报名,GOSIM CHINA 2024 更多精彩等你解锁
10 月 17 - 18 日,GOSIM CHINA 2024 (北京站)
1000 +一线开源开发者
60 + 海内外资深专家
6 场主题技术论坛 100 +优质内容
2 场黑客松大赛……
大咖云集,精彩纷呈
期待您的加入
早鸟观众票数量有限,先到先得!
https://china2024.gosim.org/zh