近期,关于大语言模型(LLM)在 Scaling Law 方面的瓶颈引发热议。据报道,OpenAI 新一代模型在性能提升上的表现未达预期,尤其在编程任务中的改进幅度有限。这是否意味着大模型的性能提升已进入收益递减阶段?国内外技术条件是否存在差异?
而在模型规模不断扩大的今天,“量变引起质变”的关键是什么?高质量训练数据的稀缺性、计算资源的限制会对模型的进一步突破产生多大影响?我们是否在追求极限的过程中忽视了现有技术的优化价值?
此外,大模型项目的“成功”又该如何定义?从业务收益到用户体验再到行业发展的长期贡献,不同视角下,评估标准各不相同。在有限资源下,如何平衡成本与收益,最大化模型的经济价值?
11 月 20 日晚上 20:00,我们邀请了来自百度、京东和中科大的三位专家,共同探讨这些关键问题。Scaling Law 是否真的“撞墙”?未来 LLM 该如何破局?一起在直播中探讨!
11 月 20 日 晚上 20:00~21:30
Scaling Law,撞墙了吗?
颜林 百度 / 主任架构师,信息流推荐架构负责人
张泽华 / 京东 算法总监
王皓 / 中国科学技术大学 特任副研究员
郭威 / 华为新加坡研究所高级工程师
Scaling Law 已撞收益递减墙?
LLM 性能提升是否已进入收益递减阶段?
大模型从量变到质变的关键是什么?
如何最大化模型的经济价值,平衡成本与收益?
热点讨论:大语言模型在 Scaling Law 方面真的遇到瓶颈?
LLM 性能提升是否已经进入收益递减阶段
在资源有限情况下,如何最大化模型的经济价值、平衡成本与收益
扫描下图海报【二维码】,或戳直播预约按钮,预约 InfoQ 视频号直播。👇
文末留言写下问题,讲师会在直播中为你解答。