Scaling Law,撞墙了吗?| 直播预告

科技   2024-11-20 15:02   辽宁  


近期,关于大语言模型(LLM)在 Scaling Law 方面的瓶颈引发热议。据报道,OpenAI 新一代模型在性能提升上的表现未达预期,尤其在编程任务中的改进幅度有限。这是否意味着大模型的性能提升已进入收益递减阶段?国内外技术条件是否存在差异?

而在模型规模不断扩大的今天,“量变引起质变”的关键是什么?高质量训练数据的稀缺性、计算资源的限制会对模型的进一步突破产生多大影响?我们是否在追求极限的过程中忽视了现有技术的优化价值?

此外,大模型项目的“成功”又该如何定义?从业务收益到用户体验再到行业发展的长期贡献,不同视角下,评估标准各不相同。在有限资源下,如何平衡成本与收益,最大化模型的经济价值?

11 月 20 日晚上 20:00,我们邀请了来自百度、京东和中科大的三位专家,共同探讨这些关键问题。Scaling Law 是否真的“撞墙”?未来 LLM 该如何破局?一起在直播中探讨!

直播介绍
直播时间

11 月 20 日 晚上 20:00~21:30

直播主题

Scaling Law,撞墙了吗?

嘉宾阵容
  • 颜林 百度 / 主任架构师,信息流推荐架构负责人

  • 张泽华 / 京东 算法总监

  • 王皓  / 中国科学技术大学 特任副研究员

  • 郭威 / 华为新加坡研究所高级工程师

核心话题
  • Scaling Law 已撞收益递减墙?

  • LLM 性能提升是否已进入收益递减阶段?

  • 大模型从量变到质变的关键是什么?

  • 如何最大化模型的经济价值,平衡成本与收益?

直播亮点
  • 热点讨论:大语言模型在 Scaling Law 方面真的遇到瓶颈?

  • LLM 性能提升是否已经进入收益递减阶段

  • 在资源有限情况下,如何最大化模型的经济价值、平衡成本与收益

如何看直播?

扫描下图海报【二维码】,或戳直播预约按钮,预约 InfoQ 视频号直播。👇

如何向讲师提问?

文末留言写下问题,讲师会在直播中为你解答。

InfoQ
为一线互联网公司核心技术人员提供优质内容。科技圈的观察者,前沿技术的传播者。
 最新文章