从OpenAI 12天发布会里,我们看到了行业的四个关键问题

科技   2024-12-24 08:16   北京  


本文来自微信公众号:极客公园 (ID:geekpark),作者:黎诗韵,编辑:郑玄,题图来自:OpenAI

历史上第一次有公司会连续开12天的产品发布会——当OpenAI宣布这个决定之后,全球科技圈的期待值被拉满了。但直到发布会接近尾声,“就这?就这?”一位AI从业者如此表达他的观感。

这似乎代表了某种主流看法:此次OpenAI发布会,亮点不大、低于预期。

前十一天,OpenAI的发布会涉及技术、产品形态、商业模式和产业生态等多个重要更新,包括完整的推理模型o1、强化微调、文生视频Sora、更强的写作和编程工具Canvas、与Apple生态系统的深度整合、语音和视觉功能、Projects功能、ChatGPT搜索、给ChatGPT打电话和WhatsApp聊天等等。

但正如上述AI从业者感到失望的原因,“还以为会发GPT-5。”在发布会结束第二天,据外媒报道,OpenAI的GPT-5研发受阻。

不过,最后一天发布的o3是个例外。它是o1的下一代推理模型,在数学、代码、物理等多项测试中表现惊人——一位国内大模型公司的技术人士谈及o3给他带来的震撼,“AGI已来。”他说。技术人士对o3评价都颇高。

回顾这12天的发布会,OpenAI一边秀出了技术“肌肉”,另一边不断优化产品形态、扩大落地应用的空间。有人打趣道,就像一场“直播带货”,OpenAI希望吸引更多用户、开发者使用ChatGPT。在新的一年,OpenAI在日活、营收等数据上或许会迎来飞跃。

但这个过程不一定会顺利。尽管模型能力变强,但由于数据掣肘、封装能力、模型成本过高等原因,强大模型和应用落地之间仍有较大距离。

OpenAI此次发布会似乎透露出这样一种趋势:目前大模型行业的竞争焦点不仅在于模型参数和技术上限,也在于用户体验和市场规模。需要两者齐头并进,才能保持领先。

在梳理了OpenAI这12场发布会的主要信息、以及与国内大模型行业人士交流后,极客公园总结了以下几个关键看点。

一、o3的智能深度已经够了,但能否称之为AGI要看智能广度

“疯狂,太疯狂了。”这是国内某模型负责人看到o3之后的第一反应。

在数学、编码、博士级科学问答等复杂问题上,o3表现出了超越部分人类专家的水平。比如,在涉及生物学、物理学和化学的博士级科学考试GPQA Diamond中,o3的准确率达到87.7%,而这些领域的博士专家只能达到70%;在美国AIME数学竞赛中,o3取得96.7分、只错了一道题,相当于顶级数学家的水平。

被广为讨论的是其代码能力。在目前全世界最大的算法练习和竞赛平台Codeforces上,o3得分为2727分、相较o1提升了800多分,相当于位列175名的人类选手。甚至,它超过了OpenAI的研究高级副总裁Mark Chen(得分2500分)

o1-preview、o1、o3的代码能力对比|图片来源:OpenAI

自9月推出o1-preview版本以来,短短三个月时间内,o1系列模型在推理能力上完成了超强进化。在发布会第一天推出的o1完整版,其思考速度较o1-preview提高了约50%、针对困难现实问题的重大错误减少了34%、同时还支持多模态输入(可识别图像)。而今天的o3在复杂问题上则已超越部分人类专家水平。

“从o1到o3是通过增加推理计算量实现对模型能力的提升,随着国内外Deepseek-R1、Gemini 2.0 Flash Thinking等发布,表明大模型开始从预训练Scaling Law转向推理的Scaling Law。”清华大学长聘副教授、面壁智能发起人刘知远对极客公园表示。

自OpenAI发布o1-preview,大模型浪潮的技术范式从最初的预训练Scaling Law(缩放定律),即不断扩大模型训练参数、提升其智能上限,切换到了新一轮的、升级的技术范式,即在推理阶段注入强化学习、提高复杂推理能力。

在前一种范式下,模型主要是通过next token prediction(下一个词预测)给出答案,更偏向“快思考”。就像“读了万卷书”,但“学而不思则罔”,没法完成数学、编程等更复杂的推理任务。

而在后一种范式下,模型不会马上给出答案,而是会“慢思考”,先引入CoT(思维链),把复杂的问题规划、分解为更简单的步骤,最后得到结果。而当方法不起作用时、它会尝试另一种方法,在强化学习中提升复杂推理能力——随着模型不断进行“慢思考”和强化学习,其推理能力会指数级上升,这就是推理的Scaling Law。

对于o3超出人类专家的超强研究推理能力——在刘知远看来,这表明o3正在朝“超高智能的超级计算机”方向前进。

不少行业人士认为,这会对前沿科学领域影响深远。从积极的角度来看,o3极强的研究推理能力,能够帮助推动人类在数学、物理学、生物学、化学等学科的基础科学研究。不过,也有人担心它会冲击科研人员的工作。

此次o3带来的惊人的智能深度,似乎让人看到了AGI的曙光。但在刘知远看来,正如信息革命的标志并非大型计算机、而是个人计算机(PC)的普及,只有实现AGI的大众化、普惠化,即让每个人拥有自己的大模型、解决好自己日常的问题,才意味着真正的智能革命。

“毕竟我们并不需要让陶哲轩、Hinton(均为顶尖科学家)来为我们解决日常问题。”他说。

这背后涉及的关键问题是,o3模型的智能深度能否泛化到其他各种领域、具有足够的智能广度——在上述某国内大模型公司的技术人士看来,只有同时突破智能的深度、广度,才能称之为AGI。他对此感到乐观,“就像你们班来了一个转校生,你没跟他接触过,但他考试数学和编程都考了全班第一。你觉得他语文和英语会很差吗?”

对于国内的大模型公司来说,核心的问题还是如何追赶o3。从训练架构、数据、训练方法和评价数据集等关键要素来看,这似乎是工程化能解决的问题。

“你认为距离我们拥有一个o3水平的开源模型还有多远?”

“一年之后。”上述模型负责人回答。

二、模型只是发动机,关键是帮助开发者用起来

尽管o3的模型能力很强,但在一些应用层人士看来,模型和落地应用之间还有很大距离。“今天OpenAI训练了爱因斯坦,但如果想变成上市公司的首席科学家,依然是有距离的。”澜码科技创始人兼CEO周健对极客公园表示。

作为大模型中间层,澜码科技是国内较早探索将大模型应用落地、打造AI Agent的公司。在周健看来,大模型只是一个基础设施,需要结合场景去做很多工作才能用起来,而目前主要的掣肘是数据。

在很多场景里,拿到完整数据是很难的,有很多数据甚至是没有数字化的。比如猎头可能需要简历数据,但很多简历数据并没有被数字化。

而成本是影响o系列模型落地的最关键因素。根据ARC-AGI测试标准,o3-low(低计算量模式)每个任务耗费20美金,o3-high(高计算量模式)每个任务耗费数千美金——哪怕问一个最简单的问题,也要花费近两万元。收益和成本根本不能打平,o3的落地可能还需要漫长一段时间。

o系列模型的成本测算|图片来源:ARC-AGI测试标准

在帮助模型应用落地的问题上,OpenAI在发布会上也发布了相应的功能方案。比如第二天,OpenAI专为开发者发布了AI强化微调(AI Reinforcement Fine-Tuning)功能,这是周健最关心的功能。它指的是,模型能通过少量数据,优化推理能力、提升性能。

这尤其适用于精细化领域的应用。OpenAI技术人士称,它能帮助任何需要在AI模型方面拥有深厚专业知识的领域,比如法律、金融、工程、保险。一个例子是,最近汤森路透使用强化微调来微调o1-mini,得到了好用的AI法律助理,帮助他们的法律专业人员完成了一些“最具分析性的工作流程”。

比如第九天,o1模型终于向开发者开放使用。它支持函数调用和视觉能力;引入了WebRTC,实现实时语音应用开发;推出了偏好微调功能,帮助开发者定制模型;发布了Go和Java SDK,让开发者可快速上手集成。

同时,它带来了更低成本、更高质量的4o语音模型。其中,4o音频价格下调60%,降至输入$40/百万tokens、输出$80/百万tokens,缓存音频价格降低87.5%、至$2.50/百万tokens;对于预算有限的开发者,OpenAI推出GPT-4o mini,音频费用仅为4o的四分之一。

这个新功能也是周健关注的。他认为,更新的实时语音、视觉识别等功能,将能更好地在营销、电话客服和销售外呼等场景应用。按他的经验,当OpenAI推出某些领先技术,一般国内6-12个月就可以追上。这让他对新一年的应用业务充满信心。

三、Sora的视频生成低于预期,但产品开放会提升其物理模拟能力

年初OpenAI发布Sora的demo时,引发了全球科技圈的震撼。但这一整年,国内各大模型公司纷纷竞逐文生视频赛道——等到OpenAI在发布会第三天正式放出Sora时,国内的文生视频公司松了一口气。

“基本没有什么超出预期的内容,真实感、物理特性等方面相比于2月份的发布并没有显著变化,从基础模型能力的层面来说算是低于预期的。”生数科技联合创始人兼CEO唐家渝对极客公园表示。

目前,字节、快手、MiniMax、智谱、生数、爱诗等公司均推出了自己的文生视频产品。“Sora的效果和实力综合来看并无明显领先优势,我们看到自己与OpenAI确实还是齐头并进的。”唐家渝表示。

在他看来,Sora稍微有亮点的部分是在基础的文生视频、图生视频以外,提供了一些提升视频创作体验的编辑功能,说明OpenAI确实更关注产品体验了。

比如故事板功能,它相当于按时间轴的方式,把一段故事(视频)切成了多个不同的故事卡(视频帧)。用户只需要设计和调整每张故事卡(视频帧),Sora会自动把它们补成一段流畅的故事(视频)——这很像电影里的分镜、动画的手稿,当导演画好分镜、漫画师写好手稿、一个动画、片子就做好了。它能让创作者更好地表达自己。

此外,它还推出了文字直接修改视频、无缝融合两段不同的视频、给视频改变画风等功能,它们相当于是直接给视频加“特效”了。而一般的文生视频产品,无法直接修改原视频,只能不断调整prompt(提示词)、生成新视频。

Sora 的故事板功能 | 图片来源:OpenAI

在唐家渝看来,这些功能设计确实都是为了给创作者更大的创作自由度,类似的功能已经在Vidu(生数科技的文生视频产品)迭代的计划中。“Sora这些功能的实现对于我们来说并没有难度,实现路径也已经非常明确了。”他说。

在发布会上,Sam Altman阐释了做Sora的原因:一是工具性价值,为创意人员提供创作工具;二是交互价值,大模型不应只通过文本交互,也应扩展多模态;三是最重要的——它和AGI技术愿景是一致的,Sora在学习更多关于世界的规律,最终有可能建立理解物理规律的“世界模型”。

在唐家渝看来,目前Sora生成的视频中,依然有不少明显违背物理定律的地方,跟2月的demo相比进步不大。在他看来,Sora发布后、会有更多人来尝试和探索它的物理模拟能力,这些测试样本或许对提升它的物理模拟起到一定的指导作用。

04、内加功能、外接生态,ChatGPT能变成SuperApp吗?

在o系列模型、Sora、以及开发者服务之外,OpenAI在发布会上的主要动作,一方面还是在产品侧持续增加新功能,优化用户体验。另一方面是积极推动与苹果等企业的深度合作,探索AI融入终端设备和操作系统。

从前者可以看到,ChatGPT的演进方向,似乎是要成为一个“无所不能、无所不在、人人可得”的超级AI助理。据极客公园了解,OpenAI创立之初的愿景就是打造一个“无所不能”的Agent,它能理解人类的指令、自动调用不同的工具、满足人类的需要。看起来,终点即起点。

比如第六天,ChatGPT增加了支持屏幕共享的视频通话和圣诞老人语音模式。前者让用户能与AI实时视频通话,分享屏幕或展示周围环境,进行多模态互动,复现了电影《Her》的场景。

比如第八天,ChatGPT向全体用户开放了其搜索功能。在基础搜索外,它还增加了语音搜索;同时,它集成了手机设备的地图服务,能调取苹果、谷歌地图展示搜索结果列表;它还与多家顶级新闻和数据提供商建立了合作关系,支持用户查看股票行情、体育赛事得分、天气预报等信息。

又比如第十一天,ChatGPT宣布扩展了与桌面软件的集成。它能接入更多编码应用程序,如BBEdit、MatLab、Nova、Script Editor等;它能和Warp(文件共享应用)、XCode编辑器等应用一起使用;它还能在语音模式下与其他应用程序协同工作,包括Notion、Apple Notes等;

现场演示有这样一个例子,当用户在Apple Notes中设定“节日派对歌单”,并语音征询ChatGPT对候选歌曲的意见。ChatGPT能指出用户的错误,如将圣诞歌曲《Frosty the Snowman》误写为《Freezy the Snowman》。

Sora 的故事板功能 | 图片来源:OpenAI

“ChatGPT会从单纯的会话助手向更为强大的代理工具转变。”OpenAI首席产品官凯文·韦尔(Kevin Weil)称。

而另一方面,OpenAI也在积极扩张生态,通过融入人们最常用的终端设备、操作系统、上层软件等,触达更广泛人群。

比如第五天,ChatGPT宣布集成苹果智能生态,融入iOS、MacOS和iPadOS,支持用户跨平台、跨应用调用AI能力,包括Siri交互、写作工具(Writing Tools),以及视觉功能智能识别场景内容(Visual Intelligence)等。通过这次合作,ChatGPT触达了全球数十亿苹果用户。它也开启了大模型与端侧、操作系统合作的先例。

比如第十天,ChatGPT公布了自己的电话联系方式(1-800-242-8478),美国用户每月可拨打该号码享受15分钟的免费通话。同时上线的还有WhatsApp联系人(1-800-242-8478),全球任何用户均可通过WhatsApp向该号码发送消息,目前只限文字信息。

全球部分国家、地区的智能手机和移动互联网渗透率还远远不足,通过电话这种最基础的通讯工具,ChatGPT触达了这些人群。同时它也通过WhatsApp,触达了其近30亿用户。

无论是内加功能、还是外接生态,ChatGPT核心是希望产品触达更广泛人群,变成真正的Super APP。但也有人并不看好它这种不断内加功能、将业务线拉得无尽长的做法,甚至将其形容为“铺了一个大饼,但每一块饼都有点薄,深入不下去”。而很多业务都需要足够深才能发挥价值、也有对应的公司在深耕,这或许是OpenAI要面临的挑战。

尽管o3模型让外界看到了OpenAI惊人的技术实力,但关于推理的Scaling Law能达到怎样的智能上限、以及GPT-5的难产问题,依然让外界对这家公司的技术发展充满疑虑。这次发布会上,OpenAI将关注点转而放在产品形态、合作生态和落地建设上,也未尝不是一种思路。这两者的结合,可能决定了行业接下来的走向。

(极客公园记者Li Yuan对此文亦有贡献)

本文来自微信公众号:极客公园 (ID:geekpark),作者:黎诗韵,编辑:郑玄

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com

End

想涨知识 关注虎嗅视频号!


虎嗅APP
从思考,到创造
 最新文章