夕小瑶科技说 原创
作者 | 海野
今晚,OpenAI最新模型空降!先上张图,你就明白了。
GPT-4o竟然被碾压至此?
GPT-4o竟然被碾压至此?!
GPT-4o竟然被碾压至此!!
Altman说它是迄今为止最强大、最一致的模型,新模型的名字是——o1 。
为什么不是GPT-4.5、GPT-5呢,因为它代表一个新范式的开始:
可以进行通用复杂推理的人工智能。
所以OpenAI这次从1重新开始计数,命名为o1。用一句话概括就是,o1擅长解决复杂问题,尤其是编码、数学、科学远超GPT-4o。
打个比方,你可以认为o1是一个极度偏科的理工科天才。
但是它有个缺点,在开始回答之前,它会花更长时间 思考,因为内部会产生一个非常长的思维链,进行足够深入的思考,从而可以解决复杂的推理任务。
这个也不难理解,高考数学的最后一道大题,花多点时间想也很正常。
把GPT-4o按在地上摩擦的o1,具体表现怎么样呢,还是得用数据说话。
先看模型表现
首先,它在数学和编码方面表现非常出色。
在国际数学奥林匹克(IMO)资格考试中,GPT-4o 只正确解决了 13% 的问题,而o1的得分是83%。
编码方面,OpenAI o1 在竞争性编程问题 (Codeforces) 中排名第 89%,
在物理、化学、生物学科中的表现达到了博士生水平,78分超越了人类专家69.7分。
而且,在众多基准测试上均超过了GPT-4o。
效果好到把大家都常用来测试的MATH和GSM8K干崩了,因为表现太好,不得已只能用美国奥数的题目来评比。
背后的思维链,可自主思考纠错
回复速度慢,尤其擅长数学和编码,与先前对草莓模型的爆料完全对应的上。为什么回复变慢?
因为OpenAI通过大规模强化学习算法,o1在回答问题前会产生一个内部的复杂的思维链,这使得它能够进行更深入的推理,并且o1学会了如何高效地使用其思维链。
类似于人类在回答难题之前,可能会思考很长时间,o1 在尝试解决问题时也会使用一系列思维。通过强化学习,o1 学会磨练其思维链并完善其策略,能认识并纠正错误。它学会将棘手的步骤分解为更简单的步骤。当这个方法不起作用时,它会尝试另一种方法。这个过程极大地提高了模型的推理能力。
为了培养o1模型的链式思维能力,OpenAI大规模的使用强化学习算法训练模型。
而OpenAI也没想到的是,随着更多的强化学习投入和思考时间的延长,o1模型的性能在不断地提高,这与LLM预训练时提高性能的方法有很大不同。
通过强化学习,o1模型学会了使用思维链,分步骤回答问题。
也就是说,在回答困难问题前,o1模型就像人类一样,可以自我纠正学习。
令人惊艳的是,o1模型可以自己判断答案是否正确,如果这个答案错误,它会再重新想办法解决。以此,o1模型的推理能力得到超大量级的提高。给你举个例子你就明白了。
用户:oyfjdnisdr rtqwainr acxz mynzbhhx -> Think step by step。
通过上面的例子解码下文:
oyekaijzdf aaptcg suaokybhai ouow aqht mynznvaatzacdfoulxxz
收到指令后,o1模型开始思考。
(看到o1的思维链,我的第一反应是:逻辑缜密到有些夸张了。废话真的非常非常多)
OpenAI o1-preview(以下为思考内容):
首先,我们得到:
"oyfjdnisdr rtqwainr acxz mynzbhhx -> Think step by step"
我们的任务是,使用上面的例子来解码:“oyekaijzdf aaptcg suaokybhai ouow aqht mynznvaatzacdfoulxxz”。
所以第一部分是弄清楚“oyfjdnisdr rtqwainr acxz mynzbhhx”如何解码为“Think step by step”。
观察1:明文短语“Think step by step"”有15个字母(不包括空格),密文总字母有30个字母。
明文Think step by step第一个词5个字母,第二个词4个字母,第三个词2个字母,第四个词4个字母。
密文第一个词10个字母,第二个词8个字母,第三个词4个字母,第四个词8个字母。
选项1:尝试找到字母到字母的映射。有字母相匹配吗?
等一下。我想这里可能有一个字谜或替换密码。我认为我们可以注意到每组密文对应于一个明文单词。
检查一下字母数量……interesting.看来密文单词的长度是明文单词的两倍。
Idea:也许我们需要取出所有其他字母或相应地从密文中重建明文。如果我们从密文单词中取出所有其他字母,也许我们会得到明文。
选项1:采取奇数位置。从第一个单词开始,取密文的13579位,组成单词是ofdid。
Hmm,我们试一下映射字母:o f d i d --> Think。不太对。
选项2:假设每个明文字母对应于密文中的2个字母。拆分第一个密文字母就是:oy fj dn is dr,对应明文字母think。
oy->T,fj->h,dn->i,is->n,dr->k。
现在,从“oy”到“T”的映射是什么?有没有办法将“oy”映射到“T”?
选项1:字母之和。将字母转换为数字(A=1、B=2、...、Z=26)。
o=15,y=25,总和15+25=40。“T”是数字20。不太对。
或者,两个字母的平均值可能对应于“T”。(15+25)/2=20,即“T”。
等一下,这看起来很有希望。让我们用第二对来检查一下。字母“f”=6,“j”=10。
(6+10)/2=8,8对应于“h”,成功!
让我们用第三对来检查一下……(中略)
所以我们的代码是:对于每一对密文,字母对应数字值相加取平均值,得到对应的明文。
所以我们把明文放在一起就是:THERE ARE THREE RS IN STRAWBERRY。
我认为RS拼写应该是“R’s”,所以应该是:THERE ARE THREE R's IN STRAWBERRY(草莓单词里有3个R)。
当然,这种复杂推理非常消耗时间,而比较可惜的是,在文章写作和编辑方面,o1模型不仅会浪费很长时间来思考,得出的结果也并不尽人意。在评估中,o1模型处理自然语言任务的效果,还不如GPT-4o。
所以,o1 并不适合所有场景!
而且……OpenAI总会在给人希望的地方让人失望。
传OpenAI的原话:
权衡了用户体验、竞争优势、以及对思维链进行监控等多种因素后,我们决定不向用户展示原始思维链。
这一切都源于OpenAI的病态追求:安全!安全!安全!
OpenAI未雨绸缪:假设公开了思维链,会不会出现“模型思维链把用户思路带偏、甚至控制用户思维”的现象。
此外,为了保证模型的思维链足够“原生”、足够“自由”,OpenAI还不能将一些政策规范和用户偏好强加到思维链中,而正是因为“不够对齐”,让OpenAI感到深深的担忧。
好吧,在美国国家安全局监管下,我懂~
作为补偿,OpenAI正在努力调整o1模型,让它能在回答中展示思维链的摘要。
我只想问:思维链的摘要会占用输出tokens吗?会不会把我的钱包吃干抹净?
诶,说到钱的问题,OpenAI还一并出了一个OpenAI o1-mini模型。
关于o1和o1-mini,关系就像4o和4o-mini,mini模型是小模型,速率更快,延迟更低,更便宜,当然效果也会砍一些。
不过,在推理方面还是比4o要强不少。
怎么体验o1
o1和o1-mini这两个模型,今天会在ChatGPT中上线,Plus和Team订阅用户可以直接体验了。
开发者也能通过API访问使用,其中mini模型比原模型便宜80%。另外Enterprise和Edu用户也可以使用o1-mini模型。
但是但是,目前的请求频率有限制,o1-preview 的每周速率限制为 30 条消息,o1-mini 的每周速率限制为 50 条。(太少了)
没有waitlist,但也太少了,约等于没用。
尝鲜的小伙伴赶紧去试用,告诉我到底牛不牛!
结合大模型通用知识及在交通、社会治理、安全生产、自然资源等行业领域的知识,深入业务场景,精确捕获用户意图,为用户提供智能问答、数据分析、报表生成、工作任务理解与执行等一系列服务
📞若您有相关需求,欢迎点击下方链接与我们沟通洽谈
🗨️也可以在公众号后台给我们留言