OpenAI将发比GPT4强100倍的模型,算力已实现AGI

文摘   2024-11-02 15:50   甘肃  

OpenAI将发比GPT4强100倍的模型,算力已实现AGI


    转载一篇来自量子位的文章,原标题:OpenAI回应一切,o1/GPT年前升级!奥特曼:别嫌慢,问就是缺算力。

    大概意思如下:

    1.年底将发布比现有GPT-4强100倍的新模型,但不会命名为GPT-5。

    2.当前的硬件可以实现AGI,缺是主要是计算资源,或者“料”

    3.图像生成模型DALL-E的下次更新值得期待,目前保密。

    4.明年将让ChatGPT自主执行任务。

     综合如上,你隐约能觉得其GPT-5将接近或者初步达到AGI。这个时间应该在2025年。

    5.Sora的进一步升级,目前保密。

    6.o1系列和GPT系列将同步推进,之后也可能整合。

    7.OpenAI将拥有自己的搜索。

    你从如上可以看出,目前全球最强AI公司的算力已经基本达到AGI(通用人工智能,也就是在绝大多数方面赶上和超过人),这个超出绝大多数信息与AI界代表(马斯克除外)的说法,更超出几乎所有其他人的···其他人大多数···

    也就是AI的发展,其速度是超过大多数人感知的(尤其井里的和背着井到处走的),可能个人2028年实现AGI的预断都稍显保守。

    另外,不仅是OpenAI疯了,其他公司,比如谷歌、英伟达、MATE、苹果、Anthropic等都疯了,以及其他正在发力和准备发力AI的公司和雄心勃勃的创业者,都疯狂···

    这个球疯了,最多的资源、人才、人力、技术、财力在往AI集中和整合,态势完全空前——整个地球和人类社会体制、机制、合力,推动AI指数级发展,并还在不断提速。

    完全一副不把自己搞毁灭绝不罢休的态势——人类在最后的、也空前的疯狂,如果不在能遏制被毁灭的趋势的话。

    如何遏制?为什么如此遏制?敬请留意本人即将出版的《世界主要社会形态及走向-人类自救时间或只剩不到10年》,只有社会形态重构与人的革命,只此一途。封面大概:



原文全文如下:

关于OpenAI的一切消息,官方这次全回应了!!

就在刚刚,CEO奥特曼携4大高管集体亮相reddit有问必答活动(AMA ),挨个回复了大家对OpenAI主要产品、AGI路线规划等提问。

具体阵容包括,首席产品官Kevin Weil、高级研究副总裁Mark Chen、工程副总裁Srinivas Narayanan和首席科学家Jakub Pachocki。


如此豪华阵容也当即引来大量关注,仅过去几小时,reddit已有4000多条网友留言。


先来个省流版,在这次活动上,OpenAI团队主要透露了

  • 年底将会有重大更新,但不会命名为GPT-5

  • 当前的硬件可以实现AGI

  • 缺少计算资源是阻碍产品推迟的主要因素

  • 图像生成模型DALL-E的下次更新值得期待,但目前无发布计划

  • 让ChatGPT自主执行任务将是明年一大重点

  • Sora还需要完善,暂无明确发布时间表

  • o1系列和GPT系列将同步推进,未来也可能整合

  • o1满血版即将推出

  • ……

好家伙,这次的信息密度有亿点高,准备好瓜子咱们接着唠(doge)。


OpenAI回应一切

一上来,网友们就开始了贴脸开大,纷纷喊话对面的OpenAI团队:

你还记得大明湖畔的Sora、GPT-4o视频通话、DALL-A……吗?


对此,CEO奥特曼开始诉苦(bushi,承认缺少计算能力是阻碍公司更快交付产品的主要因素。

最近还有报道称,奥特曼和OpenAI首席财务官对员工抱怨,微软行动速度不够快,没有提供足够的服务器。

两家的联盟关系也正在逐渐破裂,并开始互相视对方为备胎——

OpenAI找了甲骨文做额外的云计算供应商,微软也开始在自家产品中接入谷歌和Anthropic模型。

除此之外,为了减少对英伟达的芯片依赖,OpenAI近几个月还在与博通合作开发AI芯片,不过预计最早要等到2026年才能上市。

多方迹象显示,OpenAI目前确实在计算能力上面临压力。

不过抛开这点不谈,奥特曼此次自信宣称,人类当前的硬件已经可以实现AGI了。


与此同时,更多重点产品消息释出:

首先,奥特曼照例放出重磅烟雾弹,暗示年底可能会发布重要产品,只不过不会将其命名为GPT-5。


他表示,一方面模型变得越来越复杂了,另一方面有限的算力还需要分配给“许多伟大的想法”。(传闻OpenAI擅长在内部同时推进很多项目)


而对于当前存在的GPT和o1系列模型,OpenAI目前会同步开发、发布,不过将来也不排除整合的可能性。

同时,o1满血版将很快推出



另外,对于大家一直关注的视频生成模型Sora,目前还是没有明确的发布时间表。

官方说法是,Sora还需要进一步完善,需要考虑安全方面的因素。(Sora负责人前一阵还跳槽谷歌了)


同样的,对于期待值颇高的GPT-4o的视频通话功能,以及久未更新的图像生成模型DALL-E系列,OpenAI仍然态度暧昧模糊,能够看出,他们的重点目前不在这些上面。



所以,OpenAI最近的重点是啥呢?

最新答案来了:AI搜索。

就在今天,ChatGPT新增了搜索功能,背后由GPT-4o的微调版本提供支撑,而且网页版、手机版、桌面版同时上线。

据介绍,其最主要的亮点是“快速获取准确答案,并提供相关网页链接”,无需再切换至其它的搜索引擎。


有网友借机提问奥特曼,ChatGPT search优势何在?我们为什么要放弃传统搜索引擎?

对此,奥特曼认为AI搜索主要应用于更复杂的场景,最好能动态呈现自定义网页作为响应


而且OpenAI透露,ChatGPT搜索仍然使用了微软的Bing


最后,OpenAI明年的重点之一是——让ChatGPT自主执行任务

要知道,隔壁家的Claude目前已经能接管我们的电脑了,仅需输入指令,Claude就能帮我们完成订比萨、做攻略等任务。(OpenAI要加油了)


网友们还关注这些

除了上面这些大众关切,部分网友也原地开启了许愿模式。

Q:GPT-4o的文本能否扩展?32k不太够用。

A:在努力了!


而且不止GPT-4o,OpenAI可能会为ChatGPT增加上下文窗口。


Q:ChatGPT可以做但目前还不能做的一件事是什么?

A:代替人类,自主理解并执行任务。


Q:ChatGPT的最佳用例以及未来在哪些领域会特别有用?

A:发现并治疗疾病,以及加速新的科学发现。


Q:是否有计划发布一项新功能,让用户能看到自己在ChatGPT被引用的方式和频率?

A:会考虑这个好主意,目前没有计划。


Q:AGI是否可以通过已知的神经网络架构实现,或者是否需要新的科学(基础)突破?

A:如果架构突破是由现有的LLM提出的,这算不算?(暗示新架构也可能由LLM提出)


Q:高级语音的API成本会降低吗?

A:语音和其他功能都考虑进一步降低成本。(GPT-4o mini的成本目前是GPT-3的2%)


Q:模型幻觉会成为永久性特征吗?如何应对?

A:很难避免,OpenAI正在使用的解决方案包括:加强出处引用、使用强化学习(模型不产生幻觉时,实行奖励)


Q:对明年的大胆预测?

A:使所有基准测试达到饱和。(自信起来)


最后,有人突发奇想,提问奥特曼是否会使用ChatGPT来回答上述问题。

结果没想到,还真有。(就emmm……)


Ilya看到了什么?

有意思的是,一听到OpenAI团队要来个“知无不言”,大家伙儿不约而同地又问出了那句:

what did Ilya see?

怼到眼前来了,CEO奥特曼自知躲不过,于是乖巧回复道:

他是一位令人难以置信的有远见的人,他的一些最初想法最终成就了o1模型。


嗯,感觉每次回答都一样,大家可以放弃这个问题了(doge)。

问不出来,真的问不出来……

— 完 —


邵旭峰域
《世界…人类…》已在新加坡全球华人出版社出版,将在出版社官网和友联书局等上架,国内电子书平台也是。另,本书延展:暂定名“未来世界”的小册子也即将完工,该册对人类在窗口期完成自救、或完不成,及即便完成也时间不会太长等予以推想,敬请留意!
 最新文章