AGI从‘听话工具’到‘超级智慧体’,还有多远?

文摘   2024-11-25 21:12   广东  


最近群里有朋友问我,“AGI什么时候才能真正实现完全自主?现在的发展水平又是几级?” 这是个很有意思的话题,我结合最近看到的资料,和大家简单聊聊。

我们先说说AGI的“进化路径”。最近OpenAI CEO Sam Altman提出了一个AGI等级框架,把通用人工智能的发展分成了5个级别。具体是这样:

1级:基础倾听者

这是AGI最初的状态,它只能按部就班地听指令、执行任务,类似于我们现在用的语音助手,比如Siri或者简单的客服机器人。你跟它说一件事,它会做,但完全依赖明确的指令。

2级:主动协作者

到了这个阶段,AGI开始有点“主动性”了。它不光听指令,还能根据上下文帮你优化、补充,甚至提醒你一些你可能忽略的点。比如,它可以主动帮你改进一份商业计划书或者提醒你哪些地方有风险。

3级:场景执行者

在这个级别,AGI已经可以根据实际情况调整行动。比如在工业生产中,如果出现突发状况,它可以根据数据自主调整生产流程,而不用等人类来干预。

4级:现实世界行动者

这个阶段的AGI,基本可以放进一个开放环境中自主运作了。比如一台机器人被送到一个陌生的城市,它能独立导航、解决问题,甚至和其他系统协作完成任务。

5级:完全自主系统

这是AGI的终极目标。它完全不需要人类干预,能够自主分析情况、规划策略,并做出最优决策。无论是在太空探索、灾难救援,还是管理复杂经济系统,它都能自己搞定。这是我们一直在追求的“强AI”。


AGI的关键点是什么?

有人可能会问,从1级到5级,最大的难点在哪?其实核心有两个关键词:鲁棒性推理能力

  • 鲁棒性:是AI在不确定环境下还能稳定运行的能力。现实世界永远充满各种意外,比如系统输入的数据不完整,外部环境突然发生变化,或者有人试图恶意攻击AI。如果AI鲁棒性不够强,一旦离开“舒适区”,它很可能会崩溃。


  • 推理能力:是AGI能够自主分析和解决问题的基础。没有推理能力,AI就无法真正理解复杂的场景,也就谈不上自主决策。推理能力强的AI,能够像人类一样权衡利弊、预测结果,这才是AGI进化的关键。

目前,OpenAI正在全力研究如何提升推理能力,因为推理是可靠性的基础,没有可靠性,AGI永远无法让人放心。


那我们现在到了第几级?

说到这个问题,我觉得大家会很感兴趣。现在我们大概处于2级到3级之间
也就是说,AGI已经具备了一定的自主能力,但在很多场景下,还是需要人类来监督或者干预。比如一些复杂或者高风险的任务,我们不可能完全放手给AI,因为它还不够“稳”。

不过,这并不意味着进展慢!现在你会发现,很多AI系统对人类的依赖已经越来越少,我们对它的信任也在逐步提高。未来,随着推理能力的增强,这种信任只会越来越深。


未来属于稳健的AI,更属于会“推理”的人

从1级到5级,是AGI从“听话的小助手”到“完全自主智慧体”的蜕变。而这背后启发我们的是——无论是AI还是人类,真正的强大,源自在复杂环境中推理和决策的能力。

大家有什么想法,欢迎在群里讨论





关注《森林聊AI商业》公众号


了解 AI 如何塑造商业的未来





森林聊AI商业
每日一起了解,AI如何改变科技世界。AI创业者一起交流,栏目有:AI日报、AI访谈、我的AI笔记
 最新文章