最近群里有朋友问我,“AGI什么时候才能真正实现完全自主?现在的发展水平又是几级?” 这是个很有意思的话题,我结合最近看到的资料,和大家简单聊聊。
我们先说说AGI的“进化路径”。最近OpenAI CEO Sam Altman提出了一个AGI等级框架,把通用人工智能的发展分成了5个级别。具体是这样:
1级:基础倾听者
这是AGI最初的状态,它只能按部就班地听指令、执行任务,类似于我们现在用的语音助手,比如Siri或者简单的客服机器人。你跟它说一件事,它会做,但完全依赖明确的指令。
2级:主动协作者
到了这个阶段,AGI开始有点“主动性”了。它不光听指令,还能根据上下文帮你优化、补充,甚至提醒你一些你可能忽略的点。比如,它可以主动帮你改进一份商业计划书或者提醒你哪些地方有风险。
3级:场景执行者
在这个级别,AGI已经可以根据实际情况调整行动。比如在工业生产中,如果出现突发状况,它可以根据数据自主调整生产流程,而不用等人类来干预。
4级:现实世界行动者
这个阶段的AGI,基本可以放进一个开放环境中自主运作了。比如一台机器人被送到一个陌生的城市,它能独立导航、解决问题,甚至和其他系统协作完成任务。
5级:完全自主系统
这是AGI的终极目标。它完全不需要人类干预,能够自主分析情况、规划策略,并做出最优决策。无论是在太空探索、灾难救援,还是管理复杂经济系统,它都能自己搞定。这是我们一直在追求的“强AI”。
AGI的关键点是什么?
有人可能会问,从1级到5级,最大的难点在哪?其实核心有两个关键词:鲁棒性和推理能力。
鲁棒性:是AI在不确定环境下还能稳定运行的能力。现实世界永远充满各种意外,比如系统输入的数据不完整,外部环境突然发生变化,或者有人试图恶意攻击AI。如果AI鲁棒性不够强,一旦离开“舒适区”,它很可能会崩溃。
推理能力:是AGI能够自主分析和解决问题的基础。没有推理能力,AI就无法真正理解复杂的场景,也就谈不上自主决策。推理能力强的AI,能够像人类一样权衡利弊、预测结果,这才是AGI进化的关键。
目前,OpenAI正在全力研究如何提升推理能力,因为推理是可靠性的基础,没有可靠性,AGI永远无法让人放心。
那我们现在到了第几级?
说到这个问题,我觉得大家会很感兴趣。现在我们大概处于2级到3级之间。
也就是说,AGI已经具备了一定的自主能力,但在很多场景下,还是需要人类来监督或者干预。比如一些复杂或者高风险的任务,我们不可能完全放手给AI,因为它还不够“稳”。
不过,这并不意味着进展慢!现在你会发现,很多AI系统对人类的依赖已经越来越少,我们对它的信任也在逐步提高。未来,随着推理能力的增强,这种信任只会越来越深。
未来属于稳健的AI,更属于会“推理”的人
从1级到5级,是AGI从“听话的小助手”到“完全自主智慧体”的蜕变。而这背后启发我们的是——无论是AI还是人类,真正的强大,源自在复杂环境中推理和决策的能力。
大家有什么想法,欢迎在群里讨论
关注《森林聊AI商业》公众号
了解 AI 如何塑造商业的未来