人工智能领域的领军人物,包括 Anthropic 的 Dario Amodei 和 OpenAI 的 Sam Altman,都表示“强大的人工智能”甚至超级智能可能会在未来 2 到 10 年内出现,可能会重塑我们的世界。
在他最近的文章《爱的恩典机器》中,阿莫迪对人工智能的潜力进行了深思熟虑的探索,并建议强大的人工智能——其他人所说的通用人工智能 (AGI)——最早可以在 2026 年实现。与此同时,在《智能时代》中,阿尔特曼写道,“我们可能会在几千天内拥有超级智能”(或到 2034 年)。如果他们是正确的,那么在未来 2 到 10 年的某个时候,世界将发生巨大变化。
作为 AI 研发的领导者,Amodei 和 Altman 处于突破界限以实现可能性的最前沿,在我们展望未来时,他们的见解特别有影响力。Amodei 将强大的 AI 定义为“在大多数相关领域(生物学、编程、数学、工程、写作......)比诺贝尔奖获得者更聪明......”阿尔特曼在他的文章中没有明确定义超级智能,尽管它被理解为在所有领域都超越人类智力能力的人工智能系统。
并非所有人都同意这个乐观的时间表,尽管这些不那么乐观的观点并没有削弱科技领导者的热情。例如,OpenAI 联合创始人 Ilya Sutskever 现在是 Safe Superintelligence (SSI) 的联合创始人,这是一家致力于以安全第一的方法推进 AI 的初创公司。去年 6 月宣布 SSI 时,Sutskever 表示:“我们将以一个重点、一个目标和一个产品,直截了当地追求安全的超级智能。一年前,当他还在 OpenAI 时,他谈到 AI 的进步时指出:“这将是巨大的、惊天动地的。会有之前和之后。在 SSI 的新职位上,Sutskever 已经筹集了 10 亿美元来资助公司的工作。
这些预测与埃隆马斯克的估计一致,即到 2029 年,人工智能的性能将超过全人类。马斯克最近表示,人工智能将能够在未来一两年内做任何人类能做的任何事情。他补充说,人工智能将能够在未来三年内,即 2028 年或 2029 年完成所有人类加起来可以做的事情。这些预测也与未来学家 Ray Kurzweil 的长期观点一致,即 AGI 将在 2029 年实现。库兹韦尔早在 1995 年就做出了这个预测。
迫在眉睫的转型
由于我们正处于这些潜在突破的边缘,我们需要评估我们是否真的为这种转变做好了准备。无论准备好与否,如果这些预测是正确的,一个全新的世界很快就会到来。
今天出生的孩子可以在 AGI 改变的世界中进入幼儿园。AI 护理人员会远远落后吗?突然之间,石黑一雄在《克拉拉与太阳》中为那些孩子在十几岁时提供一个机器人人造朋友的未来主义愿景似乎并不那么牵强。AI 伴侣和护理人员的前景表明,一个具有深刻的道德和社会转变的世界,可能会挑战我们现有的框架。
除了同伴和照顾者之外,这些技术的影响在人类历史上是前所未有的,既提供了革命性的希望,也带来了生存风险。强大的 AI 可能带来的潜在好处是深远的。除了机器人的进步之外,这可能包括开发癌症和抑郁症的治疗方法,以最终实现聚变能。有些人将这个即将到来的时代视为一个富足的时代,人们拥有新的创造力和联系机会。然而,看似合理的负面影响同样重大,从巨大的失业和收入不平等到失控的自主武器。
在短期内,麻省理工学院斯隆学院首席研究科学家安德鲁·迈克菲 (Andrew McAfee) 认为 AI 可以增强而不是取代人类的工作。在最近的 Pivot 播客中,他认为 AI 提供了“一支由文员、同事和教练组成的大军”,即使它有时会承担“很大一部分”工作。
但这种对 AI 影响的衡量观点可能有一个结束日期。埃隆马斯克表示,从长远来看,“可能我们都不会有工作。这种鲜明的对比凸显了一个关键点:无论 AI 在 2024 年的能力和影响如何,在可能只有几年后的 AGI 世界中可能会发生根本性的不同。
缓和期望:平衡乐观与现实
尽管做出了这些雄心勃勃的预测,但并不是每个人都同意强大的 AI 即将到来,或者它的影响将如此简单。深度学习怀疑论者 Gary Marcus 一段时间以来一直警告说,当前的 AI 技术无法实现 AGI,他认为该技术缺乏所需的深度推理技能。他以瞄准马斯克最近关于人工智能很快会比任何人都聪明的预测而闻名,并出价 100 万美元来证明他错了。
Linux 操作系统的创建者和首席开发人员 Linus Torvalds 最近表示,他认为 AI 会改变世界,但目前“90% 是营销和 10% 的现实”。他表示,就目前而言,AI 可能更多的是炒作而不是实质内容。
也许 OpenAI 的一篇新论文为 Torvald 的断言提供了可信度,该论文显示了他们领先的前沿大型语言模型 (LLM),包括 GPT-4o 和 o1,正在努力回答有事实答案的简单问题。该论文描述了一种新的 “SimpleQA” 基准,以 “衡量语言模型的事实性”。性能最好的是 o1-preview,但它对一半的问题产生了错误的答案。
展望未来:为 AI 时代做好准备
对 AI 潜力的乐观预测与 SimpleQA 等基准测试中所示的技术现状形成鲜明对比。这些局限性表明,虽然该领域发展迅速,但要实现真正的 AGI,还需要一些重大突破。
尽管如此,那些最接近发展中的 AI 技术的人预见到它会迅速发展。在最近的 Hard Fork 播客中,OpenAI 的前 AGI 准备高级顾问 Miles Brundage 说:“我认为大多数知道他们在说什么的人都同意 [AGI] 会很快消失,这对社会意味着什么甚至不一定可以预测。布伦戴奇补充说:“我认为大多数人的退休时间会比他们想象的要早......”
斯坦福大学的罗伊·阿马拉 (Roy Amara) 于 1973 年提出阿马拉定律,指出我们经常高估新技术的短期影响,而低估其长期潜力。虽然 AGI 的实际到来时间表可能与最激进的预测不符,但它的最终出现,也许在短短几年内,可能会比今天的乐观主义者想象的更深刻地重塑社会。
然而,当前的 AI 能力与真正的 AGI 之间的差距仍然很大。考虑到所涉及的风险——从革命性的医学突破到生存风险——这种缓冲是有价值的。它为制定安全框架、调整我们的机构并为将从根本上改变人类体验的转型做好准备提供了关键时间。问题不仅在于 AGI 何时到来,还在于我们是否准备好迎接它。
Gary Grossman 是 Edelman 技术实践执行副总裁,也是 Edelman AI 卓越中心的全球负责人。
关注+星标“硅基LIFE”,每日获取关于人工智能、芯片领域最新动态。 加微信fusion9000,进“硅基LIFE”粉丝交流群交流并接收实时滚动推送的最新信息