点击⬇️图标关注 抓住你的灵感💡瞬间
本文是近期Reid Hoffman接受Stanford大学邀请,以AI商业”为题的讲座总结(ECON295/CS323 I I Business of AI) 。本次演讲主要围绕着人工智能对人类认知能力的影响展开,Hoffman Hoffman 作为 LinkedIn 联合创始人和 Greylock Partners 合伙人,对科技发展趋势有着深刻的洞察。他以自身经历和对 AI 发展趋势的理解,阐述了 AI 作为“认知 GPS”的价值和潜在风险。未来,AI 将朝着多元化和协作的方向发展,并需要商业、政府、学术界和公众的共同努力,确保其安全、伦理地应用,最终赋能人类。
以下是演讲内容按时间顺序梳理的主题脉络:
一、人机协作:放大而非取代
Hoffman 认为,AI 时代并非机器取代人类的时代,而是人机协作的时代。AI 在某些方面已超越人类,例如 GPT-4 在许多领域展现出强大的能力。但这种协作关系预计将持续数十年甚至更久,因为 AI 缺乏人类的关键能力:
情境感知能力人类能根据具体情境灵活调整策略,而 AI 目前难以做到。 跳出框架思考:在竞争环境中,人类能制定更具策略性的方案,而 AI 主要依赖规则和数据。 适应新情况的灵活性:面对新环境和挑战,人类能快速学习和适应,而 AI 的适应能力还有待提升。
Hoffman 举例说明,在市场营销和自动驾驶汽车领域,AI 并非万能解决方案。人类的创造力、适应能力和情境感知能力在解决复杂问题时仍然至关重要。他预测,人机协作的时代将持续数十年甚至更久,因为 AI 的发展轨迹表明,其尚无法完全掌握人类智能的所有要素。
Reid Hoffman:如果我们正处于认知工业革命 (Cognitive Industrial Revolution) 中,那么这种赋予人类心智力量的技术究竟是会快速地超越人类,在认知能力上全面胜过我们,还是会在很长一段时间内增强人类的能力?我认为后者的可能性被低估了。
许多研究工作都在试图证明这一点。比如,我可以展示如何与 AI 合作写书。但我认为我不会再那样做了,其他人也不应该。虽然那是一种展示 AI 如何作为研究助理的有效方式,但我认为还有更好的合作方式。当你开始思考这个问题的时候,想想不同世代的人,比如千禧一代、X 世代,以及其他世代。在某种程度上,每一代人如今都与技术革命和趋势息息相关,比如对互联网、社交媒体和手机的熟悉程度。
我个人比较认同人类增强 (Human Amplification) 这一观点,并将其作为一个假设。我认为乐观的原因之一是,未来可能会出现 AI 世代,人们从小就习惯使用 AI 智能体 (AI Agent) 等工具来理解和应对世界。这将是一个人类能力得到增强的时代,也是我们应该关注的重点之一。这也是我提出“AI 世代”这个概念的原因,试图引起大家的注意。
主持人:这像是一个流行词。
Reid Hoffman:没错,但这会是一个完整的世代吗?我的意思是,鉴于 AI 发展如此迅速,就像我们之前讨论过的那样,人们正在不断降低实现 AI 能力所需的算力和数据的规模,也就是所谓的缩放定律 (Scaling Laws)。我们稍后会详细讨论这个问题。我想知道的是,人类与机器协同合作的时代会持续多久?几十年?几个世纪?
我个人认为,这个时代会持续几十年甚至几个世纪。当然,聪明人可能会对此争论不休,他们的观点从几年到几世纪都有。但我的信念是,这段时间会更长。因为如果你观察这些 AI 设备的认知能力发展轨迹——顺便说一句,我本科时就开始研究 AI 了。那时这栋楼还没有建成,特曼楼 (Terman) 倒是已经有了。我在特曼楼里研究 AI。我亲眼见证了 AI 执行某些认知任务的能力在飞速提升。
但我并不认为 AI 能够轻易掌握人类智能 (Human Intelligence) 的所有要素。比如,人类拥有强大的情境意识 (Context Awareness),这使得我们能够成为优秀的对抗性游戏玩家,能够根据情况改变游戏规则。举个例子,如果有人说,你必须打败 AlphaGo 才能活命,你肯定不会试图在围棋规则下击败它,因为你很清楚那样做必输无疑。你会怎么做呢?你会拔掉它的电源,或者往它身上泼水,你会想尽一切办法赢得比赛。
这就是我所说的对抗性游戏和情境意识。我认为目前的 AI 模型还没有展现出这种能力,至少在规模计算方面还没有。当然,这并不是说它们永远无法做到。事实上,我会持续关注 AI 发展,特别是当 AI 的规模达到新的量级时,我会观察一系列指标,比如递归自我完善 (Recursive Self-Improvement) 的程度,AI 是否能够自行编写比人类程序员更好的基线学习算法?我会观察这些指标来判断 AI 是否有潜力发展出强大的智能能力。我认为,AI 在今天已经具备了超级智能 (Superintelligence) 的某些特质。GPT-4 在很多方面的能力都超过了我们所有人。但这并不令人担忧。因此,我倾向于认为,在未来几十年甚至更长的时间里,人类和 AI 将会是合作伙伴关系。当然,每当我看到新的 AI 系统时,我都会更新我的预测。
主持人:没错,我们都在不断更新自己的认知。但这是一个非常有趣的问题。在 GPT 出现之前,许多工具在某些方面已经比我们聪明得多,而且它们的聪明才智也各有不同。比如,国际象棋计算机和计算器都能轻松击败我们。即使是执行相同推理任务或拥有同等知识储备的情况下,AI 也能比人类更快地完成任务。但人类似乎在对抗性思维和跳出框架思考方面具有明显优势。
Reid Hoffman:没错,部分原因在于人类强大的适应能力,我们能够快速适应新环境和新工具。
主持人:比如新工具?
Reid Hoffman:没错。我曾经和一些 CEO 讨论过,他们认为可以解雇整个营销部门,用 GPT-4 代替他们。但我告诉他们,如果所有公司都这样做,营销就会变成 AI 之间的竞争,最终你还是需要雇佣懂得运用 GPT-4 或 GPT-5 进行营销的专业人才,来制定新的营销策略。
这就是人类不断迭代的方式。我之前提到的那些 CEO,我当时非常肯定地告诉他们,人类拥有强大的规划能力。我们可以制定一个 15 步的计划,执行第一步、第二步、第三步,然后发现第三步出现偏差,于是调整计划,执行第三步 B 方案和第四步优化方案,以此类推。目前的 AI 系统还无法做到这一点,它们很容易陷入死胡同。当然,AI 也在不断进步,但这体现了人类拥有更强的情景意识 (Context Awareness)。我们能够判断自己是否走在正轨上,是否需要在竞争中调整方向,进行迭代。这也是我保持理性乐观的原因之一,我认为人类将在很长一段时间内将 AI 融入我们的认知体系中。
二、“认知 GPS”:机遇与挑战并存
Hoffman 将 AI 比喻为“认知 GPS”,它如同导航系统般帮助人们:
探索未知领域: AI 帮助人们发现新的可能性,拓展认知边界。 高效学习和工作: AI 提供更便捷的信息获取途径,提高学习和工作效率。 理性决策: AI 提供客观的建议,帮助人们避免个人经验和情绪干扰,从而更理性地做出决策。
然而,“认知 GPS”也存在潜在风险:
*过度依赖:**过度依赖 AI 提供的信息和建议,可能削弱人类的独立思考和判断能力。 隐私和安全: AI 需要收集和分析大量的个人数据,这可能带来隐私泄露和数据安全风险。 价值观偏差: AI 的设计和训练数据中可能存在开发者自身的价值观和偏见,这可能影响 AI 提供的信息和建议的客观性。
主持人:这让我想到我们之前做过的呼叫中心研究。呼叫中心经常会遇到一些重复性问题,比如如何修改密码。但也有一些问题出现的频率很低,比如那些只在数据集中出现过一次的长尾问题。人类更擅长处理这类特殊问题。因此,人和 AI 之间形成了自然的分工。我之前认为,AI 的能力边界会不断扩大,最终能够解决所有问题。但你的观点让我意识到,这并不是一个静态的过程。随着 AI 的发展,人类也会不断思考新的问题和解决方法,那些长尾问题的数量也会不断增加。也许 AI 最终能够解决所有问题,但这个过程会持续很长时间。
Reid Hoffman:没错,在很长一段时间内,人类在解决这类特殊问题方面都将拥有相对优势。我个人非常看好自动驾驶汽车的价值,我认为它将以各种方式造福人但我们目前还没有测试过人类对抗自动驾驶汽车的结果。如果有人故意试图破坏自动驾驶汽车的正常运行,会发生什么呢?
主持人:是啊。
Reid Hoffman:结果是,我们都能轻易做到这一点。人们会想方设法“欺负”自动驾驶汽车。比如,在十字路口,人类驾驶员可以利用自动驾驶汽车礼让行人的规则,故意抢道。
主持人:没错。
Reid Hoffman:人们已经开始这样做了,而且人类非常擅长这样做。这并不需要多么高深的知识。这也引出了另一个概念:认知 GPS (Cognitive GPS)。它与我们之前提到的 AI 世代有什么异同?你可以将 AI 看作一种工具,但在认知 GPS 的概念下,你会更加依赖它来进行决策。
我之所以用 GPS 来比喻 AI,是因为它可以很好地说明 AI 的优势和风险。在我的新书中,我会用一个章节来阐述这一点。GPS 给我们的生活带来了许多便利。我们可以轻松地找到想去的地方,比如附近的餐厅、朋友的住处,我们可以随时随地与朋友联系,相约喝咖啡。GPS 扩展了我们对世界的探索能力。如果将 AI 比作“心灵的蒸汽机” (steam engine of the mind),那么它就像一个强大的认知 GPS,能够帮助我们完成各种认知任务,指引我们探索心智世界。
但 GPS 也并非完美无缺。比如,我们现在每个人都自愿携带“LoJack追踪器”——智能手机。这些追踪器可能会以各种方式泄露我们的隐私,不仅是在战争时期,即使在日常生活中,我们的行踪也可能被监控。GPS 还会影响我们的认知能力。我发现,自从开始使用 GPS 之后,我的方向感就变差了。我几乎总是依赖 GPS 的导航,即使有时我认为它给出的路线并不合理。如果我们将 AI 当作所有决策的“GPS”,会怎么样呢?我们会如何与妻子沟通?我们会如何选择工作?如果我们将越来越多的决策权交给 AI,我们的生活会变成什么样?
主持人:这正是我们需要思考的问题。我们需要判断哪些曾经被高度重视的智力领域会随着 AI 的发展而变得不那么重要。历史上,这样的事情已经发生过很多次。比如,几个世纪以前,记忆力是最重要的能力之一。但如今,我们更看重的是如何快速找到信息,而不是记住所有信息。技术的进步改变了我们对智力的定义。现在的问题是,我们如何避免过度依赖 AI,导致自身智力退化。我们已经看到,很多人在互联网上看到的信息就认为是绝对正确的,这显然是不合理的。同样,如果 AI 能够为我们提供越来越可靠的建议,我们是否会不假思索地接受它?过度依赖 AI 将是一个巨大的挑战。
主持人:你能想象吗?如果人们开始将很多决策权交给 AI,这究竟是好事还是坏事?这会让人们有更多时间专注于更重要的事情,还是会让人们变得像机器人一样?
三、AI 的未来:多元化与协作
Hoffman 认为,AI 的未来发展方向是多元化和协作的:
多元化:他以医疗领域为例,说明了不同医学体系可以相互借鉴,共同进步。他支持各国发展自己的大型语言模型,促进知识和文化的交流,避免单一文化或价值观的垄断。 协作:他认为,开源社区和商业公司之间需要加强合作,共同应对 AI 发展带来的安全和伦理挑战。
Hoffman 强调,AI 的道德体系应将非暴力作为首要原则,赋予个人更多自主权,同时避免对他人的伤害。他认为 AI 的多样性是有益的,需要多个公司和机构来开发 AI,而不是让少数几家公司垄断这项技术。
Reid Hoffman:我认为,重要的是我们如何训练 AI 智能体 (AI Agent),让它们帮助人类过上更好的生活,成为更好的自己。比如,我们应该训练 AI 识别并过滤掉互联网上的虚假信息,而不是让用户接触到那些有害的内容。
主持人:那么,你认为应该由 AI 来告诉用户该阅读什么内容吗?
Reid Hoffman:也许吧。这涉及到 AI 治理的问题,这是一个循环。如果我们让机器来决定用户阅读的内容,这似乎更加可怕。但事实上,我们现在已经在某种程度上这样做了。
主持人:比如搜索引擎。我们在搜索信息时,往往会相信搜索结果,并按照搜索引擎的推荐来行事。但如果我们不使用这些工具,也许我们会做出更糟糕的决定。你认为 AI 系统应该告诉我们哪些信息不应该阅读吗?
Reid Hoffman:比如那些宣称盐酸可以治疗新冠的虚假信息。
主持人:没错。无论特朗普 (Trump) 如何宣传这种疗法,他的支持者们都会相信 AI 系统的判断,认为这种疗法是有效的。我认为,我们需要了解 AI 智能体 (AI Agent) 的运作机制,以及用户在使用 AI 时应该拥有多少选择权。
Reid Hoffman:也就是说,你希望变形人工智能 (Inflection AI) 能够告诉你该做什么?
主持人:我认为,我们总是倾向于依赖外部事物来获取信息和指导。鲁滨逊漂流记只是一个虚构的故事,现实中,我们都生活在社会环境中,并受到周围人的影响。
Reid Hoffman:没错,我们离不开社会环境。
主持人:也许人们一直都在遵循他人的指示。但这并不会随着时间的推移而改变,对吧?我们需要努力让 AI 变得更好。比如,书籍是人类使用了几个世纪的重要工具。但并不是所有书籍都值得信赖,有些书籍的内容可能是错误的。我们应该学会辨别书籍的真伪,选择阅读那些经过验证的书籍。
让我们从反乌托邦的角度来思考这个问题。如果 AI 系统由于缩放定律 (Scaling Laws) 的作用而变得越来越集中——我们之前讨论过,最终可能只有少数几个强大的 AI 系统——那么,每个人都只能遵循少数 AI 系统的指令,这是否比阅读成千上万本内容各异的书籍更糟糕?
Reid Hoffman:我认为,我们需要在信任和创新之间找到平衡。我们需要信任那些经过验证的 AI 系统,同时也需要鼓励创新和差异化。举个医学的例子,有些人认为疫苗有害健康,因为他们认识的人接种疫苗后出现了副作用。但从统计学角度来看,接种疫苗对绝大多数人来说都是利大于弊的。
新加坡的中央集权制度在领导人贤明的情况下运作良好。但如果换了一个领导人,结果可能就会很糟糕。同样,如果我们完全依赖 AI 系统来获取医学知识,一旦 AI 系统出现错误,后果将不堪设想。
主持人:我明白了。这就是为什么我们需要多元化的 AI 系统,就像我们在获取医学知识时会参考多个来源一样。
Reid Hoffman:没错,我们不能只依赖一个 AI 系统,我们需要多个 AI 系统相互验证。这也是我们实现安全对齐 (Safety Alignment) 的重要途径。比如,如果用户向 AI 提出可能导致自残的行为请求,AI 系统应该能够识别这种风险,并拒绝执行该请求。我们已经有太多人死于自杀,我们不能让 AI 系统助长这种悲剧的发生。
主持人:那么,谁来决定 AI 系统应该如何处理这类请求呢?是你所说的 OpenAI 团队吗?
Reid Hoffman:会有很多团队参与其中,他们会互相交流,发表论文,并与政府和媒体进行沟通,共同制定 AI 安全准则。媒体经常指责科技公司只关心利润,但这并不完全正确。科技公司也关心他们的长期股权价值,而这与承担社会责任密切相关。如果科技公司做出危害社会的事情,他们的股价就会暴跌。因此,科技公司会努力维护他们的社会责任,但这并不意味着他们总是做出正确的决定。比如,烟草公司......
主持人:关于 AI 系统的多元化,我想再问一个问题。李开复 (Kai-Fu Lee) 认为,每个国家都应该拥有自己的大语言模型 (LLM),而不是让少数几家湾区公司来决定什么是真理。你认为,如果我们有数百个不同的 LLM,每个 LLM 都拥有自己独特的价值观和对医学的理解,这会是一个好主意吗?
Reid Hoffman:我认为 LLM 的多样性是件好事。即使在医学领域,我们也需要不同的 LLM 来提供不同的视角。比如,中医 LLM 在分析针灸疗效方面可能比西医 LLM 更有优势。我们需要将不同 LLM 的结果进行比较和对比,才能获得更全面的理解。知识和真理是动态发展的,我们需要保持开放的心态,拥抱多样性。
我希望 AI 的道德体系能够将非暴力作为首要原则,无论是对个人还是对社会。我希望 AI 能够赋予个人更多自主权,同时避免对他人的伤害。但如果法国、巴西、沙特阿拉伯和中国都拥有自己的 AI 系统,而且这些系统不使用 OpenAI、Gemini 和Inflection的技术,那么世界会变得更好吗?或者,我们应该集中资源,共同开发少数几个强大的 AI 系统?
主持人:集中资源当然有其优势,但我认为......
Reid Hoffman:我一直在努力帮助世界各地的民主国家建立自己的科技创新生态系统。我会与各国领导人探讨如何在新加坡、法国、德国、英国、巴西等国家建立“硅谷”。我认同西式民主的价值观,我希望这种制度能够在全球范围内推广。但这并不意味着我们做得完美无缺,或者法国人做得完美无缺。我只是希望我们能够朝着这个方向努力。
Reid Hoffman 的演讲内容丰富,涵盖了 AI 的发展现状、未来趋势、机遇挑战以及伦理治理等多个方面。他以“认知 GPS”的比喻,生动地阐释了 AI 对人类认知能力的放大作用,并提醒人们要警惕 AI 技术带来的潜在风险,呼吁社会各界共同努力,确保 AI 技术朝着有利于人类的方向发展。
本文使用 Notion Nice 排版一键生成
参考:https://youtu.be/RXjLGn14Jo4
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。
点击关注和转发公众号 保持你对AI优质内容的敏感