👇关注公众号后设🌟标,不错过第一手AI新鲜观点和动态
本文所呈现的观点整理自弗朗索瓦·肖莱接受Machine Learning Street Talk Youtube频道专访,公开发表于2024年11月06日。原始内容参考:https://www.youtube.com/watch?v=JTU8Ha4Jyfc
人物简介
弗朗索瓦·肖莱(François Chollet)是一位法国计算机科学家,深度学习专家,现为谷歌人工智能研究员。他最为人知的是Keras的创造者,这是一个用户友好的高级神经网络API,最初用Python编写,可以运行在TensorFlow、Microsoft Cognitive Toolkit、Theano或PlaidML之上。Keras简化了构建和训练深度学习模型的过程,极大地降低了深度学习的入门门槛,对深度学习的普及和应用起到了重要的推动作用。
除了Keras,Chollet还在深度学习领域做出了其他重要贡献,例如开发了Xception图像分类模型,并撰写了《Python深度学习》一书,该书被广泛认为是深度学习的入门经典,深入浅出地讲解了深度学习的核心概念和实践技巧。
Chollet的研究兴趣包括人工智能、抽象、认知和意识的哲学。他强调深度学习模型的局限性,并提倡研究更具通用性和鲁棒性的人工智能。他还关注人工智能的社会影响,并积极参与相关讨论。
核心观点整理
Chollet在访谈中对当前AI技术进行了深刻的批判性反思,并对真正人工智能的定义、衡量标准以及AGI的未来发展方向提出了独到的见解。
1. “规模即一切”的谬误:规模并非等同于智能
Chollet尖锐批判了当前AI领域流行的“规模即一切”理念,认为单纯依赖于扩大数据规模和计算能力并不能等同于提升智能水平。现有的基准测试,例如大型语言模型的考试式评测,容易被模型的记忆能力“作弊”,无法真正衡量其智能水平。真正的智能在于处理新颖性,即根据已有知识快速构建模型来应对从未见过的场景。
★“规模就是一切”的想法来自于在训练深度神经网络时对缩放定律的观察……许多人由此推断,我们从这些模型中所能获得的性能没有限制。我们只需要将计算量扩大几个数量级,最终就能远远超过人类的水平,纯粹通过扩展计算量就能做到,无需改变架构,也无需改变训练范式……这里的主要缺陷在于你衡量性能的方式……性能是通过类似考试的基准测试来衡量的,这实际上是记忆游戏……我的看法是,你观察到的这种性能提升实际上与智力是正交的。你并没有真正衡量智力,因为你的基准测试可以通过提前准备,提前记住东西来破解。如果你想衡量智力,你需要一种不同的游戏,一种你无法准备的游戏,例如ARC。
2. 智能的定义:技能习得效率
Chollet将智能定义为“技能习得效率”,即系统在有限数据下获取新技能的能力。他认为,智能是获得新技能的能力,而不是技能本身。为了更有效地衡量这种能力,他创建了抽象推理语料库(ARC)数据集,这是一个旨在抵抗记忆策略的智力测试,人类很容易通过,而AI却很难。
★智能性非常具体地指你处理新颖事物的能力,处理你从未见过的情况,并即兴提出在该情境下有意义的模型的能力……人工通用智能的抽象推理语料库,简称ARC,你可以把它想象成一种可以让人类进行的智商测试……ARC被设计成能够抵抗死记硬背,而所有其他基准测试都可以仅靠记忆来破解……我将智力定义为技能习得效率……如果你想真正衡量智力,你必须观察系统在有限的数据量下获取新技能的效率。
3. 大型语言模型的局限性:内插数据库而非真正的推理系统
Chollet将大型语言模型描述为“内插数据库”或“近似检索系统”,认为它们主要依赖于记忆和组合已有的知识,而非真正的推理和理解。它们的泛化能力很弱,难以应对训练数据之外的全新问题。
★我认为人们卡住的地方在于,当他们听到“记忆”时,他们会认为大型语言模型 (LLM) 只是在死记硬背问题的答案,只是在死记硬背内容……但这并不是它们主要的工作。它们主要记忆的是函数、程序,而这些程序在某种程度上可以泛化,可以进行自由泛化……LLM 的工作方式是训练它们,训练这些非常丰富、非常灵活的模型来预测下一个标记……你学习这些向量函数,将输入序列的元素作为输入,并输出其后续元素……它们实际上是向量函数。
4. “万花筒假说”:世界由少量意义原子的重复和组合构成
Chollet提出了“万花筒假说”,认为世界看似无限复杂,实则由少量意义原子(抽象)的重复和组合构成。智能的关键在于从经验中提取这些抽象,并将其组合起来理解新情况。这包含了抽象生成和合成两个关键过程。
★世界总体上,以及任何特定领域,都遵循相同的结构,表面上看起来极其丰富、复杂,并且每时每刻都充满新意。但实际上,它是由少量意义原子的重复和组合构成的……智能是一种认知机制,你用它来适应新事物,理解你从未见过的情况。它通过结合现有的构建块(抽象构建块)即时创建新情况的模型来工作……这里有两个关键技巧。一个技巧是合成技巧……还有一个是抽象生成,这是一个逆向过程……所以是合成和抽象生成。
5. 深度学习的局限与程序合成:深度学习擅长系统一思维,难以处理系统二思维
Chollet指出深度学习擅长处理系统一思维(直觉、下意识反应),但难以处理系统二思维(逻辑推理、有意识思考)。实现系统二思维需要程序合成,而深度学习模型(曲线)不适合表示离散的程序化计算。
★我认为一个重要的催化事件是与 Christian Segedy 合作使用深度学习进行自动定理证明……关键思想是使用深度学习模型来指导搜索过程……我的确比随机方法好得多,但是如果你分析它的性能以及它是如何产生比随机方法更好的性能的,它只是在进行浅层模式识别。它并没有真正进行任何形式的系统性推理……这似乎是一个巨大的障碍,我无法通过调整架构、训练数据或其他任何东西来克服……你无法通过深度学习学习可泛化的离散程序。
6. 儿童发展与智能:分层式学习方式为AI系统设计提供启示
Chollet观察到儿童的学习是建构主义的,通过主动尝试、提取技能、设定目标、循环反馈来学习。这种分层式学习方式,从基础的感官运动能力逐渐构建出更高级的认知能力,为AI系统的设计提供了启示。
★观察孩子长大的一件事是,建构主义完全正确。他们以一种非常积极的方式学习事物,他们尝试事物,并从这些经验中,这些非常刻意的经验中,提取新的技能,然后他们将这些技能重新投入到新的目标中……他们设定目标的方式总是基于他们已经知道的事情……你一开始不知道多少,比如你出生时,你只是由一些反射行为驱动的。但是当你开始形成这些目标时,它们总是来自你已经掌握的层面,你正在一层一层地构建你自己的思想。
7. ARC数据集的局限与未来改进:动态生成基准更有效评估AI泛化能力
Chollet承认ARC数据集存在局限性,例如任务多样性不足、可能存在与线上数据重叠的问题。他建议未来将ARC打造为一个动态生成基准,更有效地评估AI的泛化能力和数据效率。
★我认为第一个局限性在于,它可能在多样性和新颖性方面达不到其目标……它们也可能与网上现有的东西非常接近……所以我认为这是主要缺陷……我认为,最终要衡量智力,你需要的不只是一个静态的数据集,你需要一个任务生成过程……
8. 对超智能和奇点论的批判:好故事而非理性科学分析
Chollet对超智能论和奇点论持批判态度,认为这些观点是具有传播性的好故事,背后存在着对“救世主情结”和“永生”的渴望,而非基于理性的科学分析。他认为AGI只是一个强大的工具,其危险性并非源于其智能本身,而是源于其目标设定和行动空间的设计。
★我认为它们是好故事,比如关于世界末日的故事……这些都是好故事,这就是为什么你在小说中,比如科幻小说中经常看到它们的原因……它们并不新鲜。它们已经存在了数千年……我认为这是主要的驱动力……它们作为模因很好。它们是好故事。人们想要相信它们。而且它们也很容易保留和传播。
名词解释:
系统一思维/系统二思维: 这是认知心理学中的一个概念,将思维过程分为两种系统:系统一(直觉系统)快速、自动、无意识;系统二(理性系统)慢速、费力、有意识。
程序合成: 程序合成是指自动生成计算机程序以满足特定规范或解决特定问题的技术。
ARC数据集 (Abstract Reasoning Corpus): 一个用于评估人工智能系统抽象推理能力的数据集,其特点是任务新颖,不易被模型的记忆能力“作弊”。
缩放定律 (Scaling Laws): 描述深度学习模型性能与训练数据量和计算量之间关系的规律。
具身性 (Embodiment): 指的是智能体与其物理环境之间的相互作用,以及这种相互作用如何影响智能体的认知和行为。
奇点论 (Singularity): 一个未来主义概念,预言人工智能将超越人类智能,从而导致社会发生根本性变革。
超智能 (Superintelligence): 指的是远超人类智能水平的人工智能。
建构主义: 一种强调学习者主动建构知识的学习理论。
👇关注公众号后设🌟标,不错过第一手AI新鲜观点和动态