诺贝尔物理学奖是给了AI吗?

学术   2024-10-11 08:01   中国台湾  

    2024 年诺贝尔物理学奖已授予人工智能先驱约翰·霍普菲尔德 (John Hopfield) 和杰弗里·辛顿 (Geoffrey Hinton)。位于瑞典斯德哥尔摩的瑞典皇家科学院(Royal Swedish Academy of Sciences)挑选了周二宣布的获奖者,该院表示,他们之所以被选中,是因为他们“通过人工神经网络实现机器学习的基础发现和发明”。
    该学院表示,这两人使用物理学领域的工具开发了方法,为强大的机器学习奠定了基础,这对人工智能的发展至关重要。
    他们说,Hopfield 创造了一种联想记忆,能够存储和重建数据中的图像和模式。该学院补充说,Hinton 因发明了一种在数据中自主查找属性的方法而受到表彰。
    加拿大多伦多大学(University of Toronto)的英裔加拿大教授欣顿(Hinton)在被宣布为今年的获奖者后说:“我大吃一惊。我不知道会发生这种事。
    他还对人工智能持谨慎态度,在领奖时告诉学院,他担心“这样做的总体后果可能是比我们更聪明的系统最终可能会控制(that the overall consequences of this might be systems that are more intelligent than us that might eventually take control)”。
获奖者的官网介绍
为什么是他们?——他们使用物理学训练人工神经网络

    今年的两位诺贝尔物理学奖得主使用物理学工具开发了各种方法,这些方法为当今强大的机器学习奠定了基础。John Hopfield 创建了一个联想内存,它可以存储和重建数据中的图像和其他类型的模式。Geoffrey Hinton 发明了一种方法,可以自主查找数据中的属性,从而执行诸如识别图片中的特定元素等任务。

    当我们谈论人工智能时,我们通常指的是使用人工神经网络的机器学习。这项技术最初是受到大脑结构的启发。在人工神经网络中,大脑的神经元由具有不同值的节点表示。这些节点通过可以比作突触的连接相互影响,并且可以变得更强或更弱。网络经过训练,例如通过在同时具有高值的节点之间建立更强的连接。今年的获奖者从 1980 年代开始就人工神经网络进行了重要的工作。

    John Hopfield 发明了一个网络,它使用一种方法来保存和重新创建模式。我们可以将节点想象成像素。Hopfield 网络利用物理学来描述材料的原子自旋特性——这种特性使每个原子都成为微小的磁铁。整个网络的描述方式相当于物理学中自旋系统中的能量,并通过查找节点之间的连接值进行训练,以便保存的图像具有低能量。当 Hopfield 网络收到失真或不完整的图像时,它会有条不紊地通过节点并更新它们的值,以便网络的能量下降。因此,网络逐步工作以找到与它所馈送的不完美图像最相似的已保存图像。

    Geoffrey Hinton 使用 Hopfield 网络作为使用不同方法的新网络的基础:玻尔兹曼机(the Boltzmann machine)。这可以学习识别给定数据类型中的特征元素。Hinton 使用了统计物理学中的工具,统计物理学是由许多类似组件构建的系统科学。通过向机器提供机器运行时极有可能出现的示例来训练机器。玻尔兹曼机可用于对图像进行分类或创建训练它的模式类型的新示例。Hinton 以这项工作为基础,帮助启动了当前机器学习的爆炸性发展。

    “获奖者的工作已经带来了最大的好处。在物理学中,我们在广泛的领域使用人工神经网络,例如开发具有特定特性的新材料,“诺贝尔物理委员会主席 Ellen Moons 说。

* 仔细研读上面诺贝尔官方给出的说明,可以发现似乎并不像表明所看到的AI跨界获得了诺贝尔物理学奖,而是借助统计物理学这一物理学的子领域的研究创建了机器学习的基础,所以是为他们使用物理学工具而取得的成绩进行了表彰,这也确实是一种新的诺贝尔评选思路。

物理学的一个子领域如何导致 AI 的突破,并由此获得今年的诺贝尔奖

    神经网络是由互连神经元层组成的计算模型。就像大脑中的神经元一样,这些神经元会处理并发送一条信息。每个神经层接收一段数据,对其进行处理并将结果传递给下一层。在序列结束时,网络已经处理并将数据提炼为更有用的数据。

    虽然 Hopfield 和 Hinton 因对计算机科学中使用的神经网络的贡献而获得物理学奖似乎令人惊讶但他们的工作深深植根于物理学原理,特别是称为统计力学的子领域。


什么是统计力学?

    统计力学是物理学的一个分支,它使用统计方法来解释由大量粒子组成的系统的行为。

    研究人员使用统计力学研究许多粒子的集体行为,而不是关注单个粒子。了解它们如何共同作用有助于研究人员了解系统的大规模宏观特性,如温度、压力和磁化强度。

    例如,物理学家恩斯特·伊辛 (Ernst Ising) 在 1920 年代开发了一个磁学统计力学模型。Ising 将磁力想象为原子自旋与相邻原子自旋相互作用的集体行为。

    在 Ising 的模型中,系统有更高和更低的能量状态,材料更有可能以最低能量状态存在。

    统计力学中的一个关键思想是玻尔兹曼分布(Boltzmann distribution),它量化了给定状态的可能性。此分布根据其能量和温度描述了系统处于特定状态(如固体、液体或气体)的概率。

    Ising 使用玻尔兹曼分布精确预测了磁体的相变。他计算出材料从磁性变为非磁性的温度。

    相变发生在可预测的温度下。冰在特定温度下融化成水,因为玻尔兹曼分布预测,当它变暖时,水分子更有可能呈现无序或液态。

    在材料中,原子将自身排列成使用最低能量的特定晶体结构。当天气寒冷时,水分子会冻结成低能量状态的冰晶。

    同样,在生物学中,蛋白质折叠成低能量形状,这使它们能够像针对病毒的特异性抗体(如锁和钥匙)发挥作用。

神经网络和统计力学

    从根本上说,所有神经网络都基于类似的原理工作,即最小化能量。神经网络使用这一原理来解决计算问题。

    例如,想象一个由像素组成的图像,您只能看到图片的一部分。一些像素是可见的,而其余的像素是隐藏的。要确定图像是什么,您需要考虑隐藏像素与可见块组合在一起的所有可能方式。从那里,您可以从统计力学所说的所有可能选项中最有可能的状态中进行选择。

    Hopfield 和 Hinton 基于统计力学的思想开发了一种神经网络理论。就像之前的 Ising 一样,他们用神经网络模拟了原子自旋的集体交互来解决照片问题,Hopfield 和 Hinton 设想了像素的集体交互。他们将这些像素表示为神经元。

    就像在统计物理学中一样,图像的能量是指像素的特定配置的可能性。Hopfield 网络将通过找到隐藏像素的最低能量排列来解决这个问题。

然而,与统计力学不同,在统计力学中,能量由已知的原子相互作用决定,神经网络从数据中学习这些能量。

    Hinton 推广了一种称为反向传播的技术的发展。这种技术有助于模型弄清楚这些神经元之间的交互能量,而这种算法是现代 AI 学习的大部分基础。

玻尔兹曼机 The Boltzmann machine

    在 Hopfield 的工作基础上,Hinton 设想了另一个神经网络,称为玻尔兹曼机。它由我们可以观察的可见神经元和隐藏的神经元组成,这些神经元帮助网络学习复杂的模式。

    在玻尔兹曼机中,您可以确定图片以某种方式看起来的概率。要计算出这个概率,您可以汇总隐藏像素可能处于的所有可能状态。这为您提供了可见像素处于特定排列状态的总概率。

    在生成式学习中,网络学习生成新的数据样本,这些样本类似于研究人员提供给网络以训练它的数据。例如,在对相似图像进行训练后,它可能会生成手写数字的新图像。网络可以通过从学习的概率分布中采样来生成这些。

    Hopfield 和 Hinton 通过利用统计物理学工具对 AI 研究产生了重大影响。他们的工作将自然界如何决定材料的物理状态与神经网络如何预测复杂计算机科学问题的解决方案的可能性相提并论。

    或许这就是他们(不是计算机科学可以拿到诺贝尔物理学奖的原因。


参考:

[1] NobelPrize : https://www.nobelprize.org/prizes/physics/

[2] Nobel Prize in physics awarded to AI pioneers : https://www.chinadaily.com.cn/a/202410/09/WS67050283a310f1265a1c67dc.html
[3] How a subfield of physics led to breakthroughs in AI, and from there to this year's Nobel Prize : 
https://techxplore.com/news/2024-10-subfield-physics-breakthroughs-ai-year.html

控制工程研习
好好学习,天天向上
 最新文章