诺尔贝物理学奖,为何授予Hinton?

科技   2024-10-09 13:03   上海  



刚刚!人工智能教父Geoffrey Hinton成为首个图灵奖+诺贝尔物理学奖得主

人类历史首次,图灵奖获得者计算机科学家AI教父Geoffrey Hinton获得诺贝尔物理学奖,这是首次有人同时获得计算机科学最高奖-图灵奖和诺贝尔物理学奖,网友都在喊是不是发错了?别急我们第一时间带来详细解读:

2024年诺贝尔物理学奖新闻发布会

2024年10月8日

瑞典皇家科学院决定将2024年诺贝尔物理学奖授予:

约翰·J·霍普菲尔德John J. Hopfield

普林斯顿大学,美国新泽西州

杰弗里·E·辛顿Geoffrey Hinton

多伦多大学,加拿大

“表彰他们为人工神经网络机器学习的奠基性发现和发明”

他们利用物理学训练人工神经网络

今年的两位诺贝尔物理学奖得主使用物理学工具开发了如今强大的机器学习基础方法。约翰·霍普菲尔德创造了一种关联记忆,可以存储和重构图像及其他类型的数据模式。杰弗里·辛顿发明了一种可以自主识别数据特性的算法,从而执行如识别图像中特定元素的任务

当我们谈论人工智能时,通常指的是使用人工神经网络的机器学习。这项技术最初受大脑结构启发。在人工神经网络中,大脑的神经元由具有不同值的节点表示。这些节点通过类似于突触的连接相互作用,连接可以被增强或削弱。网络通过训练,逐渐增强高值节点之间的连接。今年的获奖者自20世纪80年代以来在人工神经网络领域做出了重要贡献

约翰·霍普菲尔德 发明了一种可以存储和重现模式的网络。可以将这些节点比作像素。_霍普菲尔德网络_使用物理学中的理论来描述材料的特性,特别是原子自旋的能量——这使得每个原子都像一个微小的磁铁。整个网络的能量类似于物理学中的自旋系统。通过调整节点之间的连接值,保存的图像能量降低。当网络输入失真或不完整的图像时,它通过逐步更新节点值,降低网络的能量,最终找到与输入图像最接近的保存图像

杰弗里·辛顿 基于霍普菲尔德网络开发了一种新的网络,即_玻尔兹曼机_。它可以学习识别特定类型数据中的特征元素。辛顿利用统计物理学工具,训练机器识别在运行时最可能出现的模式。玻尔兹曼机可以用于图像分类或生成与训练数据类似的新样本。辛顿的工作推动了当前机器学习领域的快速发展。

“获奖者的工作已带来了巨大益处。在物理学中,人工神经网络被广泛用于开发具有特定性质的新材料等领域,”诺贝尔物理学委员会主席Ellen Moons表示

诺奖委员会给Geoffrey Hinton打电话通知时

Geoffrey Hinton:

'我现在住在加利福尼亚的一家廉价旅馆里,那里的网络和电话都不好。我本来打算今天做核磁共振扫描,但我不得不取消了!'

玻尔兹曼机:

玻尔兹曼机(Boltzmann Machine)是一种基于概率模型的人工神经网络,由Geoffrey Hinton等人于1985年提出。它的设计灵感来自统计物理学中的玻尔兹曼分布,主要用于解决复杂的数据处理和模式识别问题

玻尔兹曼机的核心思想是通过模拟神经元之间的随机激活来寻找数据中的特征或模式。它是一种“能量模型”,通过最小化一个称为“能量函数”的指标来进行学习。具体来说,玻尔兹曼机会在其节点之间建立连接,每个节点都可以有一个二进制状态(0或1),网络通过调整节点之间的连接权重来减少整个系统的能量,从而更好地匹配输入数据的特性。

它的工作过程包括两部分:

  1. 1. 正向传播:根据输入数据,激活网络的节点,计算输出

  2. 2. 反向传播(或对比散度):通过调整节点的连接权重,使得系统产生的输出尽可能接近输入的真实数据。

玻尔兹曼机最重要的一个变体是受限玻尔兹曼机(Restricted Boltzmann Machine, RBM),它去掉了节点之间的部分连接,简化了计算,广泛用于深度学习模型中的特征提取和降维。

玻尔兹曼机虽然理论上很强大,但由于计算复杂度高,尤其是训练过程需要大量计算资源,所以它在实际应用中并不常见。然而,它的概念为后续的深度学习模型奠定了基础

奖没有发错:获奖原因详细解读

今年的获奖者使用物理学工具构建方法,为当今强大的机器学习奠定了基础。John Hopfield 创建了一种可以存储和重建信息的结构。Geoffrey Hinton 发明了一种可以独立发现数据属性的方法,该方法对现在使用的大型人工神经网络变得非常重要

他们利用物理学寻找信息中的模式

© Johan Jarnestad/瑞典皇家科学院

许多人已经体验过计算机如何在语言之间进行翻译、解释图像甚至进行合理的对话。或许鲜为人知的是,这类技术长期以来对研究都非常重要,包括对海量数据的排序和分析。机器学习的发展在过去 15 到 20 年间呈爆炸式增长,并利用了一种称为人工神经网络的结构。如今,当我们谈论人工智能时,通常指的就是这种技术

虽然计算机不能思考,但机器现在可以模仿记忆和学习等功能。今年的物理学奖获得者帮助实现了这一点。他们利用物理学的基本概念和方法,开发了使用网络结构来处理信息的技术

机器学习不同于传统的软件,传统的软件就像一种食谱。软件接收数据,根据明确的描述进行处理并生成结果,就像有人收集食材并按照食谱进行处理,制作蛋糕一样。与此相反,在机器学习中,计算机通过示例学习,使其能够处理过于模糊和复杂的问题,这些问题无法通过分步说明来管理。一个例子是解释图片以识别其中的物体

模仿大脑

人工神经网络使用整个网络结构来处理信息。最初的灵感来自理解大脑如何工作的愿望。在 20 世纪 40 年代,研究人员开始推理构成大脑神经元和突触网络的数学原理。另一个谜团来自心理学,这要感谢神经科学家 Donald Hebb 关于学习是如何发生的假设,因为神经元之间的连接在它们一起工作时会得到加强

后来,这些想法之后是尝试通过构建人工神经网络作为计算机模拟来重建大脑的网络功能。在这些网络中,大脑的神经元被赋予不同值的节点所模仿,而突触则由节点之间的连接表示,这些连接可以加强或减弱。Donald Hebb 的假设仍然被用作通过称为训练的过程更新人工网络的基本规则之一

自然和人工神经元

© Johan Jarnestad/瑞典皇家科学院

在 20 世纪 60 年代末,一些令人沮丧的理论结果导致许多研究人员怀疑这些神经网络永远不会有任何实际用途。然而,人们对人工神经网络的兴趣在 20 世纪 80 年代重新燃起,当时几个重要的想法产生了影响,包括今年获奖者的工作。

联想记忆

想象一下,你正试图记住一个你很少使用的相当不寻常的单词,例如电影院和演讲厅中常见的倾斜地板的单词。你在脑海中搜索。它类似于坡道......也许是 rad...ial?不,不是那个。是 Rake!

这个通过相似单词搜索找到正确单词的过程让人想起物理学家 John Hopfield 在 1982 年发现的联想记忆。Hopfield 网络可以存储模式,并且有一种重建它们的方法。当网络被赋予一个不完整或略有扭曲的模式时,该方法可以找到最相似的存储模式

Hopfield 之前曾利用他的物理学背景来探索分子生物学中的理论问题。当他被邀请参加一个关于神经科学的会议时,他遇到了关于大脑结构的研究。他对学到的东西着迷,并开始思考简单神经网络的动力学。当神经元一起作用时,它们可以产生新的、强大的特征,而这些特征对于只关注网络各个组成部分的人来说是不明显的

1980 年,Hopfield 离开了普林斯顿大学的职位,在那里他的研究兴趣使他超出了他的物理学同事工作的领域,并搬到了整个大陆的另一边。他接受了在南加州帕萨迪纳的加州理工学院(加州理工学院)的化学和生物学教授职位。在那里,他可以使用计算机资源进行免费实验,并发展他对神经网络的想法

然而,他并没有放弃他的物理学基础,他在那里找到了理解具有许多协同工作的小组件的系统如何产生新的、有趣的现象的灵感。他特别受益于学习了磁性材料,这些材料由于其原子自旋而具有特殊的特性——这种特性使每个原子都成为一个小磁铁。相邻原子的自旋相互影响;这可以允许形成自旋方向相同的畴。他能够通过使用描述材料如何在自旋相互影响时发展的物理学来创建具有节点和连接的模型网络

网络将图像保存在景观中

Hopfield 构建的网络具有通过不同强度的连接连接在一起的节点。每个节点都可以存储一个单独的值——在 Hopfield 的第一项工作中,这可以是 0 或 1,就像黑白图片中的像素一样

Hopfield 用一个等效于物理学中自旋系统能量的属性来描述网络的整体状态;能量是使用一个公式计算的,该公式使用节点的所有值和它们之间连接的所有强度。Hopfield 网络通过将图像馈送到节点进行编程,节点被赋予黑色(0)或白色(1)的值。然后使用能量公式调整网络的连接,以便保存的图像获得低能量。当另一个模式被馈送到网络时,有一个规则,用于逐个遍历节点,并检查如果该节点的值发生更改,网络是否具有更低的能量。如果结果是黑色像素变为白色,则能量会降低,它会改变颜色。此过程一直持续到不可能找到任何进一步的改进为止。当达到这一点时,网络通常已经再现了训练它的原始图像

如果你只保存一个模式,这可能看起来并不那么引人注目。也许你想知道为什么不直接保存图像本身,然后将其与正在测试的另一个图像进行比较,但 Hopfield 的方法很特殊,因为可以在同一时间保存多张图片,并且网络通常可以区分它们

Hopfield 将在网络中搜索保存状态比作在一个充满峰谷的景观中滚动一个球,摩擦力会减慢它的运动。如果球落在某个特定位置,它会滚入最近的山谷并在那里停止。如果网络被赋予一个与保存模式之一相近的模式,它将以同样的方式继续前进,直到它最终落在能量景观中一个山谷的底部,从而找到其记忆中最接近的模式

Hopfield 网络可用于重建包含噪声或部分擦除的数据

© Johan Jarnestad/瑞典皇家科学院

Hopfield 和其他人继续开发 Hopfield 网络工作原理的细节,包括可以存储任何值的节点,而不仅仅是零或一。如果你把节点想象成图片中的像素,它们可以有不同的颜色,而不仅仅是黑色或白色。改进的方法使保存更多图片以及区分它们成为可能,即使它们非常相似。识别或重建任何信息也是可能的,只要它是从许多数据点构建的

使用 19 世纪物理学进行分类

记住图像是一回事,但解释它所描绘的内容需要更多

即使是很小的孩子也可以指着不同的动物,并自信地说出它是狗、猫还是松鼠。他们有时可能会弄错,但很快他们几乎每次都是正确的。即使没有看到任何图表或对物种或哺乳动物等概念的解释,孩子也能学会这一点。在遇到几种类型的动物的几个例子后,不同的类别会在孩子的大脑中各就各位。人们通过体验周围的环境来学习识别猫、理解单词或进入房间并注意到某些东西已经改变

当 Hopfield 发表关于联想记忆的文章时,Geoffrey Hinton 正在美国匹兹堡的卡内基梅隆大学工作。他之前在英格兰和苏格兰学习过实验心理学和人工智能,并且想知道机器是否可以学会以类似于人类的方式处理模式,找到自己的类别来分类和解释信息。Hinton 与他的同事 Terrence Sejnowski 一起,从 Hopfield 网络开始,并使用统计物理学的思想对其进行了扩展,以构建新的东西

统计物理学描述了由许多相似元素组成的系统,例如气体中的分子。跟踪气体中所有单独的分子很困难或不可能,但可以将它们作为一个整体来考虑,以确定气体的总体特性,如压力或温度。气体分子以不同的速度在其体积中扩散,但仍然会产生相同的集体特性,有很多种可能的方式

可以使用统计物理学来分析各个组件可以共同存在的状态,并计算它们发生的概率。某些状态比其他状态更有可能;这取决于可用能量的数量,这是由 19 世纪物理学家路德维希·玻尔兹曼在一个方程中描述的。Hinton 的网络利用了这个方程式,该方法于 1985 年以引人注目的名字玻尔兹曼机发表

识别同一类型的新示例

玻尔兹曼机通常与两种不同类型的节点一起使用。信息被馈送到一组节点,称为可见节点。其他节点形成一个隐藏层。隐藏节点的值和连接也对网络整体的能量有贡献

该机器的运行方式是应用一个规则,一次更新一个节点的值。最终,机器将进入一个状态,其中节点的模式可以更改,但网络整体的属性保持不变。然后,每个可能的模式将有一个特定的概率,该概率由网络的能量根据玻尔兹曼方程确定。当机器停止时,它已经创建了一个新的模式,这使得玻尔兹曼机成为生成模型的早期示例。

© Johan Jarnestad/瑞典皇家科学院

玻尔兹曼机可以学习——不是通过指令,而是通过被给出的示例。它通过更新网络连接中的值来进行训练,以便在训练时馈送到可见节点的示例模式在机器运行时具有最高的发生概率。如果在训练过程中重复相同的模式多次,则该模式的概率甚至更高。训练还会影响输出与机器训练示例相似的新的模式的概率

经过训练的玻尔兹曼机可以识别它以前从未见过信息中的熟悉特征。想象一下遇到一个朋友的兄弟姐妹,你马上就能看出他们一定是相关的。同样,玻尔兹曼机如果属于训练材料中的类别,就可以识别一个全新的示例,并将其与不同的材料区分开来

在其原始形式中,玻尔兹曼机效率相当低,并且需要很长时间才能找到解决方案。当它以各种方式发展时,事情变得更加有趣,Hinton 继续探索这些方式。后来的版本已经变薄了,因为一些单元之间的连接已经被移除。事实证明,这可能会使机器更有效率

在 20 世纪 90 年代,许多研究人员对人工神经网络失去了兴趣,但 Hinton 是继续在该领域工作的人之一。他还帮助开启了激动人心的新成果的爆炸式增长;2006 年,他和他的同事 Simon Osindero、Yee Whye Teh 和 Ruslan Salakhutdinov 开发了一种用一系列分层的玻尔兹曼机预训练网络的方法,一层叠一层。这种预训练为网络中的连接提供了一个更好的起点,从而优化了其训练以识别图片中的元素

玻尔兹曼机通常用作较大网络的一部分。例如,它可以用来根据观众的喜好推荐电影或电视剧

机器学习——今天和明天

由于他们在 1980 年代及以后的工作,John Hopfield 和 Geoffrey Hinton 帮助奠定了大约在 2010 年开始的机器学习革命的基础

我们现在所见证的发展之所以成为可能,是因为可以访问大量的可用数据来训练网络,以及计算能力的巨大增长。今天的人工神经网络通常非常庞大,由许多层构成。这些被称为深度神经网络,它们的训练方式被称为深度学习

快速浏览一下 Hopfield 1982 年关于联想记忆的文章,可以从一些角度看待这一发展。在其中,他使用了包含 30 个节点的网络。如果所有节点都相互连接,则有 435 个连接。节点有它们的值,连接有不同的强度,总共不到 500 个参数需要跟踪。他还尝试了包含 100 个节点的网络,但考虑到他当时使用的计算机,这太复杂了。我们可以将其与今天的大型语言模型进行比较,这些模型构建为网络,可以包含超过一万亿个参数(一百万个百万)

许多研究人员现在正在开发机器学习的应用领域。哪些是最可行的还有待观察,同时,围绕这项技术的发展和使用的伦理问题也有广泛的讨论

由于物理学为机器学习的发展贡献了工具,因此有趣的是看到物理学作为一门研究领域也如何受益于人工神经网络。机器学习长期以来一直用于我们可能从以前的诺贝尔物理学奖中熟悉的领域。这些包括使用机器学习来筛选和处理发现希格斯玻色子所需的大量数据。其他应用包括减少黑洞碰撞产生的引力波测量中的噪声,或寻找系外行星

近年来,这项技术也开始用于计算和预测分子和材料的特性——例如计算蛋白质分子的结构,这决定了它们的功能,或者找出哪种新版本的材料可能具有最适合用于更高效太阳能电池的特性

基于以上原因

瑞典皇家科学院决定将 2024 年诺贝尔物理学奖授予:

JOHN J. HOPFIELD

1933 年出生于美国伊利诺伊州芝加哥。1958 年获得美国纽约州伊萨卡康奈尔大学博士学位。美国新泽西州普林斯顿大学教授。

GEOFFREY E. HINTON

1947 年出生于英国伦敦。1978 年获得英国爱丁堡大学博士学位。加拿大多伦多大学教授。

Geoffrey Hinton从不被理解到获得图灵奖和诺贝尔物理学奖

辛顿实至名归,值得这个奖,几十年来不被导师和领导看好,甚至拿不到经费还坚持走别人认为的“野路子”,太难得了:

Geoffrey Hinton 是神经网络领域的先驱,被誉为“深度学习之父”。他对神经网络的研究在今天推动了人工智能的重大进展,但在他开始研究神经网络的早期,他确实遇到了很多怀疑和阻力。这里有一些有趣的背景故事和趣闻:

与主流科学界的对立: 在20世纪80年代,主流的人工智能研究主要集中在符号主义(symbolism),即通过明确的规则和逻辑来实现智能行为。当时,神经网络这种基于生物学的方式被许多专家认为是“野路子”,Hinton 的研究方向因此在学术界并不受欢迎。即便如此,他坚持自己的信念,认为模仿大脑的工作机制可以带来突破。

导师和同事的怀疑: Hinton 早期的导师和同事并不看好他的研究方向,甚至认为神经网络的想法是个错误。Hinton 的领导、当时的著名计算机科学家们对神经网络的前景持怀疑态度,认为这种方法太过简单,不能有效地解决复杂的计算问题。这也让他很难获得研究经费和支持。

坚持信念与自费研究: 面对资金短缺和主流科学界的冷遇,Hinton 甚至自费继续进行神经网络的研究。在1980年代中期,他与David Rumelhart和Ronald J. Williams共同提出了反向传播算法(backpropagation),这成为神经网络训练的重要突破。然而,即便这个算法获得了极大的关注,神经网络依然没有迅速流行起来。Hinton 几乎是靠自己的信念和少数同事的支持在维持这条“冷门”道路。

图灵奖得主的“反叛”: Hinton 的家庭背景也非常有趣,他的曾祖父是逻辑学家 George Boole(布尔代数的发明者),Hinton 出身于一个非常有学术氛围的家庭。但正因为如此,Hinton 也有一种反叛精神。他曾开玩笑说,他选择研究神经网络正是为了与自己所在的传统符号主义流派“对着干”。

Google 争相抢人的故事: 到2012年,Hinton 和他的团队通过一种叫做“深度卷积神经网络”的技术,在ImageNet比赛中取得了令人瞩目的成绩,彻底改变了图像识别的领域。这一突破使得Google、Facebook和其他科技巨头争相挖他。最终,Google 以其巨大的资源支持赢得了这场人才争夺战,Hinton 加入了Google,继续推动深度学习的发展

Hinton 的故事展示了一个科学家坚持信念、逆流而上的过程。在主流不看好的情况下,他坚守了自己的研究,最终成就了如今的深度学习和人工智能革命。

各路人马对Geoffrey Hinton获得诺奖反映

马斯克xAI联合创始人Greg Yang:

我一直觉得传统物理学家有点瞧不上人工智能科学,但这次真让我大感意外!恭喜 @HopfieldJohn 和 @geoffreyhinton!

欧洲核子中心:

CERN(欧洲核子物理研究中心)祝贺2024年#诺贝尔奖#物理学奖得主。🙌高能物理学与#机器学习的渊源可以追溯到1990年代,当时最早的神经网络开始应用。几十年来,机器学习算法已广泛用于#CERN的#粒子物理研究

人工智能教母李飞飞:

这太令人兴奋了!#人工智能的深远影响才刚刚开始。祝贺 @geoffreyhinton 和 John Hopfield!

洛桑联邦理工学院教授Lenka Zdeborova:

我愿意把这看作是物理学向人工智能和机器学习发出的邀请:“让我们一起探索世界的运作方式。” 这与计算机科学家不同,他们往往关注最坏情况和对抗性问题。也不同于数学家,他们总是追求无处不在的定理

英伟达高级研究科学家jim fan:

从现在起,我将把机器人技术重新定义为深度物理计算 祝贺图灵奖和诺贝尔奖的第二位得主!我刚刚查了一下,第一位获奖者是赫伯特-西蒙(Herbert A. Simon),他获得的是经济学奖

技术交流群邀请函

我们建立了一个CV/NLP/搜索推荐/大模型技术交流群!专门分享最新资讯、行业趋势和有趣想法。

如果你想抓住这次AI变革的红利,欢迎扫码进群,群里聚集了很多学术界和工业界大佬,日常还可以唠嗑~

你好,我是对白,硕士毕业于清华,大厂算法工程师,拿过8家大厂算法岗SSP offer

创业做过无人机、机器人和互联网+教育,保研清华后开始系统接触AI。

我每周至少更新一篇原创,分享AI算法、技术干货和职场感悟。方关注可加我私信交流点击蓝字查看我的算法学习之路

期待你关注我的公众号,一起交流与进步。

您的“点赞/在看/分享”是我坚持最大动力

坚持不易,卖萌打滚求鼓励 (ฅ>ω<*ฅ)

分享

收藏

点赞

在看


对白的算法屋
清华大学硕士,大厂算法工程师。写过书,创过业,做过产品,分享技术、快乐、财富与职场。
 最新文章