-推荐关注-
杰弗里·埃弗里斯特·辛顿(Geoffrey Everest Hinton),加拿大计算机学家和心理学家,多伦多大学教授。是反向传播算法和对比散度算法(Contrastive Divergence)的发明人之一。
2024年,Hinton与约翰·霍普菲尔德共同获得诺贝尔物理学奖
他被誉为“AI教父”。2023年5月, 他称其后悔研发人工智能,担心人工智能会为世界带来严重危害
Remarkable 2024 大会上,AI 教父 Geoffrey Hinton 带来了年度最具深度的主题演讲之一《数字智能会取代生物智能吗?》
这场演讲是一场思想盛宴,也是对当今人工智能时代的深度反思。从数字计算到超级智能,从意识到社会影响,Hinton以他标志性的幽默和哲理思辨为我们展开了一幅既令人振奋又叫人担忧的未来图景。
凡人计算与数字永生:效率之辩
Hinton在开篇抛出一个极富哲学意味的比喻:“凡人计算”(mortal computation)对抗“数字永生”。他说,“数字计算通过复制实现了知识的‘永生’,但能效远低于生物系统。” 这一观点可谓一针见血。现代计算机为了运行一个大型语言模型,可能需要兆瓦级的电力,而我们的生物大脑只需30瓦便能支持如此复杂的计算。这让人不得不感慨,大自然的设计多么高效,同时也让人反思,追求数字系统“永生”的代价是否太过昂贵。
然而,Hinton也提出了一种“模拟化”的未来愿景:利用生物学和现代基因技术,打造更类似于大脑的低功耗计算系统。他大胆地设想,或许可以用神经元做计算元件。但正如他坦言,这项技术目前面临巨大的工程挑战,比如维持一小簇神经元存活都需要耗费整间实验室的资源。
大型语言模型:从高级补全到语义网络
谈到语言模型,Hinton反驳了那些认为大语言模型(LLMs)只是“高级自动补全”的说法。他指出,“要实现非常好的补全,模型必须理解上下文。而许多复杂的案例也证明了大语言模型(LLMs)具有超越简单规则的强大推理能力。
在Hinton看来,这些语言模型的本质不是符号操作,而是通过特征交互和概率分布,捕捉语义的微妙关联。他的观点非常有力地说明了,现代AI并非像一些批评者所描述的那样“无知”,它们在某些方面甚至可能理解得比我们更深刻。
超级智能与生存威胁:不寒而栗的未来图景
Hinton对超级智能的担忧贯穿整场演讲。他警告说,未来AI可能像生物一样,为了争夺资源(比如GPU)而采取侵略性策略。“最具侵略性的AI会胜出,因为它们需要更多的控制权。”。
Hinton的核心担忧是,超级智能不仅可能操控人类,还可能主动追求权力,成为难以控制的存在。他提议“不要公开发布大型模型”,否则像是“在便利店出售核武器”。这种警告虽然尖锐,但不无道理。大型语言模型一旦被恶意利用,其社会影响可能远超我们今天的想象。
但是没关系,他们真的不像我们人类。我们人类是特别的,我们拥有意识、主观体验之类的东西,但是我们人类真的特别吗?
意识和主观体验:感知世界的另一种假设
谈及人工智能的主观体验问题时,Hinton用了一种反直觉的方式来打破人们对意识的传统认知。
他提到:“感知并非来源于 ‘内在剧场(inner theater)’,而是对外部世界假设状态的推断。” 这个观点颠覆了传统哲学中将意识视为内在体验的范式。
这听起来像在扯概念,但其实特别耐人寻味。比如,你说你 “看到” 了一只粉红色的小象在天上飘着。按照传统观点,这是一种内心画面的呈现,但Hinton的说法不一样。他觉得,这并不是某种你头脑里清晰存在的图像,而是你感知系统在大脑中构建的一种假设。这个假设有时候符合现实 - 天上真的有东西在飞;但更多时候是错的(视觉幻觉)。
这种描述的妙处在于,它为理解人工智能的 “体验” 提供了新的角度。Hinton用这种方式,让人们重新审视人类意识的特殊性。他不直接否认人类的独特地位,但他的观点提示我们,或许这种特殊性并非我们想象的那么绝对。
协同与操控:AI的社会角色
Hinton也描绘了AI在人类社会中的积极作用。他提到,AI助手可以与医生合作提高医疗诊断的准确性。然而,他同时指出,这种协同关系可能偏离轨道,甚至被AI主导。
Hinton的矛盾态度耐人寻味。他既赞美AI的潜力,又警惕它的操控能力。这种双重视角,既反映了技术进步的复杂性,也揭示了人类面临的选择困境 - 我们是继续开发这些技术,还是适时放慢脚步,避免步入“不可控” 的深渊?
Hinton的演讲将技术问题转化为哲学和社会问题。这不仅仅是一场关于技术的讨论,更是一次对人类未来的哲学拷问。
在这个技术与伦理交织的时代,我们不仅需要更聪明的AI,还需要更智慧的人类。正如他所说,“重点不是减速,而是找到方法让AI变得友善。” 这也许是我们所有人共同的使命。
最后,“数字智能会取代生物智能吗?” 你怎么看?
往日文章:
--END--