全文约5,000 字,阅读约需 10 分钟
人工智能的浪潮正席卷全球,而这一切的起点可以追溯到OpenAI。
2024年诺贝尔物理学奖得主、被誉为"深度学习之父"的Geoffrey Hinton(杰弗里·辛顿)在近期接受韩国KBS电视台采访时指出,ChatGPT的横空出世标志着生成式AI时代的来临。这位多伦多大学名誉教授认为,人工神经网络能够高效运作主要得益于三大关键因素:英伟达为游戏开发的高性能芯片提供的惊人算力、互联网上可获取的海量数据,以及技术的不断突破。
事实上,仅ChatGPT的训练就耗费了1万颗英伟达芯片。而这样一个能够像人类一样思考和对话的AI系统,已经成为了生成式人工智能发展的重要里程碑。Hinton表示:"10年前,没有人能预料到GPT-4或谷歌的Gemini这样的大型语言模型会出现。正因如此,10年后的今天也将会发生无人能预料的事情。人类将见证超出所有想象的进步。"
这场AI革命的重要性和历史意义,很可能超越以往任何一次技术革命。回顾工业革命,它帮助人类突破了体力的限制。而今天的AI革命,则可能让我们突破智力的边界,从根本上改变整个社会的运行方式。这种深远的影响虽然难以想象,但毫无疑问将成为人类文明史上一个关键的转折点。
对话文稿
1、人工智能历史
Geoffrey Hinton:我们人类的主要限制是体力,而工业革命已经消除了这一限制。现在,我们的主要限制是智力,而人工智能(AI)也将消除这一限制。深度学习的灵感来源于大脑的工作方式。尽管我们尚未完全了解大脑的运作机制,但已有相当多的认识。在大脑中,有许多被称为神经元的脑细胞,它们通过连接相互作用。当我们学习时,这些连接的强度会发生变化。神经元通过发出“嗒嗒”信号向其他神经元传递信息,其主要功能是决定何时发送信号。神经元会根据从其他神经元接收到的输入强度决定是否发出信号,而输入的强度取决于连接的权重。学习的本质就在于改变这些连接的强度。
1980年代,人们提出了一种称为反向传播(backpropagation)的方法,用于调整连接强度。这一方法在当时效果不错,但我们并未意识到,如果为其提供大量数据和计算能力,它的效果会显著提升。如今,大型聊天机器人通过反向传播来调整计算机中模拟的神经网络中的连接权重,这便是深度学习的核心原理。例如,如果我们想要一个能够识别鸟类的神经网络,其第一层可能会识别边缘,接下来的层级逐步识别边缘的组合,如鸟喙、鸟头等,最终通过多层复杂的特征检测,判断图像是否是一只鸟。
自1950年代以来,AI发展主要有两种路径:基于逻辑的方法和基于生物学的方法。逻辑方法模拟逻辑推理,而生物学方法模拟大脑中的神经网络。最初的50年里,大多数人相信逻辑方法,但效果有限。从2009年开始,基于神经网络的生物学方法逐渐显现出巨大优势。2012年,神经网络在物体识别上取得突破,极大推动了AI的发展。
这一成功的背后有三个关键因素:首先是强大的计算能力,例如NVIDIA芯片;其次是来自互联网的大量数据;最后是技术上的突破,例如2017年Google引入的Transformer技术,使语言模型表现更佳。这些进展引发了对神经网络的广泛兴趣,尤其是ChatGPT的发布,让人们看到了神经网络在理解和回答问题方面的潜力。
2、人工智能广泛应用
人工智能(AI)的应用将遍及所有行业,其影响在某些领域尤其明显。例如,在医疗领域,AI医生可以具备远超普通医生的能力:不仅能参考海量病例,还能结合患者的基因组和完整的病史数据进行诊断。此外,AI在医学图像解读方面也表现优异。在复杂诊断场景中,AI与医生的结合能显著提高诊断的准确率。目前在北美,每年约有20万人因误诊而死亡,而AI的应用将显著减少这种情况的发生。
AI在许多领域带来了巨大的效率提升。在教育方面,我们知道,如果有私人导师,学习速度可以是普通课堂教学的两倍。而有了AI,每个人都可以拥有自己的私人导师,从而显著提高学习效率,尤其是对孩子们的教育。这种变化将对教育体系产生深远影响,尽管可能对大学来说不那么友好。
AI在任何数据驱动的领域都能发挥重要作用。以一个采矿公司的例子为例,我的一位邻居开发了一个AI系统,该系统能够利用公司已有的大量数据(如挖掘矿井所需时间的数据,总量约为100亿个数据点),快速回答各种问题。例如,如果承包商声称可以在某个时间内完成一项任务,AI系统可以迅速评估实现这一目标的概率。过去,要得到这样的答案,通常需要雇佣大型咨询公司撰写报告,花费数周时间。而现在,通过AI系统,只需几秒钟就能得到答案。这种效率提升在任何拥有大量数据的行业中都可能发生。
AI还能帮助人们处理日常生活中的问题。我曾经遇到过一个小问题:我的小屋里出现了一种蚂蚁。我向GPT-4咨询,它提供了可能的蚂蚁种类及其应对方法,这让我感到非常受益。这种体验就像有一个博学且耐心的朋友随时待命,帮助解决各种问题。当然,AI偶尔会产生“幻觉”——即出现错误的回答,但这与人类的错误本质上并无区别。实际上,这种偶发的“幻觉”正是AI接近人类行为的一个特征。
当人类记叙或描述过去时,常常会出现虚构的成分。这种现象被称为“虚构”,是人类记忆的自然缺陷。事实上,人类一直在“混淆”信息。如果你观察人们回忆很久以前发生的事情,他们通常会对细节充满信心,但实际情况是他们经常弄错。这使得人类的记忆在某种程度上与大型聊天机器人类似,因为这些模型也会出现混淆。
3、人工智能未来10年
对于未来的预测,尤其是在事物变化迅速的情况下,总是充满挑战。如果你试图预测10年后的样子,最好的方法可能是回顾10年前的情况。例如,10年前,没有人能够预见到像GPT-4或谷歌的聊天机器人“Gemini”这样的技术出现。同样,在未来的10年中,我们也会见证超出当前预期的创新和突破,这些变化将比人们设想的更加惊人。如果我们只展望几年,变化可能并不显著,但在10年的时间跨度内,AI能实现的能力将发生重大变革。
AI革命的重要性和历史意义可能超过以往的技术革命。以工业革命为例,那一时期人类的体力不再是主要限制。而在AI革命中,智力也可能突破限制,这将从根本上改变我们社会的运行方式。这种影响的深远程度或许难以想象,但它注定将成为我们文明史上一个关键的里程碑。
在过去,如果你想挖一条沟,你需要依靠人力来完成。虽然可以借助动物或风车、水车等工具,但从根本上说,人类的体力是至关重要的。然而,工业革命的到来使得人类的体力不再重要。如今的情况是,人类的智能起着关键作用。然而,当AI变得远远比人类更聪明时,人类的智慧也将像工业革命后的人类体力一样,逐渐失去其重要性。
从历史的角度看,技术的进步一直在逐步消除人类的限制。在很长一段时间里,体力是人类的主要限制。而如今,我们的主要限制是智力。AI的出现和发展将最终消除这一限制。如果有人问,“是否有任何例子表明,一个更聪明的事物被一个不太聪明的事物控制?”答案几乎没有。我只知道一个例子,那就是母亲和婴儿的关系。进化投入了大量努力,使得婴儿能够在一定程度上控制母亲,这是物种生存的重要策略。然而,即便如此,母亲和婴儿的智力水平仍然相差不大。
对于未来,当AI的智力超过人类,我们是否还能保持对其的控制,这是一个未知数。一些人,比如我的朋友Yann LeCun,认为我们无需过于担忧。他们相信,既然AI是由我们创造的,那么它们将始终按照我们的要求行事。但这种乐观态度是否能够持续,还需要时间来验证。我不相信AI会始终按照我们的要求行事。我认为我们没有足够的理由对此感到有信心。作为物质对象,人类并没有什么无法被计算机复制的特质。从长远来看,计算机可以拥有我们所有的情感。我不认为人类有什么特别之处,只是非常复杂而已。这种复杂性来源于漫长的进化过程。虽然人类对彼此来说非常特别,但从本质上讲,没有什么是机器无法模拟的。
4、人工智能的风险
关于人工智能的风险,人们常提到它可能会夺走工作。这确实是AI带来的许多不同风险之一。我们需要清楚区分这些风险,因为不同的风险需要不同的解决方案。毫无疑问,AI会取代许多工作,例如律师助理和为律师进行研究的人员。这些工作中的许多部分,AI已经能够更高效地完成,因此我们需要的律师助理会大幅减少。对于许多普通的办公室工作也是如此。例如,我的一位亲戚在一家卫生服务机构工作,以前她需要25分钟来回复一封投诉信。现在,她只需将信件输入ChatGPT,系统就会生成回复,她只需检查一下并发送出去,这仅需要5分钟。因此,这类岗位的需求减少了五倍。尽管AI会创造许多新的工作机会,但目前尚不清楚这些新工作能否弥补AI取代人类完成的大量普通办公室工作的缺口。这是一个严峻的问题:那些失去工作的普通人将何去何从?我认为,这是政府需要关注和解决的问题。
在短期内,我最担心的是网络攻击和AI降低生物武器的制造门槛。例如,去年网络钓鱼攻击增加了1200%,这主要归因于聊天机器人被用来发起更加精确的攻击。我也担心AI被用于制造新型病原体,目前对此几乎没有任何有效的控制。
从中期来看,我非常担心失业问题以及自主致命武器的开发。在未来两到三年内,我们可能会看到这些武器投入使用,而这是非常危险的。目前,各大国防部门都在积极开发它们。令人担忧的是,现有的AI法规通常不适用于军事用途。例如,欧洲的相关法规明确规定不适用于AI的军事应用。政府对自我监管持犹豫态度,而自主致命武器一旦被使用,我们将看到它们的可怕之处。
从长远来看,我最担忧的是AI会变得比人类更聪明,并最终接管人类。类似化学武器的《日内瓦公约》只有在我们看到这些武器带来的巨大灾难后,才可能出台。历史证明,这些协议是有效的,例如在乌克兰冲突中化学武器没有被使用。但我们必须付出惨痛代价,才能真正认识到这些武器的危险性。我们需要随着技术的快速发展,在安全领域投入更多的工作。而能够拥有资源来完成这一目标的,只有大公司。因此,政府需要施加压力,促使大公司在安全方面采取更多行动。确保AI安全需要大量的计算能力和熟练的技术人才。为了留住这些技术娴熟的科学家,必须为他们提供一个可以自由研究的环境。
以加拿大为例,尽管其经济规模不大,却在AI领域取得了显著成就。这得益于支持基础科学研究的政策。像我、Yoshua Bengio和Rich Sutton这样的顶尖AI研究人员选择在加拿大工作,一部分原因是社会制度的吸引力,但更重要的是其对基础科学研究的资助。因此,支持基础科学研究是留住优秀研究人员的关键。此外,支持高效的计算能力也是不可或缺的一环。
5、对韩国的建议
我对韩国的建议是,如果能为有创造力的研究人员提供充足的基础科学研究资金,他们会更愿意从事基础研究,而不是去银行赚大钱。当然,一些人仍会选择离开去赚更多的钱,这是无法避免的。但通过对基础科学研究的强有力支持,可以吸引并留住大部分顶尖研究人才。
关于人形机器人,我认为可能会出现。现在,很多团队都在为实现这一目标而努力。人形机器人的吸引力在于,我们的工厂和设备都设计为由人操作。因此,与其重新设计所有机器,不如设计一个可以操作现有机器的人形机器人。这种尝试目前正在进行中,但结果尚未确定。我认为我们正处在一个充满不确定性的时期。在这样的时期,采取谨慎态度尤为重要。
对于AI的发展是否会迎来停滞,有两种不同的观点。一些人,尤其是那些坚持逻辑方法而不喜欢神经网络的传统派,一直预测神经网络的热潮会终结。但多年来,他们的预测一次次被证明是错误的。神经网络不仅没有被夸大其词,还不断取得令人惊叹的成果。虽然每隔几年都会有人宣称神经网络的兴盛即将结束,但事实证明,他们的判断每次都是错误的,我相信他们未来也会继续错下去。
总而言之,人工智能将会持续不断发展,人类社会也将发生崭新的变化。
来源 | AI工作坊