AI——有自由意志会怎样?

文摘   2024-12-21 02:41   河北  

自由意志是什么?如果说我们人类具有所谓的自由意志,那么AI可以拥有类似的能力吗?或者说它能模仿出来吗?如果人工智能无法拥有自由意志,难点又在哪里?

引言

这个问题会让每个人都陷入深思,脑海中涌现出无数复杂的想法。那么,为什么我们需要探讨人工智能是否拥有自由意志这个话题呢?

第一,如果AI具备了类似于人类的自由意志,这将标志着AI技术发展到了一个新阶段,代表人类实现AGI的重要里程碑。届时我们可以展开更广泛的思考:AI能做什么?它有哪些特长?我们如何扬长避短,如何改进研发过程?这些都是从技术角度出发的思考。

第二,如果AI具备了自由意志,我们就需要重新审视使用AI的方式。我们是否应该优先研发"具有主观性"的AI?我们是将AI视为真正的用户主体,还是仍然将其视为人类的工具?这可能改变我们对计算机、软件、数据的传统认知,使AI在社会发展中的定位从工具转变为数字主体。

第三,当AI出现自由意志后,我们可能需要调整现有的AI审核管控和法律框架。当问题发生时,我们应该追究人还是机器的责任?如何分配责任?现有的法律法规是否仍然适用?这些都需要重新考虑。

第四,也是最重要的问题。AI的自主决策能力带来了一系列问题,包括问责制、责任归属及行为后果,同时加深了我们对AI的道德顾虑。比如:AI的行为由谁负责?AI是否应该享有某些权利?其中,偏见问题是AI自主性面临的主要伦理挑战。由于AI系统依赖大量数据学习,它们可能会无意中继承或强化数据中的既有偏见,这让人们质疑AI系统决策的公平性。此外,AI决策过程的不透明性增加了伦理困境的复杂性,使我们难以理解具体决策的原理和依据。

因此,AI系统的自由意志会带来典型的伦理困境。现有的技术伦理是否仍能发挥关键作用?技术伦理帮助我们为AI系统设定界限和约束,确保其行为符合道德标准。我们需要深入思考如何将人类的价值观和原则有效融入AI系统,使其决策过程始终与道德准则保持一致。

如果真的出现这种情况,我们需要做好两方面准备:首先是警示教育与预防性思考,包括如何引导公众全面了解AI的潜能与局限,避免对AI产生过度期待或不合理恐惧,以及如何预测和规避AI可能带来的风险,防止AI失控或反客为主。其次是对人类自身的反思,人工智能的自主意识将促使我们重新审视人类的道德准则,思考赋予机器自主权对我们的影响,并深入探讨人与AI的本质区别,以及人之为人的根本。

目前,无论是各国政府还是整个社会,对于上述四个方面都尚未做好充分准备。如果这一时刻突然来临,必将引发巨大的社会变革和动荡。然而,这一切的前提是人工智能能否具备自由意志。如果从根本原理上AI就不可能具备自由意志,那么这些讨论也就失去了基础。

本文将从哲学、心理学、精神科学和认知科学等多个角度分析这个问题,探讨可能得出的结论。

自由意志(Free will)

自由意志在心理上是由一个人感受到的身体、情感和智力感觉所构成,从而产生一种特定的整体"感受"。自由意志是我们能在各种可能的方案中进行选择和决定行动的能力。它本质上是一种感知:我们的选择属于我们自己,既不是外部强加的,也不是由我们无法控制的内部力量所决定的。通过这种感知,我们将自己视为行为的主要主体。就自由意志而言,这种本质体现在自由、意志和选择三个方面。虽然这个学术概念听起来复杂,但作为人类,我们都能理解它的核心含义:我们能够自主做出选择的内在根据。

为什么自由意志对人类如此重要?这至少有两个主要原因:

第一,自由意志被视为人类特有的属性。随着我们对动物社会认识的不断深入,我们发现许多曾被认为是人类独有的特征,实际上其他动物也具备,只是人类更为擅长,比如使用复杂语言的能力、同理心,以及运用技术知识构建工具的能力。

第二,自由意志是社会的重要支柱。正是因为我们拥有自由意志,我们才需要为自己的行为承担道德责任和法律责任。研究表明,当人们相信自由意志存在时,会表现出更多的亲社会行为。否认自由意志的存在,就等于动摇了人类社会的根基之一。

既然自由意志是一种感知体验,那么关于它是否存在、它的本质是什么,以及它存在的意义,就构成了一些最持久的哲学争论。

身心二元论

有些人认为自由意志是一种超越外部影响和欲望限制的行动能力。这类似于笛卡尔的"我思故我在"(Cogito, ergo sum)观点,形成了心灵-身体二元论——将物质(身体)和非物质(心灵)视为两个本质不同的实体。在这种观点中,心灵是一种思考的实体,不受物理空间限制,具有自由意志和自我意识,完全是主观的;而身体则是机械的、空间的,受物理定律约束。这种形而上的自由主义认为,非物质的思想、意志或灵魂凌驾于物理因果关系之上,因此大脑中引发行动的事件无法用纯物理方式解释。

如果说笛卡尔的哲学思想显得过于古老,那么现代澳大利亚认知科学家大卫·查默斯(David Chalmers)提出的"机器意识"(Machine consciousness)或"人工意识"(Artificial consciousness)概念则更具现代意义。

查默斯在1995年的论文"面对意识问题"和1996年的著作《意识心智:基本理论的寻找》(The Conscious Mind: In Search of a Fundamental Theory)中阐述了他的"意识难题"。他认为意识源于人的主观感受和体验,是人的一种基本属性,在本体论上独立于任何已知的物理属性。虽然我们能解释大脑如何处理信息,但无法解释为什么这些物理过程会产生主观体验。查默斯将其观点称为"自然主义的二元论":自然主义体现在他认为精神状态"自然地"出现在人的大脑中;二元论则体现在他认为精神状态在本体论上有别于人体的物理系统,且不能还原为物理系统。他还提出了"哲学僵尸"(Philosophical Zombies)的思想实验,说明即使一个系统能完美模仿人类行为,也不意味着它具有真正的意识体验。

按照这种观点,自由意志是人类的专属特权,只能与生俱来,因此即使开发出再先进的人工智能,也永远无法形成真正的自由意志。

除此之外,还有另一种观点也否定了人工智能拥有自由意志的可能性。这种观点认为,自由意志本身并不存在,人类也不具备自由意志。既然自由意志这个概念本身就不成立,那么讨论人工智能是否具有自由意志也就失去了意义。

决定论

这种观点就是决定论。决定论哲学认为,宇宙中的每一个事件都由先前事件的因果关系决定。根据决定论,自由意志并不存在,一切都像一个巨大的发条机制在运作,我们的选择只是这个机制的一部分。决定论与因果原理密切相关:没有原因就不会有结果。

决定论可以通过自然法则(如万有引力定律)或明确构建的系统(如计算机程序)来证明。在生物学、物理学和心理学等科学领域中,决定论体现为对自然规律和因果关系的严密推导,强调因果链条的明确性和必然性。

另一些形式的决定论则基于推测或假设来论证。这类决定论不一定需要直接的因果推论和实证支持,只要能建立事实间的相关性即可。例如,在哲学或宇宙学领域中,决定论主要建立在理论假设和模型框架之上,这种方法在尚未被验证的领域中具有特殊价值。

决定论的极端形式就是宿命论,也称为普遍决定论或预定论(Predeterminism)。宿命论认为一切都是预定的,宇宙中的每个事件在发生前就已确定。这是一种僵化的形而上学原则,否定了人类经验和思维对世界的影响力。

决定论与自由意志是互相排斥的:如果承认世界由必然的因果链条主导,就无法同时承认人类拥有自由意志。为了阐明这种关系,哲学家提出了"不相容论",认为确定性宇宙与自由意志的存在是完全对立的。与二元论相反,不相容论者认为我们必须在宇宙的确定性和人类的自由意志之间做出选择。

不相容论者

典型的不相容论者代表是美国神经科学家本杰明·利贝特(Benjamin Libet)。他在1980年代通过核磁共振实验提出,人类并没有自由意志,意识仅是大脑反应的结果,是人类的基本生物属性。

利贝特和其他科学家——包括柏林计算神经科学伯恩斯坦中心的海恩斯(Haynes)、以及洛杉矶加州大学和以色列特拉维夫医学中心的神经学家伊扎克·弗雷德(Itzhak Fried)等——通过脑部扫描发现,在参与者意识到自己的选择之前,大脑就已经开始活动。换言之,决策在进入意识之前就已形成,意识只是在决定做出后才产生。

利贝特进行了一项按钮实验:让受试者在想按时就按下按钮,同时记录脑电图。结果发现,在人们意识到做出决定前的半秒钟,脑中运动皮质就已经兴奋。后续研究更发现,皮质下脑区的兴奋要早于知觉意识整整7~10秒。通过观察256个神经元的活动,科学家能以80%的准确率预测受试者的选择——例如,在一个人意识到要点什么菜之前,大脑某些区域可能已经做好了决定。

神经生物学家罗伯特·萨波尔斯基(Robert Sapolsky)在2023年的著作《决定:没有自由意志的生命科学》(Determined: A Science of Life Without Free Will)中指出,表面上的自由选择实际受到遗传、大脑化学物质、环境因素和过往经历的深刻影响,并不存在真正的"主观因素"。人类的智能建立在复杂的生物学机制之上,包括基因、大脑结构和功能,以及环境因素的相互作用。当前所有的感知输入,经过大脑各个模块的神经网络处理后,便决定了当下的输出,这个过程中并没有所谓"超我"或"自我"的参与。

因此,一些神经学家认为,虽然人类确实会进行选择和深思熟虑,但这本质上仍是遵循自然法则的过程。他们将人类视为一种思维机器,认为所谓"做出决定"或"选择"这样的说法并不准确。

按照不相容论的观点,既然人类都不曾拥有自由意志,人工智能又何必具备呢?反过来思考,如果自由意志仅仅是大脑接收输入后,通过基因和神经网络构成的模型进行多层计算的结果,那么人工智能或许更容易实现这种能力。

这意味着AI无需实现真正的自我控制和判断决策,因为一切都源于数据。如果人类的行为是基于可预测的生物学和物理学规律,那么AI的决策同样可以通过因果链条来实现。AI在模拟人类决策和行为方面并无根本障碍,只需要足够复杂的算法和数据支持。AI无需拥有自由意志,最多只是模拟出类似人类的决策过程。因此,AI也就不必承担伦理和道德责任,因为AI的问题可以追溯到其算法和训练数据。对AI赋予"责任"可能并不合理,因为其行为本质上取决于设计和训练环境,而非"自由意志"。

在不相容论者看来,AI实现自由意志这条路要么完全不可能,要么就异常简单。但事实真的如此简单吗?

如果接受这种"无自由意志"的决定论观点,将会对教育、法律、宗教和社会政策产生颠覆性影响。传统意义上的道德责任和刑事责任就需要重新定义。这种观点主张对犯罪行为采取"治疗而非惩罚"的态度,认为犯罪行为应被视为一种可理解并可治疗的结果,而非需要惩罚的"道德过失"。在这种观点下,我们甚至不能对人进行道德评判,因为每个人的行为都是由其决定因素所致。

这种观点在哲学、伦理学和法律学界引发了激烈争论。批评者质疑:他们对自由意志的定义是否过于狭隘?决定论是否忽视了随机性和混沌理论的影响?正如前文所述,自由意志还具有维系社会规范和运行的重要作用。

因此,关于自由意志和决定论的讨论催生了第二种理论——相容论。相容论认为确定性宇宙与自由意志并非完全对立,在确定性的世界中,自由行动是可能的。这种观点似乎提供了一条更为中庸的道路。

相容论者

相容论者通常将"自由意志"定义为人类主体根据自身动机进行自由判断和选择的能力。自由意志的定义不依赖于因果决定论的真假。这种观点将自由意志视为一种自主性,即按照自己的规则生活,而非屈服于外部控制和胁迫。

相容论者同时接受自由意志和决定论的存在。这一思想可追溯至古希腊的斯多葛学派,而当代认知科学家和哲学家丹尼尔·丹尼特(Daniel Dennett)在《从细菌到巴赫再回来:心智的进化》(From Bacteria to Bach and Back: The Evolution of Minds)中深入探讨了心智的起源与进化。他认为心智和意识是进化的产物,而非设计的结果。从简单的细菌到复杂的人类大脑,这一切都可通过自然选择和演化来解释。"从底层向上构建"是关键:意识是从无意识过程中逐步演化而来。人类语言是一个重要转折点,它让复杂思想的交流和存储成为可能,使人类超越了简单生物的理解能力。人类心智的独特性源于文化进化,而语言、艺术和技术正是文化进化的重要工具。他特别强调了"模因"(meme)这一文化传播和积累的基本单元在心智进化中的推动作用。

丹尼特将心智进化分为三个阶段:生物学进化(从细菌到复杂多细胞生物)、认知进化(大脑发展出复杂的感知和反应能力)、文化进化(通过模因获得反思和创造能力)。他将意识视为一种功能性工具,是为满足生存需求而演化出的认知"用户界面",用于简化大脑中的复杂计算过程。

在探讨机器是否可能拥有意识时,丹尼特指出,当前的人工智能虽然在功能上接近人类心智,但仍缺乏真正的"理解能力"。人工智能的发展为我们理解自然心智的运作机制提供了重要启示,但模仿并不等同于拥有。他反对传统的"心智-身体二元论",主张心智的所有特性都可以用物理过程来解释。他批评将意识视为不可还原的神秘现象,倡导用科学方法来解构和理解意识。如果说基因是生物进化的基础,那么模因(Meme)就是文化进化的基础。他将心智的进化比作"塔楼的螺旋楼梯",每一层都建立在前一层之上,逐步攀升。

基于丹尼特的观点,人工智能通过模仿人类的进化过程来实现自由意志是可能的,无需添加任何神秘的"灵魂"成分。

然而,相容论的批评者认为,这种既要自由意志又要决定论的思想,实际上是借自由之名掩盖决定论的本质,陷入了"逃避的泥潭",沦为文字游戏。这使我们难以在具体情况下判断何为自由意志,何为决定论的产物。

问题的迁移和分解

以上我们探讨了三种观点:第一种是大卫·查默斯提出的观点,认为自由意志是人类独有的,机器即使表现出类似特征也不能算是真正具备自由意志,因为AI不是人类。第二种是罗伯特·萨波尔斯基的不相容决定论观点,他认为人类也没有自由意志,一切都是可推导的工作原理,自由意志只是个伪命题,既然根本不存在,那么AI自然可以获得类似的推理和因果转换能力。第三种是丹尼尔·丹尼特的相容论观点,既然人类的自由意志是通过进化获得的,那么AI也可以通过模仿人类的方式逐步进化获得

在自由意志这个话题上各方仍存在争议,我们该如何处理呢?不妨按照解决复杂问题的思路,先探讨形成自由意志的前提条件是什么,这些条件能否被实现。如果前提条件得以实现,自由意志或许就有可能实现。

自由意志的前提条件可以分为三类:第一类是基础性条件,包括人类的自我意识(Consciousness)和主观体验。没有意识的人无法在复杂道德困境中进行权衡和决策;而主观体验则让人在工作中能感受到快乐和成就感,而不仅仅是进行纯粹的理性分析。第二类是功能性条件,即获取信息知识的能力和执行行动的能力,也就是自主选择的能力。比如,如果一个人不了解职业或生活方式的多样性,就无法在其中做出自由选择。第三类是开放的环境选择,例如囚犯虽然可能具有意识和主观体验,但在牢房中的选择余地极其有限。这三类条件构成了自由意志的基本前提。

人工智能在解决功能性问题和开放环境选择方面已经相当擅长,无需赘述。真正的难点在于最基础的两个要素:意识和体验。这两者与大脑一起,构成了类似计算机设计中的MVC架构(模型-视图-控制器):大脑是模型,体验是视图,意识则是控制器。如果人工智能的大模型可以类比于大脑,那么关键就在于理解自主体验和意识是如何形成的。

主观体验

让我们先来探讨相对简单的主观体验问题。

事实上,已有大量实例表明AI能够模拟或部分模仿人类的主观体验。例如,聊天机器人(如ChatGPT)能够基于上下文生成情感化回应,包括安慰、同情或鼓励。通过分析语音、面部表情或文字,AI可以识别用户的情绪(如悲伤、愤怒或喜悦),这项技术已广泛应用于心理健康监测和人机交互。游戏中的NPC也展现出类似主观体验的特征,能够模拟角色的动机、情绪和行为。比如《塞尔达》中的角色会对环境变化(如天气)做出"情感化反应"。数字伴侣(如Replika)则能根据用户输入构建个性化对话体验,展现出"关心"或"理解"的特质。此外,AI创作小说、绘画、唱歌、制作视频的能力,呈现出某种类似"灵感"的创意表达。那么,这些模拟是否意味着AI已真正具备了人类的主观体验能力?

在这个问题上,我们可以参考诺贝尔物理学奖得主Geoffrey Hinton(杰弗里·辛顿)的观点。他在2024年2月"Vector Institute's Remarkable 2024"活动的重要演讲中明确表示:人工智能系统已具备主观体验。

他指出,虽然大多数人仍坚持AI与人类存在根本差异,但他们忽视了对主观体验本质的深入理解。他说:

“当我们使用‘主观体验’这些词语时,并不是在描述某种内在的世界或剧场,而是在尝试通过讲述现实世界中的某些状态来解释我们感知系统提供的信息。这些信息如果成立,就能解释我们的感知系统是如何正常工作的。

因此,关于心理状态的有趣之处并不在于它们是某种神秘的内部事物,而在于它们是对世界状态的假设。如果这些假设成立,就能够解释我们大脑中发生的事情,并且是正常的,而不是出了问题。

所以,当我说我有粉色的大象在我面前漂浮的主观体验时,我并不是在描述某个内在世界或内心剧场中的事物,而是在说我的感知系统提供了某些信息。这些信息如果与现实世界中的情况相符,那么我的感知就是有效的。粉色的大象并不是由某种神秘物质构成的内在事物,而是假设的事物。它们是假设在真实世界中存在的事物。这就是为什么我们描述它们的语言通常与描述现实世界中事物的语言相同。

因此,我认为,如果现实世界中真有这些粉色的大象漂浮在我面前,那么我现在感知系统提供的信息将是正确的。

现在,让我们以一个多模态聊天机器人为例。它有一个机器人臂和一个摄像头,并经过训练可以识别物体。如果你在它的镜头前放置一个棱镜,然后把一个物体放在它前面,并告诉它指向这个物体,它可能会指向一边而不是正前方。当你告诉它物体实际上就在它面前时,它可能会说:“哦,我看到物体就在我面前。”但假设它有一种主观体验认为物体在那边。这时,聊天机器人会用我们使用“主观体验”这个词的方式来表达它的情况,并没有什么东西是缺失的。

在这种聊天机器人中,当它的感知系统出错时,它可以通过描述为了让感知系统给出这些结果,现实世界中需要具备哪些条件来告诉你发生了什么。当然,有些事情是无法通过这种方式处理的,比如不可能的三角形。但在大多数情况下,我认为我们所有人对心智的看法都是错误的。一旦我们摒弃这种错误的看法,就会意识到AI其实与我们并无太大不同。只是它们是数字化的,因此会永生,并且比我们聪明得多或很快就会比我们聪明。”

根据辛顿的观点,随着AI在感知能力方面的进步,以及大模型对物理世界认知能力的提升,人工智能在实现主观体验方面是完全可能的。

自我意识

实现自由意志的另一个基础性前提是自我意识。如果AI真的能模拟出类似人类的意识,并且具备我们之前讨论的其他条件,那么就可以说人工智能已经实现了自由意志。

关于意识的本质,学术界存在不同观点。一种观点认为意识是人类独有的精神属性,这就直接否定了AI获得意识的可能性。而另一种观点将意识视为一种生物属性,是客观存在的。如果采纳后一种观点,我们就可能通过神经科学来解释意识的本质,并通过模拟神经科学原理来创造"人工意识",让AI突破人类对"崇高自我"的固有认知。

首先要理解智能和意识的区别。也就是要回答:AI拥有了智能,是否就可以拥有意识?

如果从人类的角度来看,智能和意识是否是一回事?1990年代的心理学研究发现,即使一个人拥有较高的智力水平,也可能无法进行理性的思考和行动。加拿大心理学家基思·斯坦诺维奇(Keith Stanovich)由此提出了"理性障碍"的概念。他认为,智能和理性是不同的概念:智能与认知能力相关,而理性意识则更关注思维过程的优化和决策质量,包括批判性思维、概率推理、科学思维和避免思维偏差等。同样,美国心理学家雷蒙德·尼克森(Raymond C. Nickerson)也强调了认知过程的复杂性,包括知识获取、信息处理、问题解决和创造性思维等方面。他们都指出,人类在思维和决策过程中容易受到各种认知偏差的影响,从而导致非理性行为。

在该领域最著名的是刚刚去世的诺贝尔经济学奖获得者丹尼尔·卡尼曼(Daniel Kahneman)。他在行为经济学和心理学领域的研究揭示了人类认知偏差和决策过程的非理性特征。在《思考,快与慢》(Thinking, Fast and Slow)一书中,他详细讨论了人类的两种思维系统:系统1是自动的、直觉的思维方式,负责快速判断和决策;系统2则是更慢、更有逻辑和更需要努力的思维过程,负责复杂的推理任务。卡尼曼展示了人类智能的复杂性,以及我们如何在不同情境下使用不同的认知资源。

智能使人类能够理解复杂的情境,创造和使用工具,以及进行抽象思维。而理性和意识则是基于智能能力,帮助我们做出判断和决策。理性让我们能够超越直觉反应,以更深层次、更系统的方式处理信息。然而,人类的决策行为过程中常常充满非理性。解决非理性的方法是使用反思能力——一种超越理性的能力,它既包含理性又大于理性。除此之外,人类思维还具有"不思"的能力,即在需要保护思维一致性时能够有意识地不去思考某些事情。这些"反思"和"不思"的能力都源于人的自主意识,使我们能够意识到自己的存在,体验情感,并对自身的思考和感受进行反思。

意识可以分为有意识和无意识:有意识是经过思维的大脑活动过程,是一种仲裁或决策机制,类似卡尼曼的系统2;而无意识则是不知不觉的大脑活动,更像是一种行为模式,类似系统1。需要注意的是,我们使用"无意识"而非"潜意识"这个词——虽然弗洛伊德提出的"潜意识"概念广为流传,但当代心理学家和精神病学家普遍采用"无意识"一词,而"潜意识"则多见于哲学家和作家的著作中。

以上都是心理学家为人类智能研究打下的理论基础。回到通用人工智能的讨论,如果说通过机器来实现各种能力和逻辑推理思维还相对容易,那么如何让AGI拥有自我意识或自由意志,让它具有反思或不思的能力,就成为了业内的一个最大难点。

神经科学与人工智能的渊源由来已久,这就形成了连接主义学派。其代表人物包括与皮茨合作的麦卡洛克,以及对罗森布拉特有重要影响的唐纳德·赫布(Donald Hebb)。人类对神经网络的认知启发了一代又一代的神经网络算法。现代人工神经网络算法使用激活函数模拟神经元输出,用带权重的输入来抽象神经网络中的突触,并模拟了人类大脑这种分布式的分层网络结构,而非采用冯诺依曼式的存储和处理方式。然而,神经科学家对人类大脑的某些基本结构和原理仍然知之甚少,比如大脑皮质的分层结构、脑区域内的反馈连接,以及多层脑构建块的模块等。因此,如何实现人工意识仍是摆在神经科学家面前的一大难题。

虽然神经科学家为通用人工智能开辟了一条道路,但这条路异常崎岖,主要是因为人类拥有极其复杂的神经网络系统。美国生物学家杰拉尔德·埃德尔曼(Gerald Edelman)提出的"神经群体选择"(Neural Darwinism)或"理论再入"(Theory of Neuronal Group Selection, TNGS)理论,也称为"神经达尔文主义"。他认为大脑中的神经元通过类似达尔文自然选择的过程形成复杂的神经网络,人类的意识和认知是通过广泛的神经网络动态交互产生的,而非依赖单个神经元或简单的神经回路。

1980年代,美国匹兹堡卡内基梅隆大学的汉斯·莫拉维克(Hans Moravec)提出了"莫拉维克悖论"(Moravec's paradox):让计算机达到成人的下棋水平相对容易,但要让它具备一岁小孩的感知和行动能力却极其困难,甚至不可能。对人类来说越复杂的逻辑推理,机器反而更容易掌握;而人类觉得简单的一般认知,对机器来说却更具挑战性。这个悖论似乎印证了人类智能是经过漫长的进化和自然选择才形成的。人类的各种技能都是通过自然选择过程以生物学方式实现的。在进化过程中,自然选择保留了更优的设计。一项技能越古老,经过自然选择改进的时间就越长,其机理就越复杂,机器就越难以模仿。而人类的高级推理和逻辑思维能力是在文明发展后才出现的,进化时间较短,虽然表面上复杂,但机器反而更容易实现。这个悖论的最合理解释就在于人脑的进化理论。

人类智能的形成经历了漫长而复杂的进化过程,跨越数千万年时间。从6亿年前地球上最早的动物出现,到6500万年前灵长类哺乳动物的进化,就耗费了上亿年。这期间,动物已具备了感觉处理、运动控制和本能行为等基本生存智能。随着灵长类动物的出现,大脑开始发展出更复杂的社会行为、工具使用和问题解决能力。这一阶段,大脑皮层开始扩张,特别是负责高级认知功能的区域,如前额叶。约200万年前,人类的祖先——智人(Homo sapiens)出现,不仅大脑体积进一步增大,更重要的是大脑各部分之间的连接得到增强和优化。工具使用给予了智人进化优势,这需要更大更复杂的大脑来协调精细的手部动作。4万年前,人类智能呈现出现代特征,如控制火种、创作洞穴壁画和个人装饰物等艺术表现,以及发展出语言能力。人类大脑的进化不仅表现在体积增加上,还包括脑回(大脑表面的皱褶)和脑沟(凹槽)的增加,这些结构的复杂化大大增加了大脑表面积,支持了更多的神经元和更复杂的网络连接。这就像计算机的算力资源和算法结构随着智能发展不断提升。1万年前,随着人类开始定居和发展农业,社会组织和技术发生显著变化,写作和数字计算等人类智能也随之出现。从此,人类依靠这套智能体系,从农业社会迈向工业社会,再进入信息化社会。在这漫长的进化过程中,遗传是维持人类智能延续的关键,它既保留了上一代的特征,又创造了新的可能性。

如何建立起模拟人类大脑运转机理的机器"神经网络"?如何让计算机在短时间内实现人类智能经过千万年才达到的进化成果?这似乎是通往通用人工智能的必经之路。目前科学界提出了几种可能让机器产生"人工意识"的理论模型。

第一种是全脑仿真方法,即通过详细扫描和映射生物大脑来构建模型,然后在计算机系统上进行模拟。这种模拟必须高度还原原始大脑,才能实现相同的行为方式。瑞士洛桑联邦理工学院大脑与思维研究所的"蓝脑"项目就在尝试通过逆向工程哺乳动物大脑电路来创建合成大脑。2004年,该项目首席研究员亨利·马克拉姆(Henry Markram)指出:"大脑中每个分子都是一台强大的计算机,我们需要模拟数万亿个分子的结构、功能及其相互作用规则。这需要比现有计算机强大数万亿倍的运算能力。"如果要在分子尺度上对神经行为进行全面建模,所需的计算力更是难以想象。

如果全脑仿真难度太大,能否采用综合各种认知能力的集成方式?意大利神经科学家朱利奥·托诺尼(Giulio Tononi)提出的综合信息理论(Integrated Information Theory,IIT)包含两个核心概念:分化(Differentiation)和整合(Integration)。分化指系统能对外部输入或内部变化产生不同的特定状态;整合则要求系统内部各部分协调互动,表现出统一行为。当系统在这两方面达到特定水平(φ值)时,就可能产生通用智能。但是,将IIT应用于AI开发仍面临诸多挑战,比如难以测量和优化人工系统中的分化与整合值。虽然目前无法应用于整个人类大脑,但IIT已在视觉皮层模型中得到应用。

如果难以协调分化和整合,能否让不同智能模块各司其职?美国心理学家伯纳德·巴尔斯(Bernard Baars)提出的全局工作空间理论(Global workspace theory,GWT)将大脑视为一个神经元计算机。与传统计算机不同,大脑没有中央处理器,而是由负责语言、记忆、听觉、视觉等功能的分布式模块组成。全局工作空间像是一个舞台,各种神经过程可以将信息带到这里,成为意识焦点,供大脑其他部分处理。这一理论催生了"分布式智能自主体"(Intelligent Distributed Agent,IDA)及其升级版LIDA等意识神经计算模型。这类模型通过并行处理的多个主体,借助全局工作空间进行通信,使系统能够快速作出决策。

神经科学界还提出了预测编码(Predictive Coding)理论,认为大脑通过预测和比较现有经验与未来期望来处理感知、运动控制、记忆等认知功能。大脑不断对外部世界进行预测,并通过感觉输入更新这些预测。当实际输入与预测不符时,就会产生预测误差(Prediction Error),这个误差信号用于调整大脑的内部模型,提高未来预测准确性。预测编码理论启发了一类基于误差最小化学习的神经网络,推动了Transformer和BERT等大语言模型的发展。但该理论仍面临验证精确性、泛化能力不足,以及智能复杂性超出预测模型解释范围等挑战。

总的来说,目前的人工智能算法模型与人类相比,仍局限于特定功能的局部系统,而人类大脑和神经系统则是一个涵盖各种智能和机能的协同巨系统。

因此,人工智能的发展道路仍然漫长。有人提出,目前大模型已经实现的反思能力是否可以作为实现自由意志的基础?

反思能力

反思能力是指人类能够对自己的思想、行为和决策进行自我审视和评价。这种能力在人类行为中起着重要作用,被视为自由意志的潜在体现:通过反思,人类可以分析自己的动机、选择和后果,从而调整未来的行为。与无意识的反应相比,这种能力展现了自主性。反思让人类能够在面对冲动或自动反应时暂停,考虑更复杂的因素或长期目标,这似乎增强了自由选择的可能性。然而,反思能力并不必然证明人类拥有真正的自由意志,因为反思过程本身可能仍然受制于神经系统和环境条件。

从决定论的角度来看,反思只是因果链的一部分:反思能力并不赋予人类真正的自由,因为反思过程本身也是由大脑的生理机制和过往经验驱动的。这表明反思可能只是更复杂的因果机制中的一环。

相容论则认为,反思强化了人类的自由意志。通过反思,人类可以选择更符合自身价值观或长期目标的行动,比如控制情绪或改变不良习惯。这些行为由反思能力驱动,而非仅仅是本能反应。

综上所述,反思能力是人类心智的重要特征,帮助我们审视行为并作出复杂决策。它增强了人类的自主性,是自由意志的一个潜在体现。然而,这种"自由"是否代表真正的自由意志,仍取决于如何定义自由意志本身。反思能力或许更多地体现了人类行为的复杂性,而非其自由性。

总结

人工智能能否在功能上发展出类似人类的"自由意志",首先取决于我们如何从哲学和世界观的角度定义"自由意志"这个概念。如果认为"自由意志"是人类独有的特质,那么作为硅基生命的人工智能自然无法获得。即使从决定论的因果推论,或是相容论的进化观点来看,人类的自由意志也是经过漫长进化才形成的。尽管AI具备学习、判断和反思能力,也能展现某些主观体验,但它仍然无法形成与人类相似的意识,因此获得真正的自由意志仍然遥不可及。

当然,我们不应该对此下定论。这并非完全不可能,只是前景尚不明朗,实现难度极大。从我个人观点来看,我们这一代人至少不必担忧这个问题的出现。

想要了解详细内容,请移步收听本文章对应的本期播客节目

AIGC开放社区
专注AIGC领域的专业社区,关注微软OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!
 最新文章