摘 要
人工智能的风险与安全是目前全球热议的问题,从现象学哲学的视角看,以下问题亟待学界的思考、讨论与回答:(1)“有意识的”人工智能的可能性问题,其中也包括(2)自觉、自主和自由的人工意识的可能性问题,(3)意识的人为制作或意识的自行生成是否可能的问题,(4)精神科学研究与自然科学研究的关系如何的问题,(5)计算与思维的本质差异何在的问题,(6)超级智能是否完成“对齐”以及去除了“毒素”的超级人工智能是否可能等问题。
作者简介
倪梁康,浙江大学哲学学院教授
本文载于《社会科学》2024年第10期
目 录
引子:人工智能的善与恶及其监管的可能
问题一:人工智能的大神经网络、大语言模型、大构架、大平台等等带来的风险会不会最终导致人类的毁灭?
问题二:当代的各种“意识”研究与人工智能的关系是怎样的?
问题三:“有意识的”人工智能系统究竟意味着什么?
问题四:什么是意识的简单模型?意识三分说与“自身意识”与“自我意识”的关系是怎样的?
问题五:“意识”的人为制作或“意识”的自行生成是可能的吗?
问题六:超级智能如何可能“对齐”?去除了“毒素”的超级人工智能是怎样的?
引子:人工智能的善与恶及其监管的可能
2023年11月1日至2日,首届全球人工智能安全峰会在英国二战时期的密码破译中心布莱切利庄园召开。包括中国、美国、英国和欧盟在内的超过25个国家的代表,以及特斯拉CEO马斯克、OpenAI创始人兼CEO奥尔特曼等科技巨头与会。会议期间,与会国签署了《布莱切利宣言》,同意通过国际合作,建立人工智能监管方法。
根据环球网2023年11月3日综合路透社、美国“政治新闻网”欧洲版的报道,马斯克前日在伦敦与英国首相苏纳克交谈时宣称,人工智能是“历史上最具破坏性的力量之一”,并深入探讨了人工智能的危险和机遇。“人工智能很可能成为一股向善的力量。”他说,“但它变坏的可能性并不是零。”据报道,在峰会前几个小时,马斯克在X平台上发布了一幅漫画,漫画中的美国、英国等都在口头上表达了对人工智能风险的担忧,但暗地里却在思考他们首先开发人工智能的愿望。马斯克在表情包旁边写道:“叹息。”媒体评论说:这意味着在这样一个牵动着未来的“超能力”领域,各国之间仍是合作与竞争并存。
实际上,这种情况在核能发展的国际合作与竞争的案例中早就存在,例如在核武器的制作与扩散的问题上。即是说,类似的风险问题在人类历史上已经出现过:在美国于二战后期首次制造和使用核武器的背景下,1968年7月首先有《不扩散核武器条约》签署,而后2017年7月有《禁止核武器条约》通过。这些条约可以说是人类对毁灭性武器的某种监管的意向和努力的表达。至于它们是否有效,这取决于我们如何看待或解释这七十多年来核武器发展的局面:它们可能是有效的,因为至今没有大规模核战争爆发;它们也可能是无效的,因为越来越多的国家现在拥有了核武器。根据历史的经验,未来人工智能监管的成效看起来不太可能会比核武器监管的成效更好。
不过人工智能作为工具或武器的发展要比作为工具和武器的核能的发展要迅猛很多。此前AlphaGo成功的案例已经证明,只要具备游戏规则,人工智能在任何方面都可以比人类玩得更好。而更早的案例,即图灵机在1939年于布莱切利庄园破解德国密码系统恩尼格玛密码机和金枪鱼密码机的案例,已经预示或展示了这方面的可能性。
会议结束后,苏纳克与马斯克就人工智能展开了一场对话。马斯克担心,如果机器人软件更新后变得不友好,那么该怎么办?苏纳克回答说:“同一部电影被重复播放了50次,我们都看过,而且所有这些电影都以几乎相同的方式结束,即有人找到了一种方法来关闭它。” ——他在这里谈论的是由施瓦辛格等主演的《终结者》(The Terminator)系列电影。 ——但马斯克所暗示的实际上是2023年由汤姆·克鲁斯主演的《不可能的任务:致命清算(第一章)》(Mission: Impossible–Dead Reckoning Part One),在该影片中有名为“智体”(Entity)的人工智能在沙特更新之后出现反人类质变的情节。有消息说拜登在看完电影后便签署了美国政府《关于安全、可靠和可信开发和使用人工智能的行政命令》。这两部电影都暗示了人工智能未来有可能发生自身觉知方面的质变,即成为自觉、自知和自由的人工智能,并因此带来毁灭人类和世界末日的危险。
这些问题和状况已经与当前热议的“有意识的人工智能是否可能”的问题相叠合。我们会在下面对现当代的“意识”研究与人工智能和神经科学之间的关系问题进行逐一的思考与分析。笔者将此问题划分为以下六个方面并尝试给出答案:(1)人工智能的大神经网络、大语言模型、大构架、大平台等等带来的风险会不会最终导致人类的毁灭?(2)当代的各种“意识”研究与人工智能的关系是怎样的?(3)“有意识的”人工智能系统究竟意味着什么?(4)什么是意识的简单模型?意识三分说与“自身意识”与“自我意识”的关系是怎样的?(5)“意识”的人为制作或自行生成是可能的吗?(6)超级智能如何可能“对齐”?去除了“毒素”的超级人工智能是怎样的?此外,笔者已经在另一篇文章中讨论了其余的两个大类的问题:一是脑机结合可能引发的问题有哪些;二是精神科学如何定义“意识”。
问题一:人工智能的大神经网络、
大语言模型、大构架、大平台等等带来的风险
会不会最终导致人类的毁灭?
还在全球安全峰会召开之前,即2023年5月30日,超过370名人工智能专家便曾签署公开信《人工智能风险声明》,信中警告称:对先进人工智能的发展监管不当,可能会对人类构成生存威胁。这份声明只有一句话:“减轻被人工智能灭绝的风险,应该与流行病和核战争等其他大规模社会性风险一样,成为全球优先解决的事项。”
整整5个月之后,即2023年10月30日,即在全球人工智能峰会召开的前一天,美国政府发布了关于人工智能系统的首个法规。这个法规规定:对美国国家安全、经济、公共卫生或安全构成风险的人工智能系统开发商在向公众发布前,需要与美国政府分享安全测试结果。
对此,人工智能界的一些重要代表人物展开了连续多日的关于“人工智能末日论”的争论。报道说吴恩达、杨立昆和辛顿、本吉奥分站两队,集中开火,当面对喷,可谓盛况空前。相对辛顿、本吉奥等人呼吁加强对人工智能技术监管,否则可能引发危险的“人工智能末日论”,吴恩达与杨立昆坚决站在另一边。按照吴恩达的说法:“目前对于人工智能毁灭人类的讨论不仅很模糊,而且结论也只是‘有可能发生’。我们无法证明人工智能不会导致人类灭绝,就像无法证明从地球发射的无线电波不会导致外星人找到并消灭我们一样。”这里我们权且撇开吴恩达对“人工智能末日论者”的各种动机的批评不论,而仅仅关注他指出的一个事实,即关于人工智能毁灭人类的讨论不仅很模糊,而且结论也十分不确定。
这里可以引入我们要讨论的意识问题:如果人工智能只是计算机,那么它就是无意识的、无欲求的、非自主的、不自由的。它的能力就无异于工具和武器,尽管是威力无比的、史无前例的,甚至超出了核电与核弹的能量。当然它的益处和害处也是成正比的。它作为工具和武器既可以助益和拯救人类,也可以损害和毁灭人类——但都需要在人类的操控下。
我们在此基础上可以区分人工智能的发展可能带来的几种风险:
首先,人工智能以某种可能的方式变得自觉、自主、自由,变得有欲望和有情感,也具有将其能力用于彻底毁灭人类的欲望和能力,因此具有成为人类公敌的可能。这是人们讨论最多的,虽然是未来的,但随时可能成为现实的风险。
其次,毁灭和损害部分人群的风险,在无限制使用时造成大部分或全部人类遭灭绝的风险,类似核弹与人造瘟疫。这已是现实存在的风险。
最后,对人类生活带来困扰并因此根本改变人类生活的风险,例如逐渐使大部分人或所有人的一技之长变为无用的,并在这个意义上“失业”。严格说来,这已经不是风险,而是我们长期以来置身于其中的现实,而且看起来是无法逆转的。
我们在这里仅仅关注第一个风险的可能性问题:人工智能是否以某种可能的方式变得自觉、自主、自由,并因此而导致对人类的灭绝?
对此笔者在《人工智能:计算还是思考?》的论文中已经说明:与伽利略尝试将自然世界加以数学化的同时,霍布斯也在考虑将数理模式运用于社会性领域。此后,无论是笛卡尔对认识方法的思考以及相关书信中零星出现的“普全数理模式”观念,还是斯宾诺莎用几何学的方式来研究人的思想、情感、欲望的设想,直至莱布尼茨作为一切科学之基础的“普全数理模式”的提出,都可以视作后来拉·梅特里的“人是机器”以及今日物理主义观念的前期准备。这个趋向在现象学的发展中受到质疑。胡塞尔认为,用一种“普全数理模式”的形式来苛求纯粹现象学的心理学是一种荒谬。而海德格尔则针对自然科学的普遍计算特征提出批评:科学不思。思考与计算在这里形成人类理性内部的对立。在这里进行的分析论证涉及两者之间的本质区别:思考是自觉的、自主的、自由的,计算则恰恰构成其对立面。这也是对思想史上“普全数学”与“自由系统”的对立的再讨论。
而由此得出的结论可以概括为:如果没有现成的和公认的对思考与计算的划分可以利用,那么我们可以先抛出一个本质定义或本质命题:思考是自主的,计算是他主的。思考的充分条件是自主:所有思考活动都必须是自主进行的。当然,并非所有自主的活动都是思考,因而自主并不构成思考的必要条件。这意味着,如果一台机器是自主的,即具有在意志自由前提下进行自行选择和自行决断的能力,不仅包括在利弊之间或在有利的和更有利的之间,而且还包括在善恶之间或在善的和更善的之间做出选择和决断的能力,尤其还应当包括在做与不做之间的选择,那么它就是思考机、智能机;否则就仅仅是计算机。它自己不会具有自发的彻底毁灭人类的意欲,不会成为人类的公敌——除非是通过控制它的人。在这个意义上,人工智能与核能一样,只是工具或武器而已。因而与此相关的可能风险并不来自人工智能,而是来自掌控它的人类自身。
问题二:当代的各种“意识”研究
与人工智能的关系是怎样的?
意识属于宽泛意义上的心理学或精神科学研究的对象,也是各种类型的意识哲学和心学的讨论对象。但目前在学院内外通行的心理学研究大部分已经自然科学化了。这主要意味着用物理学-自然科学的方式来研究心理学-精神科学的做法,意味着对心理现象、心灵生活的客观化、实证化、实验化、形式化乃至数学化等等,意味着对这些手段方法与规范标准的运用和遵循。
在这些自然科学领域的意识研究中,科学家们以往大都会将意识要么当作无法认识的谜或神话讳莫如深,退避三舍;要么当作形而上的思辨或臆想搁置一旁,视而不见。如今则更多是要么悲观地将意识当作神秘的厄运用作未来的警示,要么乐观地当作人工智能性能的升级更新标志。
这里所说的“以往”研究,具体说来是指萨瑟兰(Stuart Sutherland)在1989年出版的《麦克米兰心理学词典》中撰写的“意识”条目。这个条目十分简短,但含有许多错误以及自相矛盾之处;而且关键在于,它被用来标示以往的意识研究的特征,从而具有重大影响:
意识:拥有感知、思维与感受;觉知(awareness)。这个词是不可能被定义的,除非是用一些因为没有掌握意识的含义而无法理解的术语。许多人会落入将意识等同于自身意识的陷阱——意识必定只有在觉知外部世界时才会被觉知。意识是一个令人着迷但难以捉摸的现象:不可能具体说明它是什么,它做什么,或者它为什么会进化出来。已有的文献中没有什么东西值得一读。
后来引用这个说法的有心灵哲学家查尔默斯(David John Chalmers),以及生物学家、镜像神经元的发现者里佐拉蒂(Giacomo Rizzolatti)等等。里佐拉蒂还补充说:“在萨瑟兰的名言之后还没有人在此方面有什么重大进展。” ——事实上,一位像里佐拉蒂这样的神经生物学家需要通过一本老旧的心理学辞典的条目来了解意识及其研究结果,这本身就已经说明了一些问题,至少表明学科之间严重隔阂的状况,不仅是神经生物学与心理学之间的隔阂,更是自然科学与精神科学之间的严重隔阂。而生物物理学家顾凡及的观点则是当代自然科学的意识观点的典型代表:“自从不是每个人都要整天忙于生存以来,就有无数哲人开始思考自己的内心世界是怎么来的,但限于当时的科学发展水平,这些思考长期仅限于内省和思辨。这种情况一直延续到20世纪80年代。”不过说到底,很可能是查尔默斯在其著名的《有意识的心灵》中对萨瑟兰的“意识”条目的引用才使得它一再地成为正反面的教科书式的观点摘引。
这里的一个关节点在于,从物理学-自然科学的眼光来说,意识是形而上的,即非物理学的、非实证的、非客观的,因而对它的研究和讨论就只能是内省的、主观的、思辨的、揣摩的、推测的。心灵生活研究的科学化和现代化本来具有精神科学化和自然科学化两种可能发展方向,现在这两种可能发展方向依然存在,只是精神科学的心理学目前仅仅处在边缘的位置上。而自然科学的心理学的发展虽然成为主流,却至今依然不顺畅,可以说依然处在伽利略之前的物理学的水平,这是因为一个原则性的问题尚未解决。
对于意识哲学和精神科学来说,意识是最为确然的东西,也是笛卡尔通过普遍怀疑排除一切可疑之物而发现的最终留存下来的无法质疑的东西,即作为怀疑活动本身的“我思”(cogito)。我们与其将它译作第一人称单数的“思”,不如将它译作第一人称单数的“意识”,就像文德尔班在其《哲学史教程》中建议的那样,而这也是之前的沃尔夫(Christian Wolff)已经在其相关的德文翻译中默默地施行了的。
现在我们回到萨瑟兰的那段自相矛盾的论述上来,它已经透露出当下意识研究面临的一个窘境:是否可以用完全客观的方法来研究完全主观的东西?换言之,是否可以用自然科学的思维方式与方法来研究精神科学的对象与论题?
对这个问题究竟是做肯定的回答,还是做否定的回答,这取决于一个哲学的问题:即主观的东西是否可以被还原为客观的东西,或者说,意识或精神是否可以被还原为物理或自然。目前在自然科学界和科学哲学界盛行的“物理主义”和“自然主义”便代表了对以上问题的肯定回答,在意识哲学和精神科学领域中仍然得到持守的则是对以上问题的否定回答,它依据的是特定意义上的“心理主义”与“主体主义”。这两种截然相对的回答是在自然科学与精神科学及其各自的意识理论之间存在不可逾越的隔阂或鸿沟的原因。
前面所说的“如今”研究,则与当前自然科学的意识研究状况相关联。人工智能的发展已经达到准备突破单纯的智能,进入意识总体的领域,即开始讨论有自我意识、有情感和意欲的人工智能的可能性问题,开始讨论“类意识”“准意识”“人工意识”的可能性问题,开始讨论自觉的、自主的、自由的人工智能的可能性问题。近年来日趋常见的告诫就是,各种形式的“有意识图灵机”会在不远的将来出现,而且会带来不可测的后果。借助某些大型智能机器或某个大语言模型或大型Al架构或大数据+算法+算力等等来完成的超级智能(GPT-4、5、6…)、通用人工智能(AGI)、超级人工智能、生成式人工智能、交互式人工智能,如此等等,最终有可能产生控制人类乃至毁灭人类的欲念与能力。我们接下来会对目前人工智能和神经科学提出并尝试解决的“意识”问题进行案例分析。
在本节结束之际,笔者还要引述一篇文章:一篇2023年发表于Cell子刊Trends in Neurosciences的论文《从神经科学的角度看人工意识的可行性》。在该文中,“三位分别来自计算机科学、生物学和神经科学的学者深层剖析了‘人工智能能否产生意识?’这个问题”,这些科学家怀疑,“人工智能可能已经被抽离掉了意识本身,它将被困在永无止境的模拟意识中,却没有任何现象意识可言”;而且他们相信,“简单地向人工智能系统输入大量数据流并不能够使智能系统自身产生意识”。
这些想法与笔者想要表达的意识研究方面的思考十分相近,尽管它们不是出于“纯意识”研究的立场。笔者尤其关注的是这篇文章的标题“从神经科学的角度看人工意识的可行性”(The Feasibility of Artificial Consciousness through the Lens of Neuroscience),因为其中包含了“人工意识”的概念。早在2014年10月24日于西南民族大学的讲座“假如超越是可能的——一部科幻电影的哲学解读”中,笔者就根据电影《超越》(Transcendence)而提出了“人工意识”的概念。后面我们还会谈到这部电影。
问题三:“有意识的”人工智能系统
究竟意味着什么?
“人工智能目前没有意识,但是以后会有。” ——这是图灵奖得主本吉奥联合19人团队2023年8月发布的88页论文所表达的结论。尽管目前直至GPT-4o在内的人工智能系统都不具备意识,但报告者认为,“人类想要构建有意识的人工智能系统,并不存在明显的障碍”。而在此之前,查尔默斯就已经宣称:“大语言模型预示,不出十年,我们很可能搞出有意识的人工智能。”
与这些说法相关的是此前不久人工智能研究界讨论的另一个问题,即大型的人工智能系统是否已经自行生长出了意识,哪怕是“微弱的意识”(slightly conscious)。按照杨立昆的观点:虽然目前还没有这种情况出现,但在一种目前所有神经网络都尚不具备大型架构的支撑下,这会成为可能。
因此,我们能否制作出有意识的机器或有意识的人工智能系统?人工智能是否能够自行生长出意识?这两个问题或许可以合并为一个问题:人工智能需要具备哪些条件才能具有意识?
不过,在回答这个问题之前,实际上我们必须先回答另一个问题:这里使用的语词概念,即这里所说的“有意识”(或“有灵魂”)究竟是指什么?——它是专指人所具有的那种意识,还是与人所具有的相似的意识,还是泛指一般高级动物的意识,或者包括低级动物如水母的意识,甚至是指植物的意识?即是说,在进一步讨论问题之前,我们有必要对这里的核心概念“意识”做一个定义,哪怕是临时的描述性定义,否则我们关于人工智能的意识的问题讨论就无法继续进行下去。
因此,首先的问题是:动物有意识吗?按照2012年由一组认知神经科学家、神经药剂师、神经生理学家、神经解剖学家和计算神经学家所发布的“剑桥意识宣言”,对此问题的回答是肯定的:
大脑新皮层(neocortex)的缺失似乎并不妨碍生物体对情感状态的体验。趋同的证据表明,非人类动物具有意识的状态的神经解剖学、神经化学和神经生理学的基质(substrat),以及表现出有意识的行为的能力。因此,大量证据表明,人类在拥有产生意识的神经基质方面并非独一无二。非人类动物,包括所有哺乳动物和鸟类,以及许多其他生物,包括章鱼,也具有这些神经基质。
这个“意识”定义在总体上将意识理解为神经基质的相关产物,而具有神经基质的生物都可以是有意识的生物。笔者将基于这个“意识”定义的研究视作“准意识”研究。它对以往在意识理论或意识哲学方面被默认的“意识”概念,例如作为体验、或作为思维、或作为自我认知等等,做了生理学、神经学方面的改写,因而相对于萨瑟兰的“意识”定义已经是一个很大的进步。不过,它涉及的更多是意识的基质而非意识本身,其内容也更多是一种特征刻画和性状描述,而非通常意义上的概念定义。
与此相关,在“剑桥意识宣言”中提到的“对情感(affective)状态的体验”暗示了对“意识”的另一个定义。该宣言前面的表述也使用了“情绪”(emotional)、“感受”(feeling)、“情绪的感受”(emotional feelings)、“原始情绪感质”(primal affective qualia)等等概念。这是在另一方面对“意识”概念的扩展:意识不仅仅与感知、思维与认知活动相关,而且还主要与情感、情绪和感受有关。不过很可惜,这些已经被心理学家、心灵哲学家和意识哲学家使用和讨论了很久的概念,包括意识概念在内的情绪、感受、感情、情感、激情、触发、触动、心绪、感觉、感动等等表达,至今为止都仍然是含糊不清的和未经界定的。由于它们各自的界限不明,对它们的使用也莫衷一是,始终无法在科学研究的领域形成共识。就此而论,“剑桥意识宣言”所传达的神经科学界的“意识”研究进展,其主要的作用就在于宣告,非人类的生物同样具有与人类相似的或趋同的“有意识”行为的基质与能力。
直至今日,在“剑桥意识宣言”发布十多年之后,我们仍然要说,在人工智能和神经科学界,乃至心理学界,仍然没有一个公认的、确定的意识定义,或者说,目前的现状是:科学家们仍然苦于无法得出一个明确可靠的“意识”定义。如果人们想要谈论“有意识的”或“没有意识的”或“有微弱的意识”的人工智能,那么这个“有意识”指的是类似非人类的意识还是类似人类的意识?易言之,非人类生物的意识与人类意识的本质差异何在?这都是有待回答的根本问题。总之,自然科学的“意识”概念至今仍然是一种界限不明的状态和特征,因而仍然是一个含糊乃至空泛的符号。
事实上,如果“意识是什么以及如何显现”的问题没有得到回答和解决,那么人工智能会进化到有意识的3.0版的生命形态并对人类构成威胁,这类预言只能是危言耸听。
这里还需要面对“剑桥意识宣言”中没有提出和回答的问题:非人类生物的意识与人类意识的本质差异究竟何在?我们在这里所要讨论的是一个首先应当由“纯意识”研究来回答的问题,因为它涉及人类意识本身的内在基本特性,只有通过人类意识的自身反思才能获得对这个内在特性的首要的、直接的答案。
不过这里可以补充一个信息,据路透社报道,英伟达的首席执行官黄仁勋2024年3月1日出席美国斯坦福大学的一场经济论坛时,被问要花多久时间才能达成硅谷长期以来的目标,也就是创造出能像人类一样思考的电脑。他回答,这个问题的答案很大程度上取决于如何定义目标,若定义是具备通过人类测验的能力,通用人工智能很快就会问世;而若以其他定义来说,通用人工智能可能还远得很,因为科学家们对于如何描述人类心智运作仍有歧见,“所以,身为工程师很难达成目标”,因为工程师需要定义明确的目标。 ——这是笔者读到的在所谓“有意识的”“能思考的”通用人工智能问题上最实在和最诚实的回答之一。而之所以是“之一”,乃是因为我们在杨立昆、吴恩达等重要人工智能研究者那里也可以发现类似的朴实无华的观点和立场。
问题四:什么是意识的简单模型?
意识三分说与“自身意识”与“自我意识”
的关系是怎样的?
可以说,在2020年最新出版的三卷本遗著《意识结构研究》(《胡塞尔全集》第43卷)中,胡塞尔提供了意识的一个“简单模型”。他在这里致力于从纯粹意识现象学的立场出发,对意识的基本结构或简单模型进行系统的、普全的观察、描述和把握。而其中的一个主要论题便是“内意识”。关于这个论题,胡塞尔在其公开发表的著作《逻辑研究》和《内时间意识现象学讲座》中已经有所讨论,但未做充分展开的分析。而在此次出版的《意识结构研究》的未发表研究手稿中,仅“内意识”概念,他便提到有近70次,其中还包括他两次提到的“内意识现象学”。虽然这些讨论还很分散,并不系统,距离一门成熟的“内”意识现象学的观念还有距离,但它们仍然展示出他在这个问题的思考上有了相对于前期的重要进展。的确可以说,胡塞尔在1911年之后在“体-用”两个方面完成了内意识问题研究的突破,而且的确有理由谈论一门与“意向活动现象学”和“意向相关项现象学”相并列的“内意识现象学”。胡塞尔在《意识结构研究》中对意识的这个“意向活动-意向相关项-自身意识”的三分结构的把握与玄奘在《成唯识论》中阐释的对意识的“见分-相分-自证分”的三分把握是遥相呼应的,而且提供了更为细致的分析与说明。
简言之,胡塞尔的内意识现象学在内意识的“内意向性”和“内实存(内设定)”的两个方向上得到了展开,说明了它在非对象性的内意向性方面和作为反思的基质的内实存方面的特征。据此我们可以明确区分两个意识概念:“内意识”或“自身意识”(inneres Gewahrwerden, self-awareness)与通过反思而获得的“自我意识”(Ich-Bewußtsein, Ego-consciousness)。现在,当我们说这个机器、程序、架构、人工智能系统是“有意识的”,那么我们首先需要说明:这里所说的“有意识”,究竟是指有“内意识”,即有“自身意识”,还是指有“自我意识”,还是两者兼而有之。前者是伴随着意识的进行而起作用的,后者是通过对意识的反思而被构造出来的。
当然,胡塞尔的这些意识分析仅仅是针对纯粹意识结构来进行的。也就是说,它是对确切意义上的“纯粹意识”现象有效的。而非人类的意识是否也具有或是否也应当具有这样的内意识和自身反思的特点,这是一个很难回答的问题,因为对其他非人类意识的直接把握不可能通过自身反思来获取。这也是人类对动物心理或动物意识的研究永远只能通过外部观察和间接推理来进行的原因。
但我们通过对人类意识结构的直接把握至少可以将我们面临的问题再推进一步,可否通过这些考察而最终得出:在人类意识与其他意识(包括动物意识和人工智能的意识等等)之间存在的本质差异就在于,前者是伴随“自身意识”“内觉知”的意识,而后者则不是。这还是一个开放的问题,有待进一步的思考。而与此相关有待回答的另一个问题是,是否“内意识”或“自身意识”作为“基质”为随后的反思提供了可能,由此导致“自我”在反思中被构造,即“自我意识”的产生以及“本己人格”的形成。这会导向一个根本性的问题:究竟是人的“自身意识”或“内意识”的能力,还是人的“反思”或“内省”的能力,抑或是这两者的共同作用,才最终使得人类意识成为如此特别的意识,以至于任何现实的非人类意识和任何可能的人工意识都无法与它相提并论呢?
可以说,胡塞尔的《意识结构研究》提供了一个初步的或“简单的”意识模型,或者说,勾画了人类意识的基本结构。这里所说的“简单”,一方面是相对于“意识场域”的极度复杂的流形而言;而另一方面,这里的工作与人工智能研究界目前思考和尝试的“有意识的人工智能”方面的思考和探讨至少在说法上有一致之处,即:“我们不是在寻找大脑的模型,而是在寻找意识的简单模型。”
种种迹象表明,人工智能研究界目前对意识模型的寻找仍然是基于“类意识”的定义,即将意识定义为大脑中的信息。它与“纯意识”研究界对意识的定义是不相符的。对于后者来说,意识是自觉的、自主的和自由的,尤其是其中的意志意识。而目前的“类意识”研究则很可能忽略了这一点。例如曼纽尔·布鲁姆与莱诺尔·布鲁姆提到一个观点:“计算需要时间。从这个角度看,理论计算机的观点可以改变我们对‘自由意志’的定义,即:自由意志是计算不同行动路线的后果的自由,或在可用资源(时间、空间、计算能力和信息)范围内尽可能多地计算这些后果,并从中选择最合适的自动路线……无论计算系统是由血肉组成的,还是由金属和硅组成的,意识都是所有合理组织的计算系统属性。从这点出发,有意识的图灵机(Conscious Turing Machine)不是为大脑建模,也不是暗示意识的神经关联,而是一个简单抽象的意识计算模型,试图理解意识及其相关现象。”而唐纳德·霍夫曼则已经直接提出并回答“我们能否构建出意识的数学模型”的问题了。在这些主张中,我们可以读出将“意识模型”等同于某种“计算系统属性”或等同于某种“数学模型”的意味。据此,笔者更愿意将其称作“类意识”模型,因为它建基于对“意识”作为大脑信号的理解与定义之上。
对此,如前所述,笔者已经通过对思考与计算之差异的说明,即“思考是自觉的、自主的、自由的,计算则恰恰构成其对立面”,表达了“纯意识”与“类意识”的本质差异。而对心理现象、心灵生活的客观化、实证化、实验化、形式化乃至数学化等等只能用于作为信息的“类意识”,不能用于作为被内觉知到的心理体验的“纯意识”。这里不再赘言。
还需要补充的是前引三位来自计算机科学、生物学和神经科学的学者近期在意识研究方向上所做的思考和讨论,他们已经开始怀疑,“生物学是复杂的,我们目前对生物计算的理解是有限的,因此也许我们缺乏正确的数学和实验工具来理解意识”;但他们仍然相信,“意识在原则上是可以实现的,但它可能需要超出当前(也许是未来)人工智能系统的计算特异性水平”。就此而论,在意识研究方面,这些学者可能要比大多数人工智能和神经科学的研究者和制作者要更为谨慎一些,而且目光也更宽广一些,尽管仍然囿于“类意识”和“准意识”的意识定义与认知。而在笔者看来,缺少了“纯意识”的角度和立场,意识研究最终还是无法得到推进和拓展的。
问题五:“意识”的人为制作或“意识”的
自行生成是可能的吗?
根据前面的阐释,对“‘意识’的人为制作或‘意识’的自行生成是可能的吗”这个问题的回答首先取决于对这里的“意识”的理解和定义。笔者认为,如果我们理解的“意识”是“纯意识”,那么它的人为制作和自行生成是不可能的,可能的仅仅是“类意识”和“准意识”。
不过,在涉及与此相关的人类意识上传的设想和数字生命设想的问题时,还需要做一些特别的讨论。从1999年开始的《黑客帝国》四部曲(The Matrix, 1999—2021),到2012年的电影《超越》(Transcendence)以及2022年开播的电视剧《万神殿》(Pantheon),都设想了将人类意识上传(Uploaded Intelligence,简称UI),使之成为永恒的数字生命的可能性。
笔者在《意识现象学教程》的附录“人工意识论稿之二”中曾讨论过这种可能性:“我们可以将上面列出的那些基本要素编排到人工意识的系统中,无一遗漏;接下来还可以将人类具有的各种情感和意欲的类型植入这个系统;最后还可以将人类历史上出现过所有人类意识的经验范本作为数据资料输入这个系统。这里有类似人工智能的三个核心要素的东西存在:算力、算法和数据。但这个对于AI而言的三要素显然还不足以构成AC的核心要素的全部。从AI到AC的发展必定是一个质的飞跃,因而必定会有新的要素加入进来。而其中在我看来最重要的是那个将此AC系统激活并使其在活的当下之中运行的那个要素。或许它已经包含在算法的要素中了,对此我没有把握。这是人工意识的设计者和制作者要回答的问题。”
这种设想至今在相关领域都没有得到实现,原因或许在于,如何“激活”这些意识数据和意识要素,从而使其成为统一流动的意识生活的问题没有得到解决。
这个问题在前引三位学者的《从神经科学的角度看人工意识的可行性》一文中也已经被提及,而且是在“意识的‘整合’问题”的标题下。它涉及意识统一性问题,因为“尽管意识产生于不同的大脑区域,但意识是统一的”。
可以说,意识的统一,即意识的自我统一或人格统一,是对多层次、多方面、多阶段的意识要素和意识数据的统合的结果。在这个问题上,胡塞尔的意识结构与意识发生的现象学已经做了大量细致入微的描述、分析、解释的工作。而就自我或人格的统一而言,自我意识是通过反思而被改造出来的统一的对象性意识,而自身意识则是前反思的、伴随意识进行的统一的非对象性意识,而前者,即自我意识,是需要以后者即自身意识,为基础或为基质的。
据此也可以得出意识现象学的“意识”定义:意识是主观的心理体验,即可内觉知的心理体验。与此相应,不可内觉知的心理体验是确切意义上的无意识(Unbewußtsein)。
从这个角度看,不仅“意识”的人为制作是不可能的,而且“意识”的自行生成也是不可能的。在前引三人合作的《从神经科学的角度看人工意识的可行性》一文中提出的观点已经接近了这个定义以及与之相关的结论,尽管是借助了不同的语言表达:“这里强调了一个概念,即环境预设了一种固有的主观视角,也就是说,要从一个主体出发。同样,可供性取决于主体的内部性质,特别是主体的动机和目标。这意味着仅仅通过环境(大语言模型的输入数据)还不能够产生意识。因此,简单地向人工智能系统输入大量数据流并不能够使智能系统自身产生意识。”
当然,我们在这里所说的是,按照人工智能目前的发展进程,以及通过人工智能目前使用的方法,是无法制作或产生与人类意识完全相同的意识的。目前在人的判断与机器判断之间的区别、在人的计算与机器计算之间的区别、在人的意志与机器意志之间的区别是有意识或无意识的区别。按照胡塞尔在《意识结构研究》中的说法:“让我们设想,我们可以变为一台判断机器,这样我们就可以事先做到这一点,即我们可以而且将会在没有任何明见的情况下始终做出正确的判断。”这里的“明见”,是指清晰的、确然的内意识,它伴随人的判断,但它在机器计算那里是缺失的。
以人的计算活动为例,我在计算2+2时有确切的把握,在计算12+12时也有比较确切的把握,但在计算12×12时就已经不太有把握了,而在计算12的12次方时则完全没有把握。这是因为,在这个计算的过程中,我的计算对象越来越缺乏直观性和确然性,而我的计算活动本身也越来越缺乏明见性。这个随着运算对象与运算活动(或思维对象与思维活动)的变化而一同变化的主观性和明见性是人类意识的一个基本要素,可以说是其三个要素之一:除意向活动、意向相关项之外的自身意识,也就是佛教唯识学所说的三分中的一分:除见分、相分之外的自证分。
如果人工智能有朝一日成为“有意识的”,而且不是在含糊意义上,而是在本真的意义上,即在“纯意识”的意义上是“有意识的”,那么人工智能的运作活动也必须具有这个三分结构。而如果人工意识并不需要完全模仿人类意识,就像人工智能并不需要完全仿效人类智能一样,那么人们在宽泛而含糊的意义上谈论“机器意识”或“机器智能”也未尝不可,就像一直以来就有的关于动物意识和动物智能的说法一样,况且还不会给人造成危言耸听的印象。
问题六:超级智能如何可能“对齐”?
去除了“毒素”的超级人工智能是怎样的?
人工智能研究界近期在“对齐”(alignement)的概念下有一系列的倡议和举动,例如根据“新智元”2023年8月7日的报道:“OpenAI预言:超级智能10年内降临!正集结算力拯救人类,4年彻底攻克对齐。”这里所说的“对齐”意味着:要求人工智能系统的目标要和人类的价值观与利益相对齐(保持一致)。“OpenAI正式宣布,组建一个由顶级机器学习研究人员和工程师组成的团队—— ‘Superalignment’。在接下来的四年里,OpenAI将投入到目前为止获得的计算资源中的20%,用于解决超级AI的对齐问题。OpenAI表示,自己的目标是在四年内解决超级智能对齐的核心技术挑战。”
这里涉及的是人工智能的研究界和产业界在对超级智能的伦理治理与风险防范方面的诉求,有别于前面提到的在各国政府的层面对人工智能技术的国内与国际的监管。对人工智能的未来发展抱持悲观态度的“人工智能末日论”的倡导者马斯克和奥尔特曼作为人工智能企业的代表和专家被邀参加首届人工智能安全全球峰会,在某种程度上表明企业与政府乐于共同来承担预防和化解风险的责任。
但问题在于,如果这种“对齐”是指:人工智能系统的目标要和人类的价值观与利益保持一致,那么这个要求显然已经包含了一个预设的前提,即人类具有普遍的价值观与共同的利益。它可以由“超级对齐”(ASI)的人工智能来代表,最终做到与通用智能的对齐。然而这个预设的前提并不存在,至少不是不言自明的:当人们说“我们得让大模型跟我们人类的想法是一致的”时候,这里的“我们”是一个内涵不明的指称,而共同的价值观与其说是一个已有的前提,不如说是一个仍须追求的目标;与其说是一个由自然科学家来确定的事实,不如说是一个更应当由思想家、哲学家、文学家、史学家等人文学者和精神科学家来共同制定和建立的精神信念与价值目标。
然而从轴心时代起,人类就从未能构建起这样一个统一的人类理想和共同持守的价值观念。无论是古代人尝试的各类伦常法则与道德法典,还是近代人提出的“绝然律令”,或是当代人寻求的“金规则”以及“正义原则”,或是阿西莫夫设想的机器人学的“三大法则”等等,都没有成熟到能够成为人类共同执守的以及机器人应当遵守的价值标准的程度。
而且,即使存在着这样的价值标准,易言之,即使我们找到并认同这样的共同价值标准,它们也必定是形式的、抽象的、贫乏的,无法成为在价值观念上“对齐”的“标的”。哪怕是在对如今被使用较多的文明与野蛮的标准以及它们在人类发展史上的相互关系的理解方面,各人、各家、各族、各国以及各种类型的共同体的理解也从未达到过一致。
如果按照舍勒在价值等级秩序方面所做的四个层次的划分,即从最高的神圣价值到较低的精神价值,再到更低的生命价值以及最低的感性价值,那么人类目前能够共同认可的价值类型主要是在后两类,但即使是在这两个方面,各个文化传统中也持有不同的态度与立场:佛家对各种无明和大小烦恼的破除,儒家对七情、道家对六欲的抑制,犹太教的十诫、基督教对七宗罪的判处,如此等等。
若想用某种“超级对齐”的方案来为未来的超级智能消除“毒素”,那么首先的问题就是,什么有可能是超级智能中的“毒素”?这也意味着,什么是“有意识的”人工智能或通用智能的“毒素”。在人类的意识总体中,即在知、情、意的行为中,有单纯的、无毒的智能,单纯的、无毒的情感,单纯的、无毒的意欲吗?
我们当然可以笼统地说,所谓“有毒的”就是例如血腥暴力的、淫秽色情的、有伤风化的、少儿不宜的、乱伦变态的、残酷虐待的、恐怖低俗的、种族主义的、性别歧视的,等等,即各种意义上道德禁忌的或政治不正确的。如果如此,那么“对齐”的方案也就相当于目前已有的网络监测、报纸杂志、电影电视的审查以及舆论监督控制等等,仅此而已。
总之,由于“对齐”的统一“标的”不存在或不明确,“对齐”只可能是一个模糊不清的说法,最终是一个不可能的任务。
而在笔者撰写本文期间,奥尔特曼在一次谈话中提到:人类现在已经足够接近通用智能的阈值,提升人工智能的能力变得不那么重要。我们当前面临的问题是如何定义通用智能。它是OpenAI的终极目标,也是人类最完美的产品。对照前面提到的OpenAI在通用智能与超级对齐方面的投入和努力,我们在其中似乎既看到了终结者的身影,也看到了救世主的身影,它们几乎是相互交叠的。
(为适应微信排版与阅读,注释从略,转载引用等请参阅期刊原文。)
往期推荐
张锦枝 | 尽性与尽孝:张载“乾父坤母”说的思想意蕴与现代转化