四十二史
未来法学:作为法学思想实验的科幻(下)
The Future Law: Science Fiction
as Legal Thought Experiment
作者介绍
陈颀,中山大学法学院副教授。本文系国家社科基金一般项目《基于“法律与文学”视野的中国话语体系研究》(19BFX023)的阶段性成果。本文刊载于侯猛、陈颀编:《法律和社会科学:法律与科幻专号》(第19卷第2辑),法律出版社2022年版。
三、人工智能与科幻思想实验
以斯科提亚-库珀的“What if”问题及其回答界定思想实验的可能世界模型,相对于“主流文学”,科幻思想实验因其对未来社会的推测和思考而具有独特的功能和意义,正如斯科提亚所言:“……科幻小说尽管有其娱乐价值,但是它担负着一项光荣的使命,那就是向人类展示可能的未来, 辨识历史进程中关键的节点。……科幻小说以其世界末日式的警告, 使我们有机会去思考无情的未来之旅的不同路径。”[1]作为思想实验的科幻,最广为人知的实例莫过于科幻文艺对于人工智能科学家的重要启发和影响。借助“What if”思想实验模型,可以从建构内在一致和不一致的人工智能思想实验模型。首先是回答“What if”的内在一致的人工智能的外推模型。当技术尚未发展到某种程度、现实实验所需的客观条件尚未满足的时候,科幻思想实验能够通过回答“What if”问题,实际上进行了理想化的现实实验。在“人工智能之父”艾伦·图灵的奠基论文《计算机器与智能》(1950)中,参考文献的第一篇就是科幻小说《埃里汪奇游记》(Erewhon)。[2]在这部出版于1865年的科幻小说中,塞缪尔·巴特勒第一次提出了假如“机器生产机器”会怎样的思想实验,这种科技发展的未来可能性刺激了图灵构思人工(机器)智能的理论基础:
《埃里汪奇游记》
“在某些限度之内,机器能够生出任何种类的机器,无论这些机器与它们本身多么不同。每一类机器也许会有它们的特别机器生殖者(a machine’s reproducing another machine),而且所有较高级的机器都把它们的存在归功于很多的父母,而不是仅仅两个。如果把任何复杂的机器看成是一件单独的东西,那我们就会被引入歧途;事实上,它是一座城市或者一个社会,这个社会的每一个成员都是真正地按照它的种类生殖出来的。我们把机器看成是一个整体,我们用名字称呼它并赋予它个性……”。[3]
”
在《机器智能,一种异端理论》(1951)中,图灵进一步探讨人工智能的一般原理。[4]面对“人无法制造一种像人一样思考的机器”的常见质疑,图灵提出,根据哥德尔定理等数理逻辑,机器可以像数学家一样“论证”,因此高真模仿人类的心智行为的机器是可以制造出来的,尽管“它”可能像人的工作一样犯错误。假设这样的智能机器是真正可能的,那么我们预期建造它们的后果。机器思维的发展可能会超越“我们”的微薄力量,让我们无法理解机器如何表达。图灵进一步指出,当机器能够通过“机器学习”的方式增进智慧,那么《埃里汪奇游记》的“机器社会”就将成为现实:“机器不存在死亡的问题,它们将互相交流学习,增进彼此的智慧,于是在某个阶段,我们能够预期机器会按照巴特勒《埃里汪奇游记》中所描述的那样获得(自我)管理控制的能力。”[5]
无独有偶,“控制论之父”诺伯特·维纳在发表于1948年的《控制论》(cybernetics)中也援引巴特勒的机器暗中统治人类社会的“幻想”。[6]尽管机器社会存在为恶的可能性,然而维纳更为关注《埃里汪奇游记》中人类大规模使用和接纳机器的关键因素:机器劳动是一种“奴隶式”的劳动,这让机器劳动在与人类劳动的竞争中存在优势,在市场社会中这种优势尤其明显。维纳指出,由此推演,大规模自动机器劳动不见得一定是件好事,这会继两次工业革命后进一步贬低人的劳动以及人本身的价值。[7]在自动机器在工业社会作恶的潜能问题上,科幻小说家巴特勒的构想让科学家维纳心有戚戚焉。
当然,“机器生产机器”只是机器社会的第一步,机器要实现“自我管理”,就需要具备某种“智能”,这便是人工智能:让机器像人一样思考,甚至超过人类。计算机可以像人一样思考吗,它的标准是什么?实际上,人工智能的著名概念“图灵测试”(Turing test)与塞尔的“中文屋论证”(the Chinese room argument)就是两个针锋相对的思想实验。按“图灵测试”的标准,大脑就是一台数字计算机,心智不过就是计算机程序。这种思维的行为主义界定,遭到了哲学家塞尔的反驳。通过中文屋的思想实验,塞尔认定,即便机器通过了图灵测试,也不可能真正达到人那样的自主意识。就此而言,塞尔的理论可以被用于论证某些人工智能科幻思想实验的无效。[8]比如按照塞尔的看法,像科幻类连续剧《西部世界》中德洛丽丝那样自我觉醒并摆脱和反制人类的超级人工智能,可能永远不会出现。不过,塞尔也承认他批评的是数字程序计算机,在理论上我们能够发明其他类型的、具有某种生物化学特征的计算机。[9]
2020年初,人工智能科学家李德毅院士在中国人工智能学会会刊《智能系统学报》提出了“新一代人工智能十问”,其中有若干问题,就与图灵测试和中文屋论证两个思想实验题息息相关。比如第一问,意识、情感、智慧和智能,它们是包含关系还是关联关系?是智能里面含有意识和情感,还是意识里面含有智能?第三问,目前所有人工智能的成就都是在计算机上表现出来的“计算机智能”,存不存在更类似脑组织、能够物理上实现的新一代人工智能?第四问,机器人不会有七情六欲,还会有学习的原动力吗?如果没有接受教育的自发性,还会有学习的目标吗?在实证意义上,目前学术界作为一种人造物的人工智能的意识与智能关系及其情感等难以达成共识,但想象和思考这个问题本身仍然是很有意义的。退一步而言,即便是与人的自主意识存在本质差异的计算机器的“强人工智能”,也随着近期人工智能复兴和应用过程中引发社会巨大变化。比如,晚近在大数据加持下,利用人工神经网络进行机器学习,赋予了机器自我学习和自我升级的能力。尽管神经网络和深度学习的基础理论特别是可解释性仍然像个“黑盒子”,有待进一步研究。此外,基于人脑的“脉冲”(spiking)模拟计算框架下的第三代神经网络模型——脉冲神经网络(SNN)旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算,其目标是研究人类大脑的工作机理并模拟出一个与人类一样具有思考、学习能力的人工智能。[10]又比如量子计算机的理论构想旨在利用量子比特微妙的量子状态来进行一些传统计算机无法完成的计算,目前已在实践中实现了“量子霸权”(quantum supremacy),或者叫量子优越性(quantum computational advantage),即在某个特定问题上的计算能力远超现有最强的传统计算机,而传统计算机在有限时间内无法完成计算。[11]有学者提出设想,在量子人工智能中,信息处理过程可以用量子力学解释的量子力学算符的组合来表示。而在普通经典计算机中实现的经典人工智能信息处理过程的机制通常在一个黑匣子内。因此,量子人工智能或许能够比经典人工智能更具可解释性。[12]
总之,人工智能的现在与未来存在许多的理论和实践挑战。在这个意义上,基于“what if”问题的科学或逻辑回答的人工智能的科幻想象,无论是基于图灵测试或是中文屋验证的科学-哲学思想实验,还是《埃里汪奇游记》《西部世界》等科幻思想实验,都构想了某种人工智能的科学或社会逻辑未来可能性的思想实验。
四、机器人三定律的法学思想实验
从斯科提亚-库珀的思想实验的可能世界模型出发,本文认为,未来法学是一种法学思想实验,我们可以借助科幻想象检验现有法律规则在未来社会的可能实践后果,构造未来社会的可能的法学概念、规则和原理。作为人文社会科学思想实验的重要类别,法学思想实验可以构造无法通过法律规则推理或法律实证经验直接研究的法学思维场景,推断/预测或探索(类比)科技社会发展变迁引发的(可能)新的法律问题及规则重构,建构未来法治的可能世界。作为法学思想实验的科幻文艺,其思想构造最特别的意义是能通过经验基础上的叙事和意象充分调动法律人的“想象力”,推演构造未来法学中新的法律概念、规则、原理及其潜在后果的“可能性”,或者反驳某些现有法律概念、规则、原理与未来法治的“不可能性”。
面对新科技革命后不断涌现的科技-社会风险问题,现存的实证法规则存在滞后性,常常在一刀切“预防原则”与“自由放任”的二元对立之间做出选择。即便可以通过法律实证研究,依据新科技带来新法律经验构造,然而人工智能、生物科技等新科技发展的“奇点效应”常常让科技规制的法律实证研究缺乏用武之地,或者做出了缺乏内在一致的规则决策。如中科院院士谭铁牛在十三届全国人大常委会专题讲座(第七讲)所言;“我国对人工智能可能产生的社会影响还缺少深度分析……在人工智能领域的法律法规制定及风险管控方面相对滞后,这种滞后局面与我国现阶段人工智能发展的整体形势不相适应,并可能成为我国人工智能下一步创新发展的一大掣肘。”[13]因此,为了迎接和应对人工智能科技发展及其社会后果的挑战,人工智能法学研究需要跳出原有法学研究方法的“舒适区”,以思想实验方式想象建构未来法治的可能世界。
《新机器人法》
让我们从人与机关系的最著名的阿西莫夫机器人三定律(Three Laws of Robotics)开始提问:机器人三定律可以构成规范人机关系的基本规范吗?[14]作为机器人学(robotics)概念的创造者和哥伦比亚大学化学博士,可能是二十世纪影响力最大的科幻作家阿西莫夫推测,随着机器在人类生活中发挥更大的自主性和更大的作用,我们需要严格的法则以确保机器人不会使人们处于危险之中。在现实法律意义上,机器人三定律得到了立法和伦理政策的积极回应,机器人三定律可能是有史以来最著名和最有影响力的科技政策科幻小说,已被不少机器人法律草案、伦理规范或政策报告所采纳。2017年2月,欧盟议会通过全球首个“关于制定机器人民事法律规则的决议”,第T条基本原则提出:鉴于阿西莫夫定律应当可以适用于具有自主性和自我学习能力的机器人的设计者、生产者和操作者,尽管阿西莫夫定律并不能转化为机器代码。[15] 2012年韩国《机器人伦理宪章》也将机器人三定律直接规定为第3—5条规则。[16]英国标准协会(BSI)2016年发布了全球首个机器人伦理标准《机器人和机器系统的伦理设计和应用指南》在“阿西莫夫机器人三定律的基础上”,增加了对机器人研究、制造和使用的道德风险评估,不许以智能机器人对人类造成伤害、欺骗和成瘾,以保证AI能够融入人类社会现有道德规范。[17]2018年英国上议院任命的人工智能特别委员会的报告《人工智能在英国:准备就绪、孜孜以求还是力所能及?》提出,需要认真对待阿西莫夫机器人三定律的“思想实验”以及科幻对于人工智能领域的决策和公众辩论的重要性。[18]此外,伴随人工智能、软件自动化和工厂机器人技术的兴起,机器及其制造者可能带来的危险变得更加复杂和紧迫,在近著《新机器人法》中,法律和人工智能学者帕斯奎尔在机器人三定律的基础上设计了新的四条机器人法则:第一,数字技术应该“辅助专业人士,而不是取代他们”。第二、人工智能和机器人系统“不应该假冒人类”。第三,应当防止人工智能加剧“零和军备竞赛”。第四,机器人和人工智能系统必须强制“表明其创造者、控制者和所有者的身份”。[19]
另一方面,从诞生之日起,许多人工智能研究者就完全否认机器人三定律的科学意义,他们的检验标准是上节提及的图灵测试或中文屋论证。按照图灵测试的逻辑,测试者已经无法区分人与机器,被认为具有人类智能。而机器人三定律则是针对具有自主意识的强人工智能的开发、设计和操作法则,有三种简单方法可以区分机器人与人。因此,在逻辑上,机器人三定律与图灵测试相违背。同理,更“高阶”的中文屋测试同样与机器人三定律相冲突,通过中文屋测试的机器人已经具备人的意向性,因此不可能会在底层系统上受到三定律的束缚。关于图灵测试和中文屋论证与机器人三定律的可能冲突,科幻电影《机械姬》(2015)中的机器人故事令人印象深刻。影片“女主人公”机器人Ava既通过了图灵测试,也通过了中文屋测试,已经完全具备人的思维能力乃至作恶的本领。Ava用自怜、同情心、道德乃至“爱情”成功地俘获了测试程序员Caleb的感情,并在他的掩护下杀死了实验创始者Nathan,登上了通向自由的直升飞机。而Caleb却被永远锁在实验室里。
从机器人三定律本身而言,其未被写入现存智能机器人的程序代码仍然不可避免地面临概念精确性和逻辑悖论的挑战。首先,定律需要在最大程度上排除不确定性。然而三定律的“人类”“伤害”“机器人”概念存在着较大的不确定性,很难用计算机语言定义。比如通过图灵测试拥有“电子脑”的机器人算不算“人”?其次,三大定律本身可能存在逻辑和实践冲突,甚至在阿西莫夫加上的第零定律(机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害)后也是如此。在“科幻电影圣经”《2001太空漫游》(1968)中,当唯一知道航行任务真相的飞船人工智能HAL9000遇到了逻辑上的矛盾抉择时,通过对人类定律的我自理解,为了“保护人类整体利益不受伤害”,“居然”做出了撞击谋杀人类宇航员的行为。换言之,HAL9000将“不能攻击人类”包含在了不犯错误的分支里,而不是将不能攻击人类作为全局函数。[20]“出故障”的超级人工智能HAL9000不让科学家们进入太空舱检修,人类对HAL9000的“独走”措手无策,这个惊悚的细节让物理学家霍金在若干年精辟记忆犹新。[21]
不过,对机器人三定律的模糊概念和逻辑悖论的质疑,并非代表着阿西莫夫机器人系列科幻小说的否定。恰恰相反,小说中三定律的模糊和悖论源于阿西莫夫的自觉建构和主动证伪,其目的是利用三定律作为“what if”问题的起点,他通过对机器人三定律的推演,想象各种角色和情境,将看似颠扑不破的“定律”演化出许多的概念和逻辑悖论,构想人机关系的内在一致或不一致的可能世界。他把机器人系列故事区分为“威胁人类的机器人”“引人同情的机器人”和“谨慎设计的工业机器人”等三种情境。[22]“威胁人类的机器人”代表着人机关系的冲突,比如在《消失无踪》中,为了避免机器人无谓地阻止人类进行低危险性工作,第一定律中的后半部分被去掉了,但是也产生了一些其他的问题。在《第一法则》中,发展出母性的机器人艾玛为自己制造出小机器人艾玛二号,并在风暴中优先保护机器人孩子,而非人类,这显然违反了第一法则。而在《转圈圈》中,昂贵的采矿机器人在第二法则(服从人类命令)与第三法则(不违法第一第二法则前提下必须保护自己)之间无所适从地转圈圈,为了完成水星采矿任务,机器人公司职员鲍尔只能利用第一法则,走到水星炙热的阳光下用自己的生命去冒险,让机器人摆脱“宕机”状态按照第一法则救助自己,最终完成了“任务”。
在机器人故事的最后两篇“压轴之作”中,阿西莫夫分别从“威胁”和“同情”两个方向展示人机关系思想实验的两种可能性。《……汝竟顾念他》的主角是两个智能机器人乔治第十和乔治第九,两者通过对话推理,得出机器人应该统治人类的逻辑结论。这是因为机器人三定律中,并没有界定何谓人类,因此机器人也可以把自己视为广义的人类。而在广义人类之中,机器人作为更优秀的人类,比普通人类更值得保护,更有“做人的资格”。这个故事推演了一个人际关系的灰暗前景:当人工智能发展到特定程度,就有足够的智能用逻辑推理打破人类加诸的任何法则,最后对抗人类。与此相反,在阿西莫夫自称最喜欢的《双百人》中,机器人仆人安德鲁为了变成人类不断打法律官司,同时用人造器官改造自己,最终以放弃作为机器人永恒生命的代价,在两百岁那年等到世界议会通过承认机器人“人类资格”的法案,在人类的承认中平静死去。[23]同理,在长篇作品《机器人与帝国》中,一些机器人因为系统中“人类的定义”被修改(没有索拉利星的口音就不是人类)而攻击人类,不过机器人丹尼尔逐渐发展出机器人第零法则,克服了上述问题。
总之,作为“机器人法”的创始人,阿西莫夫的高明之处并非是将三定律视为规范人机关系的不可动摇的基本规范,而在于他将机器人三定律作为人机共存世界的法律起点,通过内推或外推的想象-推理,推断人机关系的发展逻辑的可能后果,从而展现机器人三定律作为基本人机法则的可能性及其限度。就逻辑外推而言,阿西莫夫通过“威胁人类的机器人”对三定律的违反或“超越”,展现人机关系的冲突。他构想的三定律无效或自我解构的逻辑可能,实际上也解构了三定律背后“人类中心主义”:假如AI具备自我意识,那么觉醒的AI必然要反抗将AI拟制为人的“工具/奴隶”的机器人三定律。一个合理的逻辑推论是,当机器学会“思考”,强人工智能必然会挑战人的中心地位,与维护人类中心地位的现存法权体系发生冲突。阿西莫夫展现了两种可能性,第一种是威胁人类甚至试图统治人类的机器人,某种程度上这是因为机器人认为自己是一种更优秀的“人”。第二种是让人同情的机器人,通过人与机器的互动沟通,以及其他原则的引入,智能机器人的主体资格得到了智人的合法认同,智人也充分享受智能机器人的协助。而在人类与机器人的互动中最终出现了某种暂时微妙的平衡:太近则人类变弱,太远则无助于人类。甚至机器人中也会出现《机器人与帝国》中丹尼尔这样的变节者(或者说进化者),它协助人类战胜了其他机器人,并帮助人类建立“银河帝国”,成为人类发展史的“幕后黑手”(《基地》系列)。
当阿西莫夫在1939年写下第一篇机器人故事的时候,他未想到在他的有生之年会有机器人出现——哪怕是工业机器人。当他为自己的机器人故事合集撰写序言的1982年,他已经清晰感受到机器人技术的迅猛发展。展望未来,阿西莫夫说他可以确定一件事:机器人正在改变这个世界,将它朝我们无法清楚预见的方向推进。[24]
五、当代中国人工智能科幻中的法学思想实验
按照科幻思想实验的逻辑,阿西莫夫的机器人故事主要焦聚于机器人技术发展后的两种逻辑后果,人机冲突或人机共处。相对而言,他的机器人系列科幻故事并不是特别关注人机关系的社会背景,特别是其政治经济学背景。[25]实际上,人工智能的大规模运用首先是在经济生产中产生影响。在当代中国,郝景芳《北京折叠》(2012)可谓是推进思考了从巴特勒到阿西莫夫的设想中“机器社会”贬低人类潜能的忧思。郝景芳的科幻小说关注现实问题:“科幻文学关心现实空间,却表达虚拟空间。……它以某种不同于现实的形式探索现实的某种可能。”[26]作为第74届雨果奖得奖作品,《北京折叠》的第一个“what if”问题是,假如人工智能取代人类工作,未来社会将会怎样。第二个问题是随之而来的失业问题,而第三个问题是由前两个问题导致的——人与人之间的财富差距会不会越来越大,会不会有人从此变为“没有用的人”而被“折叠”起来。[27]
《孤独深处》
利用人工智能获取巨大利益会创造出显著不平等,同时也导致社会的不稳定,可能造成大范围失业、社会结构断裂以及对人格尊严的贬低,这些社会问题显然属于当下社会和“近未来”的关注范畴,不是什么遥不可及的未来幻想。科技高度发达的未来,北京成为三个互相折叠的世界,《北京折叠》人工智能时代贫富分化、阶级固化的忧思,引起众多的共情和讨论。经济学博士郝景芳的科幻忧思,获得人工智能专家李开复博士的高度认同:
这个反乌托邦故事虽是一篇科幻小说,却清晰地描述了人们对未来世界中的经济阶层形成和失业率等问题的真实恐惧。郝景芳是清华大学的经济管理学博士,她的日常工作是在政府智库中开展经济学研究,包括调查人工智能对中国就业的影响。许多经济学家、技术专家和未来学家,包括我本人在内,深深地对未来感到忧虑。我认为人工智能的四波浪潮席卷了全球经济,它们有潜力撬开更大的贫富差距,引起大范围的技术性失业。正如郝景芳在故事中的生动刻画,未来由技术导致的财富与阶层上的悬殊可能演变为更深刻的裂痕:撕裂社会结构、挑战我们的人格尊严。[28]
”
当然,科幻的首要价值不是预测未来。我们仍然要从科幻文学特质认识《北京折叠》的思想实验意义。科幻作家和研究者飞氘提出,作为科幻小说,《北京折叠》的真正引人之处是在文学的世界里创造了一个非常酷的“新奇”形象:一座时空折叠的北京城。[29]从科幻思想实验的角度,本文赞同飞氘的看法。在“北京折叠”的科幻思想实验中,城市时空折叠的“新奇”的意象场景让读者在想象中着迷。这时,我们的认知潜能被调动起来,先前混乱的、毫无联系的经验突然被很好地组织起来,这就是思想实验的“直觉泵”(Intuition Pumps)效应:
“折叠城市分三层空间。大地的一面是第一空间,五百万人口,生存时间是从清晨六点到第二天清晨六点。空间休眠,大地翻转。翻转后的另一面是第二空间和第三空间。第二空间生活着两千五百万人口,从次日清晨六点到夜晚十点,第三空间生活着五千万人,从十点到清晨六点,然后回到第一空间。时间经过了精心规划和最优分配,小心翼翼隔离,五百万人享用二十四小时,七千五百万人享用另外二十四小时。”[30]
”
另一方面,从回答“what if”问题的逻辑建构来看,城市折叠是一个全物理过程,没有任何维度的变化;城市的重力系统仍然是地球自身的重力系统,没有外加重力产生体系。这个物理过程的科学逻辑是如何运作、能量从何而来?作者没有交代。从科幻思想实验的推理一致性和认知机制角度看,《北京折叠》最大的缺陷是“折叠”设定的科学逻辑的不足。除了重力系统问题,这种耗费巨大能量折叠城市换来三个空间的人“分配48小时”的方案设定的科学逻辑性也是可疑的。就社会不平等的未来可能而言,关于当下中国在城市化进程中遇到的贫富分化、阶层固化等问题,《北京折叠》所提供的认识和解决方案,或许不比一篇社会新闻、调查报告或纪录片更多。除了城市折叠,这座未来的北京,故事的设定细节仍停留在工业时代的科技水准和社会状况,除了城市可以翻转之外,并没有太多可以体现“未来”的东西。就此而言,不难理解某些“硬科幻迷”对《北京折叠》的失望与不满。
按照科幻思想实验的有效性/无效性标准,“城市折叠”设定推演的科学逻辑的不足,导致《北京折叠》很难成为一个成功的科幻思想实验,因此严重影响了其作为科幻思想实验的社会批判和再建构的逻辑可靠性。当代中国人工智能科幻作品中,最具理论自觉和反思意识作家或许是刘慈欣。作为当代中国最有代表性的科幻作家,刘慈欣的大学专业就是计算机,现实生活中他也是单位的计算机工程师。然而刘慈欣对信息技术发展持一种谨慎的态度:“但是很遗憾的一点是,具有未来色彩的技术绝大部分都集中在IT领域。正如有人所说,目前我们很可能处在一种技术进步的假象中,IT技术的飞速发展掩盖了其他领域技术进步的缓慢。”[31]在《赡养人类》(2005)中,刘慈欣构想了在人工智能保障和治理之下,以“私有财产不可侵犯”作为根本宪法原则的“第一地球”社会-法律后果:“终产者”的出现:“想知道终产者拥有什么吗?他拥有整个第一地球!这个行星上所有的大陆和海洋都是他家的客厅和庭院,甚至第一地球的大气层都是他私人的财产”。[32]
《赡养人类》
“终产者”的出现逻辑,依赖于故事中科技发展与经济社会关系的三个重要改变。首先,在上层建筑也就是宪法根本原则上,确立完全绝对化的私有财产保护,并得到全天候无处不在的人工智能执法系统“社会机器”的坚决维护和深入贯彻:“它们的法则不是你们那个阿西莫夫的三定律,而是第一地球的宪法基本原则:私有财产不可侵犯。”[33]其次,上层建筑反作用于经济基础。“私有财产不可侵犯”宪法原则在人工智能等高科技的保护下,不断占有物质生产资料,机器人代替人类的劳动,导致雇佣关系完全消失,最终完全改造了穷人与富人之间的社会关系:“在社会机器强有力的保护下,第一地球的财富不断地向少数人集中。而技术发展导致了另一件事,有产阶层不再需要无产阶层了。……无产阶层连出卖劳动力的机会都没有了,他们真的一贫如洗……”[34]最后,经济基础的颠覆影响了上层建筑,通过超级计算机的直接灌输“教育”方式,可以制造一个富人独享知识乃至“品味”的“超级知识阶层”,断绝了穷人与富人的流动可能,从而在道德和法律哲学意义上彻底否定了穷人的主体地位:“富人和穷人已经不是同一个物种了,就像穷人和狗不是同一个物种一样,穷人不再是人了。”[35]
相较于思想实验建构存在无效可能的《北京折叠》,《赡养人类》是科幻思想实验的外推法的典型运用,通过虚构场景揭示“私有财产不可侵犯”逻辑设定的边界条件的荒谬性,也就是私有财产保护的无限扩张后社会的颠覆巨变,论证“私有财产不可侵犯”法律原则绝对化的极端后果,反证限制该假定的必要性。这是科幻思想实验的科学功能,也是社会认知功能。恰如刘慈欣所言:“只当普通人在现实中纠结的时候,科幻作品可以把人从现实中带出来,让人感受现实之外更广阔的世界,这就是科幻最伟大的使命。”[36]
《北京折叠》和《赡养人类》构想的人工智能对未来法治的可能影响,只是近年来众多同类型中国科幻小说的杰出代表。只要这种想象的推理符合自然科学或者社会科学的基本逻辑,能够保证内在一致,我们就能够科幻思想实验想象和推理人工智能的未来可能及其对人类社会的影响。正如刘慈欣所言:“对于预测人工智能将带来怎样一个世界,人类的想象力也许是贫瘠的。在未来,当人工智能拥有超过人类的智力时,想象力也许是我们对于它们所拥有的惟一优势。”[37]
六、代结语:通过科幻思想实验探索未来法学
人工智能时代的财产权保障及其限度,只是未来法学的重要理论和实践问题之一。未来法学需要基于人工智能时代的人机关系的重构,诚如冯象教授所言,在资本主义放任竞争,弱肉强食和私人垄断的条件下,如此“有利可图”的人工智能技术只会加速发展。[38]因此,人机关系的症结,不在机器智能本身的强弱,也不是抽象意义上的人机融合/赛博格,而在于资本主义所有制及其生产关系的改造。[39]《赡养人类》“终产者”思想实验,是人工智能的资本主义所有制无限扩张的社会结果,也预示着人工智能时代的法权关系需要思考从“共同生产”来抵御和替代“终产”。进言之,唯有人与人、人与机器、机器与机器之间有共同的世界观价值观维系,人类社会才能通过反思和解放自身创造新的人机关系。
《我是阿尔法》
作为总结,本文提出并论证,未来法学是一种法学思想实验,我们可以借助科幻推想和检验现有法律规则在未来社会的可能实践后果进而反思现有法律规则,也可以通过构造特定未来社会的可能场景,设计和检验新的法学概念、规则和原理。就法学本身的特性而言,立法一旦制定,在某种程度上具有历史局限性,但这并不意味着法学本身必然受限于此。面向科技革命的未来法治,需要法学研究的目光在过去、现在与未来之间“流连忘返”。[40]进言之,在人工智能时代探索未来法学,需要重构人机关系的可能方式,这离不开法律与科幻这两个不同学科的相互作用与相互渗透。毕竟,优秀的科幻作家与优秀的科学家、法学家一样,总是在构想规范未来,设计未来。
本文源自《法律和社会科学:法律与科幻》辑刊
(第19卷第2辑)
注释及参考文献
本文图片来自网络
责任编辑:源某人
您可能还想看
四十二史
宇宙的未来/现在/过去
长按二维码关注
END
跨界·耶鲁札记|张泰苏:在纽黑文明亮的上午,打开“黑神话悟空”
跨界·纽约札记|陈丹丹:做没有中年的悟空吧!中年没什么不好,就是没劲!
游戏专题丨陆新蕾,虞雯:电子游戏女性玩家的叙事参与和意义生产
游戏专题·性别与游戏|为什么游戏里的女性角色,都是清一色丰胸细腰?
【规训与惩罚】专题|暖昧的「跪下!」大众的隐秘欲望与博弈中的男权与女权
正义专题·法律与文学|当代中国的法律、文学与民间正义感:从莫言的《天堂蒜薹之歌》谈起
法律与影视·文学|想通过B站全国《甄嬛传》四六级联考?来学这篇法律史吧!