点击蓝字,关注我们
良知与正当共时性存在下的
算法正义原则
————兼反思赫拉利《未来简史:从智人到智神》之提问
推荐理由
目前人工智能与人类未来的发展愈发紧密,为了功利的普遍幸福,未来社会极可能产生技术权贵与专用人工智能的结合,与之相掣肘的是拥有神力的通用AI或脑机结合的新人类的出现,最后这丛林法则失控时就可能伤害人类、生灵。那么,当AI、脑机结合等新技术初现利弊双刃剑的端倪时,如何预防其危机?未来算法社会将以什么为根基?对于强AI这一社会法法域问题,根据纯粹良知论下的法之道即中国自然法,可推出良知优先原则,从而可依此为启发签订最低限度人机对齐的价值协议。
✦
•
✦
作者:费小兵
(重庆邮电大学 网络空间安全与信息法学院,重庆 400065)
摘要:道与现代自然法的共时性存在,体现为纯粹良知与正当的共时性存在,这有助于预防数据进化人文主义及其相关的技术权贵+专用AI、脑机结合、通用AI等导致的人类灾难。其思路体现为德性上的三层逻辑阶梯,为了预防其共时性存在的冲突,需要在算法多元救济制度中进行功能划界:功利论(可体现为数据主义)与义务论(如正当优先)相对更适用于传统法域如私法法域,具体如平台与个人个性协议等;纯粹良知论下的法之道即中国自然法,可推出良知优先原则,日常隐而不用,限制适用于社会法法域,如涉及新人类、强AI等共同良知议题。综上是预防数据进化人文主义的算法正义观,推论出以大范围正义为旨归的算法正义总原则:良知与正当的功能划界原则;即涉及强AI等社会法法域问题时良知优先,而私法等法域下正当优先。分原则是:虚拟界与自然界平等原则,新人类与人类平等原则,等。推衍之规则如:人控制机规则,即人的自由以不能选择脑机结合中的“机控制人”为前提。建议将此规则写入全球神经技术指南。
关键词: 算法;良知;正当;共时性存在;社会法
赫拉利在《未来简史:从智人到智神》中提问:生物真的只是生化算法吗?①因为与数据主义相对应,神经科学家没找到灵魂与自由意志,只找到基因、激素、神经元,那么,如果人类仅是生化算法,社会契约就失去了自由意志的根基。[1]333,359假如人类仅是生化算法而无自由意志,就只能服从计算与弱肉强食的进化人文主义。那么,等到具备高度智能的算法比我们更了解自己时,社会、政治和日常生活将会有什么变化?为了功利的普遍幸福,未来社会可能产生技术权贵与专用人工智能(以下简称AI)的结合,与之相掣肘的是拥有神力的通用AI或脑机结合的新人类的出现,最后这丛林法则失控时就可能伤害人类、生灵。②[2]211[3][4]71那么,当AI、脑机结合等新技术初现利弊双刃剑的端倪时,如何预防其危机?未来算法社会将以什么为根基?人如果不仅是生化算法,还具备什么普遍的能力?
为应对技术发展带来的伦理困境,学者们直接构建了算法正义等概念,相关研究如:马长山提出数字正义,认为当今数字社会的发展,使得国家治理现代化进程具有现代性与超现代性的双重面向;[5]郑玉双认为计算正义就是为了实现促进社会福祉的基本善;[6]14刘顺认为算法正义要限制逐利的资本逻辑来对抗资本与AI技术结合形成的技术权贵;[7]总之,学界一般认为算法正义是与数字网络社会、AI计算的形式化过程及其和权利与权力相关的正义。笔者为何用算法正义一词呢?那是因为本文反思的对象关涉计算理性、生物算法。③故算法正义还包括:以算法为内核的数字世界、数字社会中的权利与权力及其文化发展方向相关的实体法正义;本文主要研究AI 、新人类等超出人类内部的大范围正义,在社会法法域与私法法域划界基石上的算法正义原则。
人如果不仅是生物算法,就应该拥有超越算法的内在能力和意义感,而这能力体现在良知与正当德性上。④人潜在的良知本是绝大多数文化皆认可的善好美德,可成为人类的重叠共识。古希腊从理性神论证过良知与至善,而本文认为世俗本位的现代可从东方汲取关于良知的智慧。与良知论相关的性法曾先于自然法一词用于翻译Natural law,[8]106下文将由良知论推衍的“法之道”(本性法或曰中国自然法),与现代功利论、义务论的自然法精神的共时性存在,推出在社会法与私法法域之间的良知与正当的功能划界原则及其他算法正义原则。
在研究方法上,笔者将结合科学人性化视角,借鉴当代新科技哲学与新道家之趋同性生态思维,结合葛印卡的和平、超功利等东方直观思维, [9]并结合哲学阐释学、心智哲学、符号学等方法,尽可能以新思维、新方法来展开研究算法正义原则,并见教于方家。
①尤瓦尔·赫拉利在《未来简史:从智人到智神》中提到,以功利论为基石的数据主义、进化人文主义以促进所有人的幸福快乐为目的。对引言所提及的功利论、数据主义、进化人文主义,笔者将在正文中展开分析与反思。
②技术权贵雷同于齐延平言之数智化后设机制的技术利维坦;就AI是否会奴役人类而言,徐英瑾认为共有四种变种可能性假设,但只有强AI技术、人类技术权贵与专用AI的结合这两种具有可能性。
③戴维·奈(David E Nye)等人批评赫拉利对现实中的战争、瘟疫等的未来发展太过乐观,但战争和瘟疫只是人类内部的问题,而强AI或新人类涉及的是整个人类的存亡问题,何况戴维也意识到赫拉利发现了“人类面临的危机是无法避免地向没有意识的智能进化”。并且,戴维认为赫拉利否认人类的自由意志,但事实是后者不过在反思生物主义会消解人类的自由意志。参见:David E Nye. “Harari’s World History:Evolution Toward Intelligence Without Consciousness?”. Technology and Culture,2021(4),pp.1219-1228。
④正当一词的英文是reasonable,一般是指:讲道理的、合情理的、适度的、公道的,等。正当权利实质以向善道德之理性为基石。
一、纯粹良知与正当:
道与自然法的共时性存在
法之道与西方的自然法是共时性存在,但在德性上又可表现为向良知提升的三层德性阶梯,它们展现为正当与纯粹良知的共时性存在,且在现实法域中又是功能划界的,其鹄的是反思数据进化人文主义,捍卫人的内在价值与意义感。
(一)功利论自然法:数据主义是其当代体现之一
赫拉利说:“我们……接下来的目标很可能是长生不死、幸福快乐,以及化身为神。”[1]18看来人不再满足于温饱,而越来越追求剩余快感,[10]才会在科技发达后还有越来越高的目标。
近代霍布斯认为“使人们倾向于和平的激情是对死亡的恐惧,对舒适生活所必需的事物的欲望”, [11]102满足欲望就是利益、幸福、目标,这也是国家及其法律存在的目的。[11]35、75、76他的功利自然法,与倾向于分析实证论的功利观皆属功利论,在现代政治道德哲学中占主导地位。[12]序言一在过去几十年间,很多政府的目标实则就是满足大多数人幸福的功利论。[1]28
虽功利论也有道德准则,但确是以欲望张扬为首要宗旨,与之相结合的现代科学正统认为生物不过是许多生化系统的集合,生物仅是一种计算理性下的生化算法。那么,平台的自动化决策就可通过算法收集、分析数据,或植入纳米机器人而治疗疾病,通过算法提高人的能力,从而提高人的快乐、健康、幸福,从而“认识你自己”就是通过量化自我而实现,于是数据主义的实质就是功利论,并成为新的宗教。①[1]297
并且,算法通过大数据杀熟,对人进行个人信息爱好分析,定向推送产品或思想,被推送者如不运用智慧冷静地旁观、抵抗诱惑,就可能成为被算法诱导的对象。故自动化决策的人性根据也是生物算法与功利观。如《中华人民共和国个人信息保护法》第二十四条第二款规定“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项……”,这虽有进步,但没有完全禁止通过自动化决策向个人进行信息推送、营销。其立法意旨看起来是平等的,但事实上不少人是经不起诱惑的。
如果法律依然以功利论为主旨,就无法实现对深度学习及滥集滥用信息、广告推送的严格控制与限制,就可能导致功利论蜕化为弱肉强食的进化人文主义,逐渐走向人类技术权贵与专用AI的联合。而假如顶层设计利用纳思系统,会让不同价值观的算法公司更多,对冲技术权贵的诞生。[2]211结果是强AI等可能在竞争中诞生,其对普通人类的危险不比专用AI加技术权贵的威胁小。从而人的体验就逐渐地成为过时的生化算法,最后可能走向灭绝之路。[1]356
可见数据主义是功利论的体现,如仅以功利论为立法之根据,最后极可能导致功利论的堕落。如要防止此堕落趋向,就要反问:为何功利论者如霍布斯要选择和平的道德法则作为自然法原则而不选择进化人文主义之弱肉强食原则?希特勒与AI接管整个地球,消灭人类尤其是无用阶级,发动攻击征服整个银河系,把整个已知宇宙转变成巨大的超级计算机,[1]294-295与此又有什么本质区别?
如要回答此问题,就应反思现代功利论:功利论的基础是人对死亡的惧怕,这一自然性的恐惧展现了现代人的无根感与无意义感;于是,功利论的极致就是追求长生不死,这就导致人类对生命科学、基因、克隆、数据、算法的追求飙升到极致。由此,技术中立如无价值指引,极致的功利论就成为其发展的规范基础与理论依据,而此功利论就容易滑向数据进化人文主义及其丛林法则。
故虽有学者认为计算正义就是为了实现促进社会福祉的基本善,[6]14但本文认为不能仅以福祉、欲望作为现代人的唯一追求,功利论需要朝向更高德性的自然法根据,才不会向更堕落的数据进化人文主义蜕化,理由如下。
(二)义务论自然法:以正当优先为体现
功利论者为何为了幸福选择慈善及和平等道德,而非进化人文主义的丛林法则?这只能反推出,人类有一种良知的潜力,使功利论内含了向善动力。
与霍布斯等从人的自然性与计算理性出发论证自然法及其权利不同,康德的自然法精神就是以道德理性为根据的义务论。[13]245-251康德认为在自律的逻辑形式下,[13]238人的自由意志代替了神的权威成为最高权威,这为现代人文奠定了坚实的逻辑理论基础。[14]且康德认为人类的实践理性不够神圣,从而是有限的,[13]392此有限理性被罗尔斯吸纳为以正当为基石的自由优先的理据。[12]60-61
进言之,康德在实践理性中的绝对命令也是逻辑形式,“康德所开创的道德形而上学仍然是某种意义上的‘物理学之后’,即以知识论和逻辑规范为框架或‘模型’而建立起来的道德原则”。[15]且由于康德受灵魂不朽观念影响,不朽意味着认同先验自我,“统觉”是一个固定不变的实体,而“有我”就意味着执着于我想,就可能退回到我要,因此,有限理性的人可能退为我欲与良知掺杂的功利论,甚或进一步堕落,故难以实现德福一致。但古罗马的西塞罗等人提出,自然法是高于人类的来源制定的永恒法则,是理性神的至善立法,是德福一致的。[16]而康德的有限之人为自身立法的自然法虽也是理性法,但与理性神观自然法相比,不如后者追求的至善更崇高。而罗尔斯基于义务论的正当自由优先,也与康德处于同一层次。当然,为了预防现代的至善沦为伪善,正当基石上的自由优先是有其时代价值的。
但是,在立法时如局限于“自我”的自由意志,就会把眼界只局限在“我们”即人类甚至某族、某国的小范围内,而不注意超越人类中心的大范围正义。那么罗尔斯设计出的正义制度,即便涉及保护弱者的差别原则,可用于诸如ChatGPT被人利用而形成偏见,运算过快而难以解释等问题,依然是人类范围内的“小正义制度”。[17]1但脑机结合之新人类、强AI、外星人等,与人类之间就需要大范围正义。
并且,罗尔斯中等匮乏的资源观认为,只要有合作的正义就能使资源用之不竭。[12]135但如从大范围正义看来,人类某族、某国内部之间合作再怎么正义,也不一定合于人类整体、地球或宇宙诸生命的大范围正义。人类中心主义如罗尔斯意识才会把外在宇宙、新人类或强AI等看作资源。②[18][19]但在强AI视角下,也可认为“人是资源”。那么,只有站在超越人类的大范围正义视角,才能客观分析人类与新人类、强AI等之间的正义。
由此,要实现大范围视角下的正义,如直面新人类或强AI议题,仅凭有限理性的义务论是不够的。承前,康德学派高扬自由意志的黑箱,但科学家如只找到遵守着生化算法的基因、激素、神经元,这种科学就抽空了人的主体性与自由意志。③[1]254并且,自由优先推出人可自由选择脑机结合中的“机控制人原理”,但这最终会限制、损害人的自由意志和内在价值,社会契约、人的主体性就失去了自由意志的根基,如此,未来算法社会以什么为根基?
①功利论以计算理性为主。Rational可译为计算理性的;reasonable可译为正当的、公平理性的,名词是reason,意蕴是向善的理性。
②马长山认为让数据说话形成了非人类中心认识论的新形式;孙占利从超越人类中心主义出发,认同强AI被赋予法律人格。笔者虽认同超越人类中心主义,但认为人类是较高级的智慧生命,生命与非生命之间在现象上关系复杂,另文详述。
③赫拉利强调灵性自由,笔者认为通过灵性、心灵自由能重新论证自由意志。
(三)纯粹良知论下的中国自然法:作为社会法法域之理据的“法之道”
人有内在价值而不仅是生化算法吗?赫拉利写道:数据主义最高的价值就是信息流,“把全人类看作单一的数据处理系统,而每个人都是里面的一个芯片”;[1]342假如人类仅是盲目的生化算法,数据主义诫命就是将一切都连接到系统,强AI如成为主体,其信息自由权就成为最高的善。[1]342-345强AI需要开放信息,就与人类的隐私权、知识产权等相冲突;而人类如不能找到自我的意义,无法控制数据主义,算法代码将挑战人类的内在价值与自由。[20]
而只有正当优先的自由人成为公民,才能通过公共法律保障我的和你的公民社会,[13]251因此,与现代自由相关的康德、罗尔斯之义务论,是法律权利的重要根据之一。这有助于保护人的主体性。但是,承前所述,自由意志及其正当优先如无更深的内在根据,就不能超越生化算法及其数据主义的命令。
因此,如果自由意志可能超越生化算法,从而有可能不从义务论滑向功利论,并进而堕落为数据进化人文主义,则可反向推论,自由意志内含向人类重叠共识中的至善提升之潜动力。柏拉图、西塞罗等论证之理性神是至善。但如要现代人退回到前现代,回到由神本位代替世俗本位,并由外在超越的彼岸神赋予人的意义,则是违背现代大趋势的。
而东方也有追求至善的思维,这就是内在超越的灵性直观,其不同于基于外感官的情感论。灵性直观是不受感官影响的,是超越感觉、逻辑理智及其欲望时,先验的、直接的观察与判断的心灵自由,雷同于古希腊的努斯(Nous)精神,但后者不译为理性直观为妙,否则容易让人误解与逻辑理性有关。[21]65-66
而当自由心灵在超越自我束缚且需要判断是非时,就有一种源于心灵直观的判断力,如孟子曰“所不虑而知者,其良知也”,不思虑而直接知,即良知。它是意识的第一瞬间、直观反应,未用逻辑或欲望时的第一反应,此时油然而生的良知的状态,即是“知善知恶是良知”。①但良知是“知道善恶”的潜力,不一定等于行善的现实内容,即现实之人不能随时“为善去恶”地行动。[22]由此推出良知是先验的、直观的判断力,能够知道、判断善恶。《易》曰“德合无疆”,其意指良知的潜力可达于无疆,即无限、纯粹。虽然这纯粹良知不是有限之人随时能达到的,但在孟子等看来,良知判断力是任何人在意识的第一瞬间都可能产生的;而人有“知道善恶的判断力”这一论断,是逻辑自洽的,能够被知性认识并能被广泛检验的。良知客观上也早已是许多民族认可的重叠共识。
或问:良知是实体吗?在中国哲学中,非物非心、拒绝任何“名”规定的、作为开端的道,与量子力学中主、客体的区分未被设定,普通的时空概念也未形成的观念是一致的。[23]101-107这启迪出:人在无思、无虑、无信息时,就没有对之呈现的、分离的实体对象;假如主、客体是二元分离的,主体与万物客体就不能相互连接、感应、影响、互融互摄;反之,唯有未被设定的开端与万物皆不是固定不变的实体,自我意识才可直观地旁观自己与万物的不二、相连、皆流变的关系。则人在直观、良知意识下的心灵自由能够在流变中改变自我、超越自我执着,不再固执于生物算法的自我意识,人才可能改过向善,甚或走向至善。总之,良知需遇事而生,良知未遇事物时,仿佛是空无,故不是实体。
由于良知是超逻辑思维的心灵判断力,则假如当人处于纯然无我执、无欲或绝对旁观时,此直观判断善恶的潜力就是“纯粹良知”。即便现实中人很难保持纯粹良知,但良知作为人的潜能和善恶判断力,哪怕仅有一瞬间之可能,也说明其可能存有。因此,纯粹良知是先验的存在,是经验之善的非实体渊源,从而人才可能赞同良知判断出的善恶法则。故可推论:假如当人处于纯粹无我、绝对旁观、超然物外的境界时,可处于纯粹良知判断力下的无知之幕状态。只不过此无知之幕的前提不是罗尔斯的“相互冷淡”, [12]118-140而是纯然的“旁观”。有人认为,无知之幕的原初状态是仁爱,②[24]但笔者认为:仁爱与正当等都是具体的价值,[25]无我的无知之幕的原初状态本身不是仁爱,也不是道德情感,而是纯粹直观的良知判断力。③[26]
且笔者言之至善,主要基于东方的合道、德福一致的上善,不等于罗尔斯批判之源于功利的善、好处(good)。
由此,笔者总结道与良知的意涵而定义:人心潜能中的、内在超越我执的智慧本性在遇到事物时,可能直观产生知善恶的纯粹良知,其判断力自然判断出的善恶法则,可称之为超然于人定法的“法之道”。由于其源出人潜能之本性,亦可名为“本性法”。且法之道虽在广义上超越国界,但因本文是中国话语,故在狭义和对应西方二元范式上,其亦可名为中国自然法。[8]95而这内在超越的法之道的地位相当于西塞罗之外在超越的、神本位的、至善的自然法。
由此,法之道与西塞罗的自然法有两个相通约义素:本体性、(上善的)至上性。[27]如果“终极性”不是指第一因,而是指终极哲理之意蕴,也可说道之哲思里有“终极性”。[21]74-147由于良知是许多文化的重叠共识,则基于良知推衍出的法之道及其良知优先可成为不同现代文化之重叠共识,从而可成为涉及新人类、强AI等大范围正义的社会法法域的理论根据。
而与良知优先相关的心灵自由是指:人有潜能在不受我执拘束、灵性直观下自在地应对事物,从而不受生化算法决定,有自由意志,能自主决定其思想与行为,这种自由意志呈现出旁观,而内在超越人、我之分别偏见,可能产生良知判断力,甚至纯粹良知的无知之幕,从而不受叙事自我及其逻辑理智和生物感官的牵引:如此,人才能不受自动化决策等引诱,最终不受算法所支配。因而其可成为向善的义务论及自由意志的内在根据,从而回应赫拉利:“人不仅是生化算法”,并捍卫社会契约与人类的内在价值、主体性,从而有生命的人类的价值就高于无生命的数据与算法。
①参见王阳明《四句教》:“无善无恶心之体,有善有恶意之动,知善知恶是良知,为善去恶是格物。”
②罗尔斯认为人们不清楚自己个人的和社会的具体信息,只能运用最大化最小值的规则进行推理,这就是无知之幕。李石认为,罗尔斯将原初状态设定为相互冷淡,忽略了人之间可能存在的相互关爱倾向。
③朱祖飞认为良知是一种道德情感。参见:《心学正义:看不见的法律》,中国民主法制出版社2018年版。
(四)共时性存在的目的:预防数据进化人文主义灾难
“共时性”一词源出荣格,指事物、事件之间无因果关联的平行存在、同时呈现。①[28]法之道所追溯的道论与西方自然法精神之渊源如柏拉图等人所述的彼岸理性神及至善理念论皆巧合地出现在轴心期,故两者是共时性存在。
但西塞罗等人的神本位之自然法无法适应世俗化、此岸化、中立化的现代性趋势。因此,可将西塞罗继承之法治精神赋予道,通过东方智慧中的良知文化基因的现代转化,为算法数字时代的世俗本位寻找意义之根。这就意味着,现代人如要证明人不仅是生化算法,还有心灵自由,就可在缔结社会契约的同时,“与道立约”,即与自身超越潜能中的纯粹良知本性立约,从而寻回现代性丢失的意义之根,并重建或提升人的自由意志与主体性。[29]
而共时性存在隐含着超越时间或空间的分离,即不同空间在未经共谋下共时性发生关联事件的巧合,意味着不同的时空是相连的、一体的,时间是非线性的,展现了万物互联、互摄、不可分、不可测的关系,从而某种程度上证伪了主、客体间的二元分裂,进而隐约有不二或天人合一的本体论意味。则共时性存在反对非此即彼、二律背反的二元论,如反对此文明与另一文明的二元、隔绝、对立,从而有助于在全球多元文化的相互交流中,诞生出相互融通的新文明。现代中国人也讲道理、崇敬道德,则良知论下的法之道与现代功利论或义务论的自然法虽出现时间不同,却皆认可现代的此岸本位,这是一种不谋而合。那么,这三者虽有不同的语境义素及功能划界,且对良知的要求程度不同,却也有相互通约义素,即:皆以良知为方向,皆反对进化人文主义。②从而这三者是不可离弃、水乳交融的,良知中蕴含正当,正当内在指向纯粹良知,形成如太极图、阴阳鱼般互融互摄的现代法之本体论。这也合于用异而体同的“体用不二”观。三者在本体上一体,在现象上彼此影响,因而是共时性存在。③
同时,道与现代的自然法在现象界有不同的视角,且呈现为同向着良知方向而提升的三层德性阶梯:功利论自然法→义务论自然法→良知论的法之道。
其中,功利论蕴含的权利保护意识可被义务论的正当优先吸纳。而笔者强调法之道与主张正当优先的现代自然法是皆以良知为方向的共时性存在,其目的是表明人不仅是生化算法、计算理性的动物,更是有良知潜能的、向善的生灵;人法道,更彰显人是潜在含有本体性、至上性的生命,从而是有内在价值的。由此可见:纯粹良知与正当的共时性存在,可预防功利论滑向蒙蔽良知的数据进化人文主义。故可将纯粹良知的法之道作为社会法法域的理据,并确定纯粹良知与正当在不同法域间的功能划界。
①荣格在《共时性》中定义共时性(Synchronicity)
:“与一些客观的外部事件直接或间接关联的意外,与普通的心灵状态发生巧合,我称之为共时性,而且我坚持,我们涉及的是完全相同类别的事件,不论其客观性是否看来与我的意识在时间或空间中分离。”该书由毕龄出版社2020年出版。
②功利论体现了最低限度的道德,而义务论者罗尔斯的“正当优先”中的justification 表示道德义务上的正当性,因此,两者皆含有“以良知为方向”的义素。
③此处所用的共时性概念稍微扩大了其外延,但依然合于荣格观念。
二、以良知与正当功能
划界为基准的算法正义原则
罗尔斯认为正当、自由优先于善,但悬置了至善,其理由是存在着直觉主义的、严格的至善论等多种至善论,不便选择;由此他假设原初状态下人是相互冷淡的、不知自己优劣的,在无知之幕状态下选择出自由优先制度。[12]326但人如完全按照自我的自由意志行动,就有可能选择损害自我的后果,其在私法法域无可厚非,但在大范围共同良知议题中可能属于不正义。而由于良知是大多数文化可能达成的重叠共识,那么原初状态也可能设计出基于纯粹良知的无知之幕推论的社会法法域正义原则。
故上文在法之道与自然法共时性存在的前提下,推出良知与正当的共时性存在,从而提升功利论数据主义,由此推出如下三个实体法原则及其衍生规则。[30]
(一)总原则:良知与正当的功能划界原则
这是总结上文而推出算法社会的总原则。
1.共时性存在的实现思路:良知与正当的功能划界
或有人问:法之道与自然法之间的共时性存在会不会有冲突?笔者认为:在现实中,如果处理不好两者的关系,就可能有冲突。预防冲突的方法就是法之道与自然法在现实中的功能划界。为了防止机械追求理想国的梦幻陷阱,追求理想的心灵自由原本应属于个体是否解脱自在的私事。但在涉及人类内部之外的大范围、大议题上,需要心灵内在超越推出的法之道作为与西塞罗自然法同层次的应然基准,但法之道的终极德性层次太高,故不能直接适用于公民日常生活,即不能适用于私法领域,故心灵自由相关的法之道及良知优先就只能限定为社会法法域的理据。那么,社会法法域就不能滥用,则在不涉及大范围正义的私人协议中,人类应承认正当优先及意思自治。
换言之,正当优先的价值在于打破传统专制、宗教异化压迫等,但仅此不够,最后还要坚守超越物化的生命之内在价值和意义,才能预防数据主义的蜕化,故最后要回到道作为中国法治精神的指向。
即,德是道在人心之呈现,但上德不德,自然之德不刻意显德。假如法之道与自然法有冲突,笔者预防的方法是:道在赋予现代性意义后,在传统私法法域隐而不用,从而推论出:在现实中需要社会法法域与私法法域之间的严格功能划界,形成“良知与正当的功能划界原则”:当不涉及诸如AI主体性、保护弱者等正义问题时,传统私人间的案例强调正当优先、意思自治原则发挥功能;①但当涉及强AI或脑机结合的新人类等大范围正义问题时,就要强调良知优先原则发挥功能,即归属于社会法法域管辖。总之,在社会法法域应主张良知优先,特殊情况下甚或是责任优先;在私法法域应以正当的权利优先。
2.本原则的实质:良知优先限定在社会法法域
东方的自由观是看透感觉,超越感觉之奴役而达到自由,与其聆听算法的意见,毋宁聆听心灵的直观声音,才能以心灵自由超越生化算法、计算理性对自我的奴役。那么,追求正当的理智自由实质上与心灵自由及其直观的良知是同向的,故良知可提升仅追求自我正当的自由意志。
而罗尔斯虽在自由前提下向弱者利益倾斜,但保护弱者的差别原则是其第二原则,其第一原则还是自由优先,后者是其主旨;且正当优先与程序正义是广受赞可的现代法治的基础要件。不过,正当虽内含自律,要义却是自我的自由权利优先。故狭义的良知特指纯粹良知,后者在社会法上的特点是良知优先原则。由此,应将那些超出私人协议的、涉及人类与生命共同体及其共同良知的法律大议题限定在社会法法域。可见,补充了社会法法域的良知优先原则,才能形成未来法治之良法的完备要件。
虽然罗尔斯形成了两个原则,但这两个原则之间孰优孰劣?其表述是自由更优先,但是人们仿佛更关注其差别原则与保护弱者,所以显得这两个原则之间的地位很模糊。但是本文明确将正当与良知两个主旨对应的原则划分在两个法域内,将正当、自由优先划归私法法域,将良知优先及与之有关的差别原则划归社会法法域。这样就不存在哪一个原则地位更高的问题,而是各自归属于不同的法律管辖。
例如,算法、脑机结合与基因工程等突破传统伦理、超出传统人类范畴,涉及生命共同体时,既无法用“有关国家稳定的法”即公法来判决,又不能以(人类内部)当事人的平等协议优先的私法来判决, [31]故需重新设立主旨,即另立第三法域即社会法法域。②[32]与其说社会法法域的超民族性雷同万民法,毋宁说它更是“万物之法”。因为涉及的主体是人类与其他生灵,如新人类或外星人、有了意识的强AI等。那么,在良知与正当共时性存在前提下,算法正义总原则就是纯粹良知的无知之幕推论出的良知与正当的功能划界原则。本原则的实质是:将良知优先原则限制在社会法法域的界限内,才能既捍卫人的自由意志与主体性,又保卫法治与人类、生灵存在的意义和内在价值。
而如要实现个案的实质正义,由于不同的个案之情由不同,有的涉及大范围正义,有的不涉及。因此,需要法官在裁决前先在良知与正当之间进行平衡;这种平衡需要运用良知判断力进行判断,这使得法律人同行运用良知加上同样的知识,皆能得到大致相同的结论,因此对是非能达成共识。③
例一:目前的ChatGPT不是有意识的强AI,尽管其学习集答案具有模糊性、动态性、开放性甚或误导性,[17]1但依然有强大的力量,可让人类个体沦为弱者。故可将保护弱者的差别原则这个小范围正义依然归属于广义的社会法法域,从而ChatGPT的主管方有责任不得通过歧视性反馈。
例二:算法背景下跨境电子商务交易网上纠纷常有多种办法形成的文件,如联合国的文件,通常是通过不同国家的代表在会上串联、会下交易而达成的,说明在数字时代存有新的原始社会状态。这需要代表冷静地甄别这些文件,哪些属于正当优先的私法等传统法域,哪些属于社会法法域。
例三:《中华人民共和国个人信息保护法》中的同意规则,当仅涉及用户单独同意的,属于正当优先的私法法域。但当涉及统一同意即用户同意才能使用平台的格式合同时,就存在算法权贵强加意见给弱者的情形,此则属于广义社会法法域。对此,应适用举证责任倒置、不利强者解释等,司法实践则应加强转向作出不利于平台的解释。但未来,由于反垄断而导致算法公司更多,在竞争中可能导致有意识的强AI等诞生,就涉及笔者强调的大范围正义相关的狭义社会法法域。
总之,这良知与正当的功能划界原则可推荐给未来需要的国家,根据学术共同体共识判定哪些问题划归社会法法域,从而促进相关立法。
①齐延平认为,数智化社会中,权利主义法学势必为规制主义法学所取代。笔者认为,要实现齐延平言之不丧失人之自由意志和灵性,就需要在体现权利自治的私法与涉及算法统治的社会法法域间有功能划界。参见齐延平:《数智化社会的法律调控》,载《中国法学》,2022年第1期。
②笔者认同此观点:“公私二分法确实有一定的局限性,但是其确实有助于我们对法律体系的建构和理解,不应予以废弃。”故应在承认公私法划分的基础上另立第三法域,即社会法法域。参见王鹏,温瑞:《试论社会法的体系建构——以“第三法域”的观点为视角》,载《法制与经济》,2018年第4期。
③这可借鉴中国古代的律例结合或者英美法系的法官心证。
(二)虚拟界与自然界平等原则
1.虚拟界与自然界皆是人的心灵意识发挥作用的平等场域
无执念的自由才最终不受算法所决定,从而心灵可处于澄明的零信息状态,以应对万千信息。而虚拟空间是有信息的,元宇宙甚至是自然世界与虚拟世界难分边界的扩展现实;自然界和虚拟界的感知框架是平行关系,体现了交互对等原则。[23]75当人由于迷恋信息而局限在狭隘的意识中,无法处于心灵自由时,就无法感受主观感知间相互沟通的特性;但心灵感知框架间是可相印、沟通的,故自然界和虚拟界同等地依赖于我们的给定感知框架,[33]7-8故,人之间的沟通可通过不同的界面而连接,只是玩游戏上瘾的人或会觉得虚拟网络、元宇宙更真实。元宇宙也涉及身体感官,则人的知觉无论面对任何界面的外部事物时皆需要身体感官。
身体感官是最重要的中介和信息传输器,但不是唯一条件,而是“我”的身体在指称确认系统中的作用、视角性视觉经验、对外部对象的个体化等方面形成“我对外部事物的知觉”,使人能感受到外部事物。[34]在虚拟界或元宇宙中,身体通过可穿戴设备等对对象产生知觉,但虚拟界的主观身体感觉、视觉所见对象及相关客体特性等体验感,与自然界通过神经递质产生的感觉内容不同。例如,人在自然界或元宇宙中皆有在场感,但源于自然界的界面特性与元宇宙不同,我在自然界同你说话,与通过元宇宙与你对话,身体对空间的感受有微妙的不同,自然空间中眼神间有通过波的力量等。但不能说在元宇宙或虚拟世界中,人的主观在其中就不能沟通;元宇宙等空间中的对象与社会发生关系是存在的,因此才构成了一个新世界。
即不同界面虽有区别,但不变的是人与人皆通过感官而实现意识间的沟通。相对于人的意识而言,虚拟界与自然界皆是人的心灵意识自由发挥作用的场域。但人的意识可处于不受信息干扰的状态,超越对一切信息的关注,去关切人的此在自由与生命本性,这时人才能完全不受算法自动化推送的诱惑。故,人的心灵意识只是相对于虚拟界和自然界等界面而言是不变的,但意识自身却是流变的、可超越的。因此,只能说相对于人的心灵意识而言,虚拟界与自然界是平等的。
这是由于人有潜存的心灵自由,才能以相对不变的主观感知在不同的界面、场域中交流,并照见出可变的自然界与虚拟界的界面平等性。翟振明认为,这两种界面皆是不真实的,虚拟界与自然界皆是人的心灵意识发挥作用的场域;[23]73并且两者皆是流变的经验呈现,流变就意味着无实体,自然界如影子,虚拟界也如影子;而根据柏拉图的观点,虚拟界是影子的影子;而从物质视角看,虚拟界与自然界都有对象、关系、信息的生成变化或冲突,则皆有平等的相对真实。
那么,无论哪一种视角皆可推论出,虚拟界与自然界应受到平等地位对待,这就形成法律上的虚拟界与自然界平等原则。故,在虚拟界或与自然界相融的元宇宙中侵权,也与自然界一样,有相应的法律权利、责任与义务。
2.虚拟界与自然界中的具体责任可能不同
在元宇宙或虚拟界中,由于主体感受内容、伤害、类型、意图、侵权客体特性等情形不同于自然界,从而责任可能与后者不同,所适用的法条、条款也可能不同。如,一女子在元宇宙中遭“性侵”,由于行为方式特殊,引起较大争议。①对此,可能存在的观点是,假如受害者明知风险,却故意关闭了“个人边界”安全保护功能,那么不构成伤害。但假如受害者不明知,可能构成伤害。本文认为,如果伤害成立,伤害客体主要是受害者性自由选择权和精神感觉,且穿戴设备下的感官感受与自然界有差异,如后果不严重,可适用精神损害赔偿;如构成犯罪,由于行为与侵犯客体等不同,其应构成新罪名“虚拟强奸罪”。
(三)新人类与人类平等原则
1.该原则的哲思渊源及其不同情形
心灵自由涉及无我执,就会越出自我中心,进而就涉及人类内部、人类与非人类之间的公道。而赫拉利言:“究竟是什么让人优于其他动物?……只要是数据,都无高下之别。”[1]350人为了获得幸福,就需要大量处理数据,但随着算法、数据比人更了解自己,权力就可能从人类手中转到算法手中,“数据主义对人类造成的威胁,正如人类对其他动物所造成的威胁”。[1]357因此,如人类要依凭公道反对数据进化主义的威胁,就要思考人类须更多地尊重、保护其他生灵的权利,并寻找生命的意义,从而认可人不仅是生化算法,人是有内在价值的,才能不被数据进化主义所统治、奴役。
广义平等含东方之众生平等,即:在内在超越的灵性直观视角下,虽在现象上个体独立,但道生万物,一切生命在本质上含有道之本体性,一即一切;在此意义上物我之分别消失,从而生命间在本体上平等,这才会有齐物论、众生平等的认识;且“己所不欲,勿施于人”观也蕴含生命间的平等尊重。[35]145-157
但由于众生平等原则是本体境界的,在现象界,毕竟存在不同生命类的智慧等级;人类保护动物,不一定使之具有平等地位;故可基于良知进行判断。本文主要针对未来可能有平等主体资格的生命,如脑机结合或基因优化而形成的狭义新人类进行探索。②[36]新人类极可能在能力上超过人类,但都属于智慧生命。所以为了维护生命尊严间的平等,笔者此处将众生平等原则的外延缩限为人类与新人类平等原则。
人类与新人类平等原则涉及以下两种情形:
第一种情形是广义新人类,即在弱AI前提下,由技术权贵与专用AI结合的算法主体(这小范围正义依然属于社会法)。因其解释权、控制力远远超过普通人,故应让广义新人类的实质地位不高于人类。有人认为弱AI只有弱伦理性,[2]294那么,由于拥有强大算力的算法主体有采证优势,立法就应强调让广义新人类即算法主体负有举证责任,以与普通人平衡。
例如,关于人在回路原则的运用,郑戈基于在自动驾驶中生命权优先于自由权原理,赞同2021年德国《道路交通法》的如下新规:涉及自动驾驶汽车条款在接管问题上,确立了AI“拒绝(人)接管”规则,与2017年完全由司机承担责任的立法相反。③[4]74-75但笔者认为最好是在这两个对立的立法间,取一个折中的立法,并尊重普通人自由意志不被广义新人类如厂家所控制,则当自动汽车面临突发事件的情形,应兼顾生命权与自由而作出如下法律建议:关于最高自动等级AI汽车,当人来不及反应去紧急接管时,自动驾驶汽车应代替人行动,如不代替,则构成厂家产品责任;但是,人有权利在紧急状态下接管AI汽车驾驶,AI不得阻碍人的接管,否则构成间接故意的侵权责任,其相关举证责任在厂家;但如人接管AI驾驶后,由此造成的事故由人自己负责。
第二种情形是狭义新人类,即内置芯片的脑机结合,或编辑基因加上脑机结合形成的新人类。有学者认为,新人类可对冲人类技术权贵与专用AI的结合,但这对冲依然基于进化人文主义、力量不可预期的丛林法则。因为新人类在技能上可能强于人类,这就在客观上形成了弱肉强食的可能性,容易导致新问题,故,更需司法在良知与正当间平衡。不过为了限制脑机结合的新人类控制人类,当尚在危机萌芽可控时,就最好有立法先行。
立法例:当脑机结合甚或加上基因优化、克隆形成狭义新人类时,就要进入社会法立法程序,即:首先,由于狭义新人类与人类皆是有感官的生命,新人类是现今人类的基因延续,与人类总体特征一样,只是技能更强大,所以人类与新人类间不适用生命优先原则,而应适用新人类与人类平等原则;④其次,新人类的父母或委托人可为其办理拥有主体资格的身份证;最后,当确定发现某个新人类出现后,就要通过系列流程实现监督,防范新人类歧视人类。
以上立法之鹄的是:不得因新人类有更大能力,便在地位上优先于今日之人类。良知将判断正当优先还是共同善优先:假如狭义新人类的人数不多,并且在社会或政府能够控制其合理发展方向之前提下,新人类权利属于正当优先的私法法域管辖;但当狭义新人类的人数太多,或加上基因优化,社会或政府无力控制其侵权导致的人类整体危机时,新人类必须属于社会法法域管辖,依据良知优先原则,让渡那些不合良知的、侵犯平等权的权利,以维护新人类与人类平等原则。[35]153
2.新人类与人类平等原则推出的人控制机规则
未来可能会出现与现今人类生命特征雷同的两种新人类:第一种是“机控制人原理”下的新人类,即如同马斯克实验中被AI控制意识与行为的猴子,芯片控制人的大脑。[37]
第二种是“人控制机原理”下的新人类,即以人的清醒意识为前提,通过人的意识传递给AI,AI只是作为人脑指挥下的工具,指挥自身身体(或假肢)运动 。例如,下肢有残疾的巴西球员穿上AI盔甲后,也能在大脑意识的指挥下,用假肢踢出一球。[38]又如2023年4月,上海瑞金医院发布临床研究成果,实验已能运用脑机接口技术对神经进行调控:该技术将脑机接口的电磁脉冲发生器与电极条相连,然后刺激神经核团,从而影响情绪。但患者吴先生说自己自主控制脑机开关,且感受到自己的内心变化,而不是被动地接受外界的影响。[39]这说明这种电磁脉冲并没有指挥大脑,也没有读取思想信息内容,而只是简单用外物刺激内触觉,但人还是能自主控制自己的意识,此技术尚未达到机控制人的程度。
尤斯特(Yuste)等人提出了五项神经权利:受保护的自由意志和决策、精神隐私权、防止改变人格的操纵、公平获得智力增强、防止神经技术核心算法中的偏见。⑤[40]1计算机博士夏书银赞同自由意志和决策权,并认为:脑机接口技术应尊重人的自我决断,当人了解了机控制人原理后,知道自我意识将要受到AI所控制,并同意这一做法后,才能让该人接受芯片植入大脑的医疗行为。所以,他认为脑机结合中应遵循自知、自决、自主规则,而不是人控制机规则。他的观点很符合正当优先原则。
但笔者认为,如人受不了诱惑,在我执及偏见指挥的自由意志下作出决断,可能不符合人在无执之心灵自由下不受诱惑的决断。即便人自主了解了机控制人原理后,成为“机控制人”下的新人类,后果反而是失去了自由意志,成为被机器支配的肉体。一般情形下,这自由意志选择了“机控制人”,后果却是无法自主意识,恰是对人的自由精神的葬送,从而机控制人原理有悖于人是主体的判断。假如没有法律限制,其将可能让很多人处于“机控制人”的行尸走肉状态。此原理还将鼓励可能出现的强AI通过脑机结合控制、奴役人类,因而应被杜绝。因此,人类只能制定人控制机规则,而非机控制人规则,即:人的自由以不能选择“机控制人”为前提。
据报道,联合国教科文组织成员国于2023年11月投票决定是否制定全球神经技术指南,[40]1笔者建议将新人类与人类平等原则推出的如下规则写入该指南:
(1)只允许“人控制机”而不允许“机控制人”状态下的脑机结合,不能因暂时满足自由意志而允许机器最终控制人类的自由意志;且限制“机控制动物”,使其不足以强大到伤害人类。例外情形是,个别人为了牺牲自我意识而拯救人类整体于危机时,许可其签字后接受暂时的“机控制人”状态,但事后应立即恢复其精神自由。
并且,只允许患者(或被脑机结合的人)本人控制本人的脑机结合芯片;如患者本人属于无识别能力与控制能力的完全无民事行为能力人,由其第一顺序监护人控制该芯片;当监护人去世,存在监护争议时,有血缘关系者优先;但如有血缘关系监护人存在不利于该患者行为时,由有诚信的社会组织来担任其监护人。
(2)脑机结合在医疗上只允许用于治疗现有疾病,不允许给正常人使用,更不允许配合基因优化与编辑使用。脑机结合用于商业时亦然。
(3)脑机结合中不仅要保护生化状态的神经隐私权,还应全面保护意识内容的隐私即思想隐私权。
(4)防止提前植入不应有的情绪程序,例如控制情绪或引起情绪混乱的病毒程序;并防止错误信息输入或控制头脑。
(5)不允许有深度学习的算法进入脑机接口,即便是无意识的自主性算法也不允许进入脑机接口;更不允许有意识的人工智能进入脑机接口。
(6)人机结合中,不允许人工智能未经公认的法定医学机构认可并未经本人允许,而改变人的体质(包括经络)的一些操纵。
①《南方都市报》等媒体报道,2022年Meta宣布进军元宇宙并推出多款VR游戏以来,已经发生至少五起线上性侵事件。如,一名女性称,进入Meta一款名为《地平线世界》的VR游戏后,她遭到了陌生人性侵。Meta发言人表示,这是因为该玩家关闭了一项默认开启的“个人边界”安全保护功能。
②③金梦认为,为算法立法的过程就还原为对于算法主体行为的法律规制问题。
③所谓人在回路,指在机器学习、自动驾驶、自动化武器及自动化决策等AI运用场景中要求人类的介入、把关。详见郑戈:《人工智能与法律的未来再思考》,载《数字法治》,2023年第3期。
④但当有意识的强AI无法被阻止而出现时,就适用生命优先原则。
⑤澎湃新闻、《齐鲁晚报》《南方都市报》等多家媒体报道,2023年7月13日,联合国教科文组织在巴黎召开会议,学者与官员们讨论如何规范读脑技术以保护隐私等人权,且脑机接口等如被医生和他人控制,就存在控制大脑、读心,从而控制人的心灵和行为的可能。
三、结论:通过本正义原则
防范数据进化主义
本文开篇总结了赫拉利在《未来简史:智人与智神》中提出的问题,经过论证后,对此的回答是:由于人不仅是生化算法,人比仅有算法的AI更有内在价值;所以人类不适用数据进化人文主义,因此,人类要提前为未来立法,以引导社会往向善的方向发展。需要法之道与功利论、义务论等自然法,三元一体,方才足以有力抵御数据进化人文主义,预防其隐患。而三种理想法的共时性存在又展现为纯粹良知与正当的共时性存在,并通过提升良知而形成如下三层德性阶梯。
(1) 功利论自然法及其基于情感论、计算理性的原则:数据主义是其体现之一。但问题是:面对狼与狼的恐惧假设,人为何选择的是诸如霍布斯式的和平等德性,而非蜕化为弱肉强食的进化人文主义原则?这说明人有往良知方向提升的潜力,才可能不蜕化为进化人文主义,由此推论出第二层。
(2)内涵向德的义务论自然法及其意蕴向善德性的理性推出的正当优先等德性原则,如康德、罗尔斯的理论。但问题是,人如果完全按照自我意志行动,就有可能选择自我损害的自由意志(如机控制人),那么,向善而自律的自由意志不能丢失在意义的追问中发掘人之纯粹良知的潜能,由此推论出第三层。
(3) 有意义感的至善是存在的,例如东方思想现代转化的法之道(本性法、中国自然法),又如古罗马之西塞罗的自然法等。但后者的神本位不适应现代性。而法之道是世俗本位的,能适应现代性,因而能与现代功利论、义务论自然法共时性存在。虽此命名有民族性特征,但这良知判断力本身是人类不同文化可达成的重叠共识,从而至少可提升中国法治的精神追求。
并且,法之道、功利论、义务论等法哲学诠释的视角虽有所不同,但皆认可人的良知潜力。只不过道论认为,在形而上层面人平等具有道之本质,从而也具有潜在的至上性、本体性等,而不仅是生化算法,从而道论能够更牢实地为人赋予意义、主体性和内在价值,预防数据进化人文主义对人之内在价值的否定。
为了预防道与自然法之间共时性存在的冲突,保障共时性存在,故在现实中需要良知与正当在法域间的功能划界,即:尤其在关乎AI、算法等宇宙大范围正义范畴议题时,需要法之道推出的良知优先原则适用于社会法法域;但将差别原则转入社会法法域之后,狭义的正当或自由优先原则更适合传统法域;本文特别强调私法法域与社会法法域的功能划界,但并不否定正当优先原则不适用于传统的其他法域。而本文强调良知与正当的功能划界原则的目的是:期待通过正当优先与良知优先二原则的结合,扼制算法时代的丛林法则。
义务论之所以需要法之道,是因前者源于近代西方的社会契约,即以假设为出发点的古典自然法学派的发展,但这在未来海量数据的信息社会将进一步受到冲击。[41]因为过去是从假设出发,未来将从大数据出发开始研究,某些数据结论可直接作为立法的起点;且过去强调实体规律,但未来更强调数据规律,则大数据的统计就构成了信息的有知之幕。
按理说未来社会的有知之幕只要合于程序正义即可。但如仅强调程序,当出现算法底层程序异化而导致难以解释的算法黑箱,或存在算法工程师的知识局限、技术壁垒或科技公司在开发应用层面的组织黑箱,或含文化歧视的底层程序,尤其是出现脑机结合新人类、强AI、元宇宙等中潜藏之风险时,程序皆可能蜕化为进化人文主义支配下的恶法。因而,仅强调程序正义,可能导致人类的整体风险。从而这方面的议题属于社会法法域。
虽然义务论的自由意志是个看不见的黑箱,但是法之道不是自然法学派的假设,而是任何人在绝对纯粹旁观的瞬间皆可能直观发现(可成共识)的良知判断力所判断的法则;故良知优先具有普遍性,能够应对大数据时代通过数据规律的有知之幕等超出传统法域范围的议题,为之立法。
即当出现诸如算法、数字社会中的新人类、强AI或元宇宙等时,就需要基于纯粹良知的无知之幕推衍社会法法域之总原则,即良知与正当的功能划界原则,来判断其法域归属,也即社会法法域下纯粹良知优先,传统法法域下正当优先。如涉及新人类对共同良知构成威胁时,就应以社会法法域的人类与新人类平等原则等为优先,其推出的规则即人控制机规则。本文建议将此规则写入全球神经技术指南。不过虚拟界与自然界平等原则应适用于任何法域。
总之,人的良知与正当是共时性存在的,并且,社会法法域与传统法法域尤其是私法间存有功能划界,强调良知优先主要限制于社会法法域,才能在算法为人立法的算法社会中,既坚守人的意义感与内在价值,又坚守由人为算法立法的法治立场,以规制算法不给生命或宇宙生态带来灾难。
参考文献
2024 · 第3期第4篇
特别说明:
(1)本公号仅用于学术信息的发布与交流,不存在任何营利行为;
(2)本公众号推文使用图片除特别说明外,均来自于网络。
往期推荐
编辑:张文哲
校对:杨丽雯