李学尧 | 原则主义在人工智能伦理领域的应用、反思及其超越

学术   2024-12-30 07:15   天津  

原则主义在人工智能伦理领域的应用、反思及其超越

李学尧


作者简介

李学尧(1977—),浙江瑞安人,上海交通大学凯原法学院教授、博士生导师,法律与认知智能实验室主任,主要研究方向:法学理论、法律与科技创新。

本文原载《江淮论坛》2024年第5期,感谢刊物授权推送

摘要:原则主义是当前全球人工智能伦理研究和实践推进的主导性理论。原则主义是结合了道义论、后果论与美德伦理学等哲学理论的“价值规范组合”,回到某个单一经典伦理立场,既无法解决理论自洽问题,还会出现“极端化”或者僵化适用的问题。为应对这些挑战,可对其作适应性改造:运用演化心理学的基础道德理论来重构公共道德理论,提升理论深刻性;采用行为机器学路径方向的技术社会系统理论,对“反思平衡机制”进行改造,解决因价值规范面对技术变革能力不足的僵化问题。基于原则主义与法学在方法与思路上具有高度相似性,法学与应用伦理学可无缝融合,通过伦理原则的“法化”来提升人工智能伦理制度可操作性。

关键词:人工智能伦理;原则主义;社会系统理论;人工智能法

近年来,人们关于人工智能伦理的讨论重点已经从寻求共识、凝练伦理原则转向了相关原则规范的实践化、技术化。在这个过程中,相关学术研讨主要聚焦在对科技伦理中原则主义思路的反思、辩护和超越。当前,如何使得人工智能伦理原则“可确定、可预期和可操作”,不仅是一个实务性的应用需求,还涉及科技创新工作中政府职责再厘定、营商环境优化以及新质生产力促进发展中的价值平衡等紧迫性课题。因此,有必要对其作超越应用伦理学、生物医学伦理学的跨学科对话和讨论,以便更好地为相关立法和政策制定提供科学化的参考。


一、科技伦理学中的原则主义


研讨人工智能原则的实践化,无法回避生物医药伦理或者科技伦理的主流理论:原则主义理论。原则主义理论由汤姆·L·博尚普和詹姆斯·F·柴德雷斯于1979年在《生物医学伦理学原则》一书中提出。他们试图通过对自主、行善(仁慈)、不伤害和公正这四个原则的提炼,建立一个超越文化和个人差异、普遍适用于生物医学环境的共同道德框架。

原则主义的生物医学伦理观目前已经被广泛应用于临床伦理决策和相关的政策制定。世界各国医疗和相关领域的专业人员经常使用这四个原则作为清单,以应对如知情同意、临终关怀和医疗资源分配等伦理困境问题。

博尚普和柴德雷斯所提出的伦理决策方法之所以被称为“原则主义”,是他们的批评者克劳泽和格特在1990年发表的一篇批判论文中的称呼,最初具有贬义内涵,后来逐渐被接受为对一个学术流派的中立性指称。克劳泽和格特以及其他学者对原则主义的批判可以概括为以下几点。

一是,缺乏统一的道德理论基础。克劳泽和格特认为,博尚普和柴德雷斯提出的基于四原则的伦理决策方法,无非就是尽可能通过清单方式,例举一些相互存在冲突、逻辑关系难以界定的伦理原则。他们称呼原则主义理论为没有哲学深度的 “缝合怪”。

二是,缺乏可操作性。批判者们认为抽象的伦理原则难以直接转化为具体的操作指南,原则主义的四项核心原则也无法作为行为指南来为实践提供操作性指引,特别是复杂案例中,对于优先考虑哪个原则提供的指导能力有限。原则主义设定的从“道德理论”到“原则”再到“规则”,最后落脚于“特殊的判断和行动”的道德推理方式会落入相对主义的陷阱之中。

三是,成为事后合理化工具的嫌疑。与相对主义相关的是,各个原则背后都有自己独立的理论逻辑(合法性来源),因此这些伦理原则混杂在一起来为伦理困境决策者提供指导,最后的结果是:不管伦理困境中的人们如何做出决策,他们都可以依据原则主义伦理原则使自己处于正确的地位。

四是忽视情景和文化差异。原则主义不仅忽略具体应用场景的特殊性,不能作为行为指引,而且,还无法反应不同文化背景下对四项核心原则的差异性理解。与此相关的一系列批判观点还包括原则主义是一种西方文化中心主义,甚至美国中心主义的理论。

在克劳泽和格特等人的持续批判下,原则主义的理论也不断演化,甚而在“原则主义”的批判性概念框架下逐渐体系化、哲理化。主要的修正性理论装置有四。

一是,公共道德论。原则主义的创始人博尚普对“公共道德”这一类似于“公共善”的概念进行证立。他试图超越义务论、结果论和美德伦理,将原则主义的四个原则表述为人类社会中普遍接受的道德规范。他认为,公共道德是人类社会在长期的道德演变过程中逐渐形成了某些广泛认可的道德原则;原则主义中的四项核心原则是公共道德的具体表达,不仅是生物医学伦理,也是人类其他领域道德决策的指导原则。

二是,文化可适用性和情景敏感性。一则,反对相对主义,强调伦理原则具有跨文化的适应性,因而主张在医学伦理中应坚持某些普遍性的伦理原则。基于公共道德论,这些原则是全球性的,超越宗教、文化和伦理学理论背景,体现在各种文化和法律体系中。二则,可以进一步增强伦理原则的灵活性,强调每个原则的应用可能因不同文化背景而不同。三则,承认伦理决策过程中不同情境的多样性。通过引入对具体情境的敏感性,原则主义变得更加灵活,允许对原则进行动态调整。

三是,反思平衡机制。罗尔斯在《正义论》中的反思平衡机制理论主要思路是通过在道德直觉和道德原则之间的反复调整,寻找平衡点。原则主义将其改造成具体判断、伦理原则和相互调整的三要素机制,来解决具体情境和伦理原则过于抽象化的问题。

四是,实用性面向和共识性决策方法。为了应对原则主义缺乏处理实际伦理争议的指导力的批判,原则主义的回应思路是与具体的伦理案例相结合,强调在处理医疗伦理、法律伦理、公共政策等领域的问题时,原则必须通过具体的情境分析来加以适用。通过具体案例的分析,原则主义被应用于更广泛的实际问题中,具有了更强的操作性。与此相关的是共识性决策方法,其旨在通过群体讨论来形成对伦理问题的集体共识,特别是在处理医疗伦理委员会或公共政策伦理问题时,群体成员通过对伦理原则的共同反思达成一致。这一机制帮助原则主义从个体层面扩展到了群体层面的伦理判断。


二、原则主义在人工智能伦理研究和政策制定中的主导地位


随着人工智能伦理讨论的兴起,近年来,原则主义理论延续了生物医学伦理对人工智能伦理的深刻影响,主导了人工智能伦理的理论研究和政策制定。人们的普遍思路是:借鉴生物医学伦理的四项核心原则的方法论体系,将人工智能伦理的实质性内容概括为一系列原则,比如“增进(人类)福祉、反偏私和公平、准确性、透明度和参与性、可解释性、保护隐私、可追责”的七原则说,或者“可信、安全和负责任人工智能”的三原则说,或者在生物医学伦理四原则基础上加上“可解释性”的五原则说等模式,试图通过此种路径建立一套指导人工智能发展和应用的道德框架。具体表现如下。

一是,四项核心伦理原则与现有人工智能伦理原则的对称性关系。很多同时研究生物医学伦理和人工智能伦理的学者认为,原则主义的四大伦理原则——尊重自主、行善、不伤害和正义——能够跨越不同领域,适用于多种伦理情境,包括人工智能技术的开发、使用和监管。由于人工智能的应用范围极其广泛,从医疗、金融到公共服务等多个领域,公共道德性质的四项核心原则能够帮助这些领域的研究者和政策制定者采用一致的伦理框架。比如,在人工智能的应用中,特别是在与个人数据处理相关的领域,尊重用户的隐私权和选择权成为关键问题。人工智能的自动化决策可能侵犯个人自主权,原则主义的自主原则为这些问题提供了伦理框架,强调透明性和告知同意的重要性。又如,仁慈和不伤害原则能够指导人工智能设计时必须确保技术造福人类并避免造成伤害,特别是在涉及医疗和公共安全的人工智能应用中。此外,正义原则还能保障人工智能技术的公平使用,特别是在数据偏见、算法歧视和公平性问题上。该原则确保在设计和实施人工智能系统时,考虑到社会各阶层的公平受益,不让技术发展加剧社会不平等。

二是,各类伦理原则和准则框架基本上依赖原则主义的理论框架。世界各国政府或者国际组织的各种人工智能伦理指南都有一个共同的目标:支持和改善人工智能的道德发展、设计和部署。这些表述的另一共同点是,它们都假设人工智能伦理提供了一个普遍的基础——包括理论、原则、价值观等——设计者可以将其应用于个案,从而提高人工智能发展的伦理可持续性。

欧盟发布的人工智能伦理指南、美国政府发布的人工智能战略文件中都反映了原则主义的影响。欧盟委员会指定的人工智能高级专家组在起草颁布欧盟《人工智能法》时,就较为明确地指明了它与原则主义理论的关系。而美国发布的人工智能战略文件中将“可信人工智能”解释为公平、非歧视、透明、安全和有保障的人工智能,也被学术界视为是其重点在于确保人工智能发展遵循四项核心伦理原则。

三是,作为伦理决策方法在实务中的广泛应用:以自动驾驶和人工智能医疗为例。自动驾驶汽车技术的开发涉及安全性和自主权的冲突。原则主义为这种情境下的道德决策提供的指导是:既要保护乘客和行人的安全(不伤害原则),又要尊重使用者的自主权和自由(尊重自主原则)。这种灵活的框架允许多种因素的权衡,使得人工智能伦理问题的复杂性得以应对。基于行善原则,要求自动驾驶系统的开发应优先考虑如何提升安全性和可靠性,最大限度地减少交通事故,尤其是通过改进传感器和决策算法。自动驾驶公司在部署技术时应关注社会福祉,例如通过共享交通数据来减少拥堵并提高交通效率。正义原则还涉及如何处理人工智能系统中的算法偏见。正义原则要求开发者在设计自动驾驶技术时,确保算法的公平性,并避免基于种族、性别或其他社会因素的歧视。

原则主义在人工智能医疗伦理研究中的应用尤为明显。人工智能在医疗领域的应用涉及深刻的伦理问题,例如如何确保人工智能诊断工具符合医疗伦理标准。原则主义通过四项核心原则提供了一个全方位的框架,确保人工智能技术不仅对患者有利(行善),还不会带来意外的伤害(不伤害),同时保障患者的隐私和知情同意(尊重自主)以及公平分配医疗资源(正义)。在人工智能诊断技术中,原则主义被用来评估技术应用对患者的影响,指导人工智能医疗工具的设计和使用。特别是行善与不伤害的原则帮助研究者评估人工智能系统可能带来的风险,并确保这些系统真正有助于提升医疗服务质量。

在实际应用中,人工智能技术的伦理挑战往往涉及不同原则之间的冲突。例如,在开发具有自主性的人工智能时,如何在确保自主权与保护社会安全和不伤害之间进行平衡,是一个典型的伦理难题。原则主义的框架允许在不同情境中权衡和调和这些原则,这使得它成为制定人工智能伦理决策的重要工具。


三、原则主义在人工智能伦理应用中的困境


近年来,随着原则主义的人工智能伦理观在实践中的不断推进,特别是在欧盟的正式法律文本中,《可信人工智能伦理指南》(2019)和明确前述文件法律效力的《人工智能法》对原则主义思路的确认,在学理上延续了生物医学伦理关于原则主义的相关批判,并根据人工智能伦理的理论场景作了一些加强型的批判论证。主要观点可以概括为原则间冲突的权衡困难、抽象性导致的操作性不足、对技术复杂性的忽视、责任与权力分配的模糊性以及缺乏对全球性文化差异的考量。可见,尽管原则主义为人工智能伦理提供了一个重要的分析框架,但它在应对人工智能技术的复杂性和全球化挑战方面仍然存在局限性。

一是,可操作性问题。医学和人工智能发展之间存在重大差异,人工智能伦理的应用场景更加多样、伦理冲突的困境更加复杂,原则主义的思路很难转化为技术路线。人工智能伦理原则如“尊重自主”或“行善”虽然提供了高层次的指导,但如何具体实施这些原则尚缺乏操作细节。例如,在数据隐私保护中,人工智能系统需要处理大量用户数据,但“尊重自主”该如何具体落实为技术措施,如数据处理协议或算法透明度,往往模糊不清。

在人工智能伦理领域,原则主义还常常面临不同伦理原则之间的冲突,尤其是在尊重自主、行善、不伤害和正义之间的平衡上,原则间的冲突可能导致伦理原则无法有效指导实际决策。例如,开发人工智能的企业往往要在尊重隐私(自主权)和提供更好的个性化服务(行善)之间做出权衡,而原则主义缺少详细的权衡标准,尤其是在复杂的技术应用场景中。又如,自动驾驶汽车的决策场景中,尊重用户自主权和确保行人或乘客的安全(不伤害)之间可能存在矛盾。在实际应用中,如何权衡这些原则缺乏明确的指导。

二是,“伦理漂白”问题。主要的观点就是认为企业或者国家通过宣称遵守高尚的伦理原则来掩盖其实际行为中的伦理问题。其中,最大的批判对象是《可信人工智能伦理指南》(2019),批判观点集中在两个方面。一方面因为伦理原则内容的空洞性和模糊性,使得相关企业的实际行为无法被约束,所谓的“尊重人类尊严”或“促进社会福利”可能在不同情境下有不同的解释,容易被企业用于粉饰其有争议的行为,用于正当化不道德行为。例如,强调“创新”或“效率”原则,来掩饰对隐私或公平的侵犯;批评者通过分析具体案例,如某些科技公司在人工智能应用中存在的偏见和歧视问题,来说明原则主义如何被用于掩盖实际的伦理缺陷。另一方面通过公开宣称遵守伦理原则,企业可能试图转移公众对其不道德行为的关注,或者推迟更严格的法律监管。这被视为一种策略,以维持现有的商业模式,而不做出实质性的改变。

三是,忽视了人工智能系统所依赖技术的复杂性。批判者认为,原则主义在处理高度复杂的人工智能技术问题时,容易忽视技术本身的复杂性。例如,人工智能系统的训练数据往往来自于人类行为数据,这些数据本身可能存在偏见,导致人工智能系统产生不公正的决策。原则主义中关于“正义”的抽象指导难以应对如何具体消除算法偏见这一技术问题。此外,人工智能系统的“黑箱”特性,即决策过程的复杂性和不透明性,给伦理监督带来了巨大的挑战,而原则主义在这些问题上的指导显得无力。

四是,缺乏关于技术权力与责任关系的讨论。原则主义框架内对“责任”的讨论通常围绕个人或个体行为者进行,较少涉及技术权力结构的问题。随着人工智能技术的广泛应用,人工智能开发者、使用者和管理者之间的责任划分变得越来越复杂。例如,自动驾驶汽车发生事故时,谁应对事故负责?是开发算法的程序员,使用车辆的个人,还是提供平台的公司?原则主义缺乏对这些多方权力(利)关系的深入讨论,使得它在处理技术应用中权责分配的复杂问题时显得不足。此外,人工智能技术的迅猛发展使得这些权力关系变得更加模糊和动态,传统的伦理框架难以适应。

与此相关的批判还集中于以下两个方面。一方面是个人原子主义的问题。原则主义往往关注个体行为,而忽略了更广泛的社会和结构性问题,如权力失衡、系统性歧视和不平等。另一方面是原则主义理论框架缺乏多元化利益相关者参与机制的制度设计。仅由技术专家或企业高层制定的伦理原则,可能无法反映社会的多元价值和需求。缺乏受影响群体的参与,使得这些原则可能偏颇或不全面。

五是,全球性伦理挑战与文化差异讨论的不足。虽然原则主义辩护者认为其伦理原则具有普遍适用性,但批判者认为在全球不同文化和社会背景下,人工智能伦理问题的讨论往往呈现出不同的价值取向,具有强烈的西方中心主义的色彩,原则主义没有深入探讨文化差异,在全球范围的适用性上受到挑战。例如,隐私权在西方文化中受到高度重视,而在一些亚洲国家,集体福祉可能被优先考虑。如何在全球化的人工智能技术应用中处理这些文化差异,是原则主义框架难以应对的问题。


四、超越之道:演化心理学与社会技术系统理论的改造思路


在上述批判性的批评观点中,也隐含了批判者的解决思路。一是在实务化程度方面,应采取更具体和可操作的措施。这包括制定明确的法规、建立独立的监督机构,以及促进公众和多元利益相关者的参与。二是应重视强调社会正义和权力关系,伦理讨论应更关注社会正义和权力结构,质疑谁在制定原则,谁受益,谁受损。这有助于揭示隐藏的利益冲突和不公平。三是倡导透明度和问责制,防止“伦理漂白”,确保企业的伦理承诺可以被外部审查和评估,并对违规行为追究责任。四是促进利益相关方参与,采用风险评估以及为政策制定提供价值基础等方式。原则主义具有开放性的理论属性,需要我们对其插入类似于公共道德论、反思平衡机制的理论装置。

原则主义本质上是一种结合了道义论、后果论与美德伦理学等哲学理论的“价值规范组合”,回到某个单一经典伦理立场(如道义论、后果论或美德伦理学),无法解决理论自洽问题,在可操作性方面会造成“极端化”或者僵化的现象,还无法具备原则主义周全性、共识性和灵活性的优势。为应对这些批判和挑战,可对原则主义进行适应性改造。一方面,运用演化心理学改造“公共道德论”,提升理论自洽性、深刻性和动态化。另一方面,重点采用行为机器学意义上的社会技术系统,将道德改革思路导入反思平衡机制中,解决因价值规范面对技术变革能力不足的僵化问题。

(一)增强融贯性:演化心理学视角下的“公共道德论”

 公共道德论是一个将多样的伦理学理论糅合在一起的理论概念,包含了美德伦理学、康德的义务论、效益主义、社会契约论和自然法等多个哲学传统。

公共道德论可以追溯到亚里士多德的美德伦理学,虽然它并不直接从美德伦理学发展而来,但强调共同伦理观念符合美德伦理学中的“理性中道”思想。公共道德论吸收了康德义务论的部分要素,尤其是在“尊重自主”原则上。在公共道德论中,尊重个体的自主权是核心的伦理原则之一,这与康德强调人作为道德主体的尊严相一致。行善和不伤害原则体现了效益主义的思想。行善原则要求行动应有助于他人的福祉,而不伤害原则则要求避免给他人带来伤害,这些都可以与效益主义的伦理考量联系起来,尽管公共道德论并没有全面采纳效益主义的全部主张。

公共道德论的另一重要渊源可以追溯到自然法传统,尤其是托马斯·阿奎那等人提出的自然法理论。自然法伦理学主张,有一些道德原则是基于人类理性的普遍性和自然秩序的必然性。这为公共道德论提供了理论支持,因为它同样主张某些伦理标准是跨文化、跨历史的普遍共识。

由于原则主义的公共道德理论试图调和各种哲学理论的对立性关系,因此,除非我们试图在理论建构上另起炉灶,否则,我们不可能退回到上述某个具体理论框架,比如回到纯粹的道义论,或者纯粹的义务论,或者纯粹的美德伦理学进行展开。因为,它事实上违背了原则主义“周全性”,在某些场景失去可适用性。但是,不可回避的是,它又因为包罗万象而使得内部关系很难调和,确实会容易陷入相对主义的伦理决策陷阱。那么,该如何有效解决这一问题呢?笔者的思路是将演化心理学中与公共道德类似的道德基础理论请进来,对公共道德理论进行改造,增强其理论统一性的同时,夯实其应对具体情景和社会变迁而变革的合法性规范基础。

公共道德理论和道德心理学具有相似性:二者都探索了跨文化的普遍道德原则或基础,都承认理性在道德推理中的重要作用,都试图通过不同的方式来解释和指导道德行为,都承认情境在道德判断中的重要性。因此,将两者进行融合,能够具备明显的优势。

一是,夯实了统一性规范基础。道德心理学,特别是乔纳森·海特的“道德基础理论”,探讨了人类如何通过进化和社会化形成道德判断。海特提出,人类具有一些基本的道德“基础”,例如关怀、公平、忠诚、权威和纯洁,这些基础是跨文化的普遍道德观念的心理根基。尽管不同文化可能在具体表达上有所差异,这些道德基础在全球范围内广泛存在。与此同时,这种理论也深入探讨了跨文化视角下道德差异的演化机制。

二是,对理性和经验关系更加科学的动态化阐述。在理性的概念之下,能够对行为主体的经验进行分类分级,从而达到责任追究的科学化和可解释性。原则主义认为,公共道德规范是通过理性和经验形成的,人们可以通过理性推理和社会实践来理解并接受这些规范。虽然公共道德强调了规则的普遍性,但也允许在具体情境中灵活应用这些规范,依靠个体的理性判断来权衡。道德心理学,特别是在劳伦斯·科尔伯格发展出来的道德发展理论中,探讨了人类道德推理的理性进程。科尔伯格认为,个体通过不同的发展阶段,逐渐能够理解和应用更为复杂的道德原则,特别是在更高的道德发展阶段,个体开始关注普遍的伦理原则,而非简单的规则遵循。这种思路能够在逻辑上缓解原则主义的“相对主义”批判。

三是,为具体道德决策提供可量化、可检验的科学化技术工具。道德心理学对于道德行为心理机制的广泛研究,可以为医疗伦理之外的所有人工智能应用领域的复杂道德决策提供科学有效、可量化检验的行为指导。公共道德理论的主要功能目标是为复杂、冲突的技术道德决策提供有效的行为指导,而在过去的四五十年中,道德心理学在研究道德决策的心理机制中积累了丰富的理论和实证基础。比如,双系统理论表明,道德决策结合了情感驱动与理性分析的作用。如果将演化心理学导入公共道德理论,将大大提升公共道德理论可操作性、可技术化的程度,并且最终能够通过人工智能技术以及生物医学技术本身来对其进行道德增强的应用。

(二)消除相对主义:从反思平衡机制到社会技术系统理论

在人工智能伦理制度构建过程中,社会技术系统理论是一种社会学家的理论方案,它源自对技术与社会的交互作用的研究,最早由社会学家Hughes 和 Bijker 等人提出。他们认为技术系统不仅仅是技术问题,技术的发展和应用与社会结构、文化、经济、政治等多种因素紧密相关。社会技术系统理论特别关注技术系统在复杂社会背景下如何塑造人类行为、重构权力关系以及对社会的影响。在人工智能伦理中,社会技术系统理论强调,人工智能技术不仅是一种工具,它嵌入并影响了整个社会技术系统的运作。社会技术系统理论的主要思路是,通过技术设计和政策干预来解决这些伦理问题。例如,在人工智能的伦理问题中,社会技术系统理论会考虑人工智能对隐私、权力分配、就业等方面的影响,认为要解决这些问题需要多方的参与和制度设计。

社会技术系统理论可以通过其系统性和多维度的社会分析视角,为反思平衡机制提供改进的思路,使其更适应技术驱动社会中复杂伦理问题的处理。在此过程中,社会技术系统理论对社会、技术、政策、文化等多元因素的考量,可以扩展反思平衡机制的分析范围,特别是在处理人工智能和其他复杂技术系统时。具体改造的思路和优势表现在通过引入社会技术系统理论,使反思平衡机制更适应技术复杂性和社会系统性的伦理问题,反思平衡机制通过扩展伦理考量要素范围、多方参与的共同反思机制、技术运用预防性反思机制等,运用长期社会影响分析视角、跨文化视角来调整道德直觉和原则。

一是,扩展反思平衡机制的范围:用技术嵌入的方式来建构道德反思机制。传统反思平衡机制专注于个体或小规模群体的道德直觉与道德原则之间的协调。然而,面对复杂的技术社会,如人工智能、自动化系统等,其可能无法有效应对技术所带来的广泛系统性影响。通过引入社会技术系统理论,可以扩展反思平衡的范围,将技术对社会的宏观影响纳入道德反思之中。通过社会技术系统的改进,反思平衡机制不再仅仅是通过个体或群体的道德直觉来调整伦理判断,而是通过分析技术如何影响整个社会(例如,技术对就业、隐私、权力分布等的系统性影响),来重新调整这些直觉和原则。技术不再是外在变量,而是与社会相互嵌入的因素,需要一并纳入伦理判断。

二是,从个体化决策到系统性决策:实现多方利益相关者的平衡。传统反思平衡机制更适用于个体或小团体的决策,在处理个人或医生与患者的伦理决策时发挥作用。然而,社会技术系统理论强调技术问题的多方利益相关者的复杂性,如在人工智能领域,涉及技术开发者、使用者、政策制定者、被影响的社会群体等多个利益相关方。通过引入社会技术系统理论,反思平衡机制可以从单一主体的反思扩展到多方利益相关者的反思过程。每一方都可以在这个平衡机制中表达其利益、关切和道德直觉,并通过不同技术影响的考量进行权衡。此方式特别适用于需要跨多个社会层面(例如,政策制定、技术设计、社会影响)协调的复杂技术伦理决策。

三是,引入社会动态:反思技术对社会结构的长期影响。反思平衡机制通常是基于短期伦理决策,强调在当前情境中的道德权衡。然而,技术的发展往往伴随着长期的社会结构变化,社会技术系统理论则能够评估技术对社会结构、权力关系、文化规范等方面的深远影响。通过引入社会技术系统理论,反思平衡机制可以纳入对技术的长期影响分析,考虑技术在未来如何重构社会,改变权力关系和文化规范。例如,人工智能在长期内如何影响就业市场、政治决策或人类自主性等。这使得反思平衡不仅局限于当前情境的直觉与原则的调整,还扩展到对未来社会技术动态的预见和考量。

四是,增强跨文化的道德反思:社会技术系统与文化背景的融合。传统反思平衡机制多基于普遍性的道德原则,如尊重自主、行善、不伤害和正义,而往往没有充分考虑技术在不同文化背景中的不同影响。社会技术系统理论强调技术的应用在不同文化、经济、政治环境下会产生不同的伦理问题。通过社会技术系统理论的视角,反思平衡机制可以在不同文化和社会背景中进行更加细致的平衡调整。例如,在不同文化中,技术的影响可能涉及不同的道德价值(如隐私、权威、群体合作等),反思平衡机制通过结合这些背景,能够更好地调整和应用道德原则,以适应全球不同背景的伦理决策。

五是,结合技术设计的伦理思维:预防性反思机制。反思平衡机制多用于事后反思,即当伦理冲突发生时进行调整。而社会技术系统理论可在技术设计的早期进行预防性反思,通过提前预测技术的社会影响,减少潜在的伦理冲突。结合社会技术系统理论,反思平衡机制可以在技术设计和实施阶段引入伦理预见,在技术开发的早期阶段通过反思平衡调整技术设计,以避免技术对社会带来负面影响。这可以通过增加技术伦理评估工具或伦理委员会在技术设计阶段来实现。

当然,社会技术系统理论仍是一个不断发展的理论体系,内部也存在诸多类似于技术决定论和社会结构论、技术专家主导和用户广泛参与、静态系统和动态系统、人类中心与技术中心等二元化的纷争。这既反映了技术与社会互动中的复杂性和多样性,也说明如果把握不好,其还会增加原则主义的相对化程度。笔者的思路是,要回到机器行为学、机器心理学和复杂适用系统理论,通过理论简化回到“可计算化”的技术本身,来处理技术的自主性、社会影响以及人类与技术协作的相关问题。


结语:法律理论应用的可能性


演化心理学和技术社会系统理论本质上是一种“抽象性理论”,如何将理论转化为行为指南,从而解决人工智能伦理制度的可操作性问题呢?这是基于“法化”过程中的人工智能伦理的实操性需求所引发的思考。从思考“如何开展人工智能伦理的立法工作”、“如何开展人工智能伦理的审查工作”,到剖析原则主义的理论论辩,最后,需要综合借鉴各种理论对原则主义理论框架进行理论改造,以通过理论自洽性、可演化性来提升原则主义的可操作性。这一改造的最终目的,是为了能够在有关人工智能伦理法的专门立法或者章节性立法(比如《人工智能法》中的一个部分)的文本中展开周全性、科学性、有效面向守法和司法实践的条款拟制,以及科学设计一个能够注重价值权衡过程的伦理审查制度。

在这里,可以通过对应用伦理学中的原则主义(四项核心原则)与法学中的比例原则的比较,来展开解释上述研究思路的可行性(运用法学的思考路径和方法来讨论科技伦理)。这两个产生于20世纪70年代风险社会之后的决策指引方法——一个主要面向生物医学伦理难题的决策者、一个主要面向司法决策或者执法决策难题的决策者,具有高度的相似性。因为这种相似性,可以发现,在人工智能伦理的研究和实务操作中,完全可以将应用伦理学与法学进行无缝融合的交叉研究的可能性。

更重要的是,不管原则主义如何演化,它都没有改变一个特征,即它属于“自上而下”的规范性方法,它的方法论本质有点类似于法学中的“比例原则”:从基于道义论为主的基本权利出发,在实务操作中为了适应风险社会纷繁复杂的场景,导入了诸多功利主义的方法和规范,比如必要性原则、成本收益(适当)原则、均衡性原则,等等。但是对于何时适用哪个子原则、子规则,完全依赖于具体司法判例中的情景进行判断。也正因如此,比例原则的研究必须借助于各种各样逻辑上难以被体系化的具体司法案例的汇编。这与原则主义注重伦理审查和决策的案例性指导有着异曲同工之处。而事实上,在法学内部,在法律适用或者法律实践中占据主流的分析实证主义法学就试图运用比例原则等装置来缓和“过于自由裁量”的法律原则和“可能导致僵化”的法律规则之间的矛盾。

(责任编辑 吴 楠)

原文刊发于《江淮论坛》2024年第5期,编发微信时有删减。


原文引用李学尧. 原则主义在人工智能伦理领域的应用、反思及其超越[J].江淮论坛,2024(5):139-147.

规制与公法
聚焦行政法、规制与治理,分享公法学术文献与资讯
 最新文章