赵精武 | 人工智能科技伦理审查制度的体系化建构

学术   2025-01-23 15:39   天津  

人工智能科技伦理审查制度的体系化建构

作者:赵精武,北京航空航天大学法学院副教授,北京科技创新中心研究基地副主任,法学博士。


内容提要:目前我国科技伦理审查实践存在审查形式化、虚置化等现实问题,并且科技伦理治理固有的“软治理”特征也使得该制度难以实现预期的制度目标。实践中伦理失控风险主要表现为既有的科技伦理审查制度难以有效控制人工智能科技伦理风险,造成这一现象的根源在于未能明确人工智能科技伦理审查制度的功能定位,导致在审查范围、审查标准、审查程序等方面存在模糊性问题。该审查制度虽然属于典型的风险治理范式,但其以非强制性的社会伦理规范为制度基础,审查结果属于伦理道德层面的判断,其性质属于科技创新活动的合理性审查。基于此种定位,应当适当区分科技伦理委员会与科技伦理审查委员会的定位差异,仅限于涉及敏感研究领域才强制要求被审查对象组建科技伦理审查委员会,并将审查结果与安全风险评估结果一并作为采取特定治理措施的风险依据。

关键词:科技伦理审查;科技伦理风险;合理审查


一、问题的提出:人工智能科技伦理的失控风险


在武汉市“萝卜快跑”之后,人工智能治理难题不仅仅表现为如何确保技术应用的安全可靠,还表现为自动驾驶在遭遇紧急情况时究竟如何做出利害选择等科技伦理争议。在国外,14岁少年因过度迷恋人工智能虚拟陪伴者而选择自杀,也被国外媒体称之为“首例AI聊天致死案”。这类科技伦理风险威胁到人类主体地位、人格尊严以及既有道德规范体系,尤其是人工智能技术被应用于就业市场、社会信誉评估、投保等领域,必然冲击社会公正等基本道德观念。

科技伦理风险问题早在生物医药领域就备受关注,并形成了科技伦理审查制度的基本框架。但是,人工智能的跃进式发展必将对既有的科技伦理审查制度产生冲击:一方面,审查目标有所变化。传统生物医疗领域的科技伦理审查制度是以更为迫切的人类生命健康保护为目标,而人工智能领域的科技伦理审查则是更加偏向科技创新、技术应用的合理性。另一方面,既有审查模式也难以继续沿用。传统生物医疗领域的科技伦理审查制度是以强制审查为核心,而人工智能领域的科技伦理审查显然并不能对涉及伦理风险事项一概采用强制审查,否则这将成为科技创新的巨大制度障碍。客观而言,人工智能创新应用的科技伦理风险属于科技创新过程“失控”风险,故需要经由科技伦理审查施加必要的限制,进而协调促进科技创新和控制科技伦理风险这两种不同的治理目标。

实际上,科技伦理审查制度实属制度舶来品,其最初目的是终止各种不道德、不合理的生命医学类的科研活动。例如,《纽伦堡法典》《赫尔辛基宣言》是为了终止以人类为试验对象的科学实验;美国国立卫生研究院(National Institutes of Health,NIH)发布科研指南,用以确保科学实验善待动物。而我国科技伦理审查制度的确立可追溯至《药物临床试验质量管理规范》,目的同样是确保受试者的权益和安全;并且后续的《涉及人的生物医学研究伦理审查办法》《人类遗传资源管理条例》等规范性文件也是围绕生命医学科学实验展开。当这种以生命安全、人格尊严等伦理要求为基础的科技伦理审查制度拓展至人工智能等其他技术领域,就需要重新诠释科技伦理审查制度的功能定位,确保科技伦理审查在生命科学、医学、人工智能等领域遵循共通的治理逻辑。

从实践来看,科技伦理审查制度未能充分实现支持者们所推崇的“法律与伦理协同治理”理想效果,反而呈现科技伦理审查形式化、流程化的问题。更棘手的问题是,科技伦理委员会的运行机制面临着委员会日常如何运行、审查标准如何明确、审查流程如何规范、专家薪酬如何支付等现实障碍。虽然不少学者提出了诸多的制度完善建议,但相关研究还是缺乏对审查机制的理论剖析和实证考察。总结而言,人工智能科技伦理审查面临的核心问题是,该类伦理审查的制度模式和实施模式未能与生物医疗领域的传统制度予以区分,导致自身难以直接适用于人工智能技术治理领域。这种制度内容的“不完整性”主要表现为审查范围、审查标准和审查制度作用模式这三个方面的模糊性与笼统性。


二、人工智能科技伦理审查的功能与效果


虽然《科技伦理审查办法(试行)》第15条第5项明确了“涉及数据和算法的科技活动”为重点审查内容,但其作为“一般法”意义上的科技伦理审查规则,未能严格区分不同技术领域科技伦理审查模式的差异性。因此,在明确我国人工智能科技伦理审查制度建构模式之前,有必要重新评估和明确人工智能科技伦理审查功能失灵的核心原因。

(一)我国科技伦理审查制度的实践现状:虚置化状态

人工智能科技伦理审查制度的实际运行效果不佳,主要原因是科技伦理审查制度在实施过程中普遍存在虚置化问题,部分审查机构流于形式、审查过程敷衍了事,导致伦理审查的预设目标难以实现。

第一,科技伦理审查委员会的运行机制以及自身的法律性质始终存疑。《科技伦理审查办法(试行)》第4条虽然规定科研单位应当配备必要的工作人员、提供办公场所、经费等条件,用以确保委员会的独立性,但这仅仅只能确保形式上独立。首先,第4条规定从事生命科学、医学、人工智能等科技活动的单位应当设立科技伦理(审查)委员会,并且设立前提是“涉及科技伦理敏感领域”,但其本质上仍属于自我约束型的伦理审查机制。即便采用外聘专家、回避机制组成委员会,但审查委员会究竟能够在多大程度上实现独立审查、独立决策令人生疑。毕竟委员的薪酬支付、场所提供等物质支持条件还是由被审查单位提供。这也是部分研究者一直强调的伦理审查委员会极易出现“既当裁判员又当运动员”的问题,并且根据部分学者统计,大部分科技机构的伦理审查委员会在进行审查时多次出现“直接盖章同意和批复”的情形,使得伦理审查这项制度呈现出“走过场”的特征。

第二,科技伦理审查的“弱约束”效果如何通过法治化方式提高治理效果尚无定论。《科技伦理审查办法(试行)》第1条和第9条规定了科技伦理风险的评估和预防是科技伦理审查的立法目标,但相较于美欧等国外模式,我国的制度模式实际上是一种“弱伦理审查制度”,因而会导致科学研究通过率过高等问题。甚至追溯我国科技伦理审查制度的发展历程,如部分学者所总结的,该制度设置之初就饱受争议:支持者认为科学研究不能等同于纯粹的科研自由,理应采取一定程度的外部约束;反对者则认为这无疑会增加科研创新活动的经济成本,所谓的伦理审查委员会更容易沦为“官僚主导的形式主义”。伦理规制的基本架构是以行业性准则、少量的抽象原则以及机构层面的自我规制为主要内容,这也决定了伦理规制具有典型的“弱约束”效果。无论是缺乏强制执行力的行业性准则,还是笼统模糊的伦理原则、自律主导的自我约束,均难以有效达成科技伦理风险预防和控制的治理目标。

第三,科技伦理审查的形式化问题是否能够通过法律责任承担予以解决值得商榷。《科技伦理审查办法(试行)》第47、48和49条规定了民事责任、行政责任和刑事责任的承担方式。但这些法律责任的承担往往存在着严格的适用条件。在民事责任方面,第47、48条规定“造成财产损失或者其他损害的”承担民事责任,实际上属于典型的侵权行为,即便不经过科技伦理审查,造成财产损失或其他损害的,权利人依据《中华人民共和国民法典》亦可主张承担民事责任。在行政责任方面,第48条所规定的弄虚作假、徇私舞弊等情形本质上属于实质性违反要求的行为,但是无法直接适用于形式化的科技伦理审查活动。相较于不审查、虚假审查等问题,形式化审查更容易弱化科技伦理审查机制的实际效果。由于《科技伦理审查办法(试行)》本身属于试行办法,且本质上属于一般性规定,伦理审查形式化问题可能更需要后续设置生命科学、医学、人工智能等领域专属性的科技伦理审查规则予以解决。

(二)人工智能科技伦理审查的特殊性

人工智能科技创新对于伦理审查制度最直接的影响便是审查范围、审查标准以及审查方式发生异化。过宽或过窄的审查范围均会使得科技伦理审查成为人工智能科技创新的“制度负担”。尤其是科技伦理本身作为社会伦理规范的一种,缺乏强制性,审查制度反而更容易置于“走过场”的尴尬地位。

在审查范围方面,存在法律风险与科技伦理风险混同的误区。在部分学者看来,人工智能技术应用所带来的伦理问题包括失业率上升、自动驾驶系统决策伦理风险和人工智能主体意识对人类的挑战等,原因在于治理责任模糊和治理结果不公正。同时,部分学者则将新兴技术伦理风险表现样态与法律风险、技术安全问题整合,总结为技术安全性问题、个人权益受侵犯问题、社会公平问题、生态系统受威胁问题。这些观点不无道理,但问题在于,倘若构成侵犯个人信息权益、存在法律责任界定不明等问题时,完全可以通过适用法律规范予以解决,何必再设置冗余的科技伦理审查制度进行重复评估?这种法律问题伦理化的倾向也使得科技伦理审查制度本身被视为一种纯粹道德意义上的伦理规范机制。因此,需要澄清的是,尽管科技伦理不可避免地涉及个人权益的保护问题,但这里的“个人权益”更多地表现为一种抽象层面的法益。在伦理学与法学交叉视角下,人工智能技术应用侵害何种性质的法益存有疑义。以实践中利用人工智能技术复活死者为例:在法学视角下,未经近亲属同意,这种应用可能构成对个人信息、肖像权等具体权利的侵害;在伦理学视角下,未经近亲属同意,这种应用损害的是近亲属对于逝者的怀念、不想被打扰等情感层面的利益。无论是生命医学领域的科技伦理,还是人工智能领域的科技伦理,均强调对人类主体地位的维护。科技创新活动不应当将人类作为技术规训的对象,科技伦理存在的目的也是避免过度追求科研自由而忽视人类主体尊严的情况出现。《中华人民共和国民法典》第990条作为《中华人民共和国宪法》第33条第3款“尊重和保障人权”的转介条款,其规定的“人格尊严”具有典型的伦理意义,而这恰恰能够作为科技伦理与法律规范相对区隔的重要因素。因此,若以科技伦理审查为导向,人工智能科技伦理的基本范畴可以划定为涉及科技创新应当维护人类主体地位和人格尊严的伦理规范。

在审查标准方面,科技伦理本身并不是一个内涵和外延相当明确的概念,不同审查主体所遵循的伦理审查标准难以统一。从国内外科技伦理标准的差异现状来看,科技伦理标准化似乎是一个无解的问题:科技伦理本身就是一个不确定性的法律概念,其受到社会实践、科技发展、国家民族文化等诸多因素影响,还会随着时代发展产生新的意涵,科技伦理根本无法实现标准化。同时,即便立法机构明确了统一的科技伦理标准,并就此解决了制定主体资格问题,但立法机构所采用的伦理标准依旧难以完全避免受到参与立法过程的专家们主观意见的影响。然而,这个无解问题并不意味着只能暂时搁置,而是其本身就存在逻辑悖论:既然科技伦理属于人类伦理道德范畴,而人类伦理道德本身从来都不是标准化的,科技伦理又怎么可能存在客观化标准?进一步而言,既然该无解问题本身就是一个错误命题,那么科技伦理审查所依赖的伦理评判标准又应当如何确定呢?回归到科技伦理治理目标层面,无论是科技伦理审查,还是其他的科技伦理治理机制,其核心目的均是解决科技伦理风险问题。这种风险治理的内在逻辑并不是通过严格意义上的伦理评判标准预防和控制风险事件,而是侧重是否能够识别出潜在的科技伦理风险以及采取必要的预防措施。换言之,即便采用的伦理审查评断标准各不相同,但是只要这些伦理审查标准属于科技伦理的基本范畴,那么最后的治理效果并无实质差异。

在审查作用机制方面,“构建科技伦理相关的制度规范以实现相应的治理目标”等类似主张混淆了法律治理与伦理治理的作用机制。法律治理通过义务性条款作用于科研创新行为,而科技伦理审查则是作用于科研人员的伦理观念,并内化为科技创新活动的自我约束准则。两者在治理体系中互为补充的实践方式应当是“主体与行为”的治理逻辑衔接,而不是“行为与行为”的双重约束。相应地,基于这种作用机制,科技伦理审查机制的功能定位也会发生相应的变化。具体而言,科技伦理审查主要面向的是科技创新研发和应用,确保相关技术服务和产品的设计、生产和销售符合科技伦理;科研人员科技伦理培训则是融入科技工作者的教育经历和工作经历,推动科研人员形成尊重人格尊严的伦理观念;科技伦理商谈则是为了补足科技伦理模糊性内容,以社会公众网络评论、科研专家技术解释等方式,以商谈的形式促成符合社会共识的科技伦理观念形成。因此,在制度建构过程中,不宜将科技伦理审查的作用机制理解为宽泛意义上的科技伦理规范适用。

(三)人工智能科技伦理审查的功能再调整

言及科技伦理审查,必谈及欧美等国的域外制度。与我国精细化法治模式相比,欧美等国因为更加侧重科技自由和促进创新,故而选择通过科技伦理规范实现“软法治理”,提供更为灵活和原则性的监管要求。如英国上议院发布的《人工智能在英国:充分准备、意愿积极、能力凸显?》(Artificial Intelligence Select Committees Report on AI in the UK:Ready,Willing and Able?)将人工智能科技伦理解释为“服务于人类共同利益和价值”“遵循可理解性和公平性原则”“不能被应用于削弱个人、家庭和社区的数据权利或隐私”以及“不应当被赋予任何损害、毁灭或欺骗人类的自主能力”四个方面。欧盟委员会人工智能高级专家组(AL HLEG)在《人工智能道德伦理准则》(AI Ethics Guidelines)提出的伦理目标是在发展、配置和使用人工智能时应当尊重基本权利、基本原则和基本价值。新加坡个人数据保护委员会在其发布的两版《人工智能监管框架范例》(Model AI Governance Framework)中提及内部监管、人工智能应用决策时人工干预程度、运营管理、利益相关方互动与沟通四个方面的伦理规则。不难发现,国外人工智能科技伦理标准在“保障人类主体地位和人格尊严”方面具有共通性,但由于受到本土文化影响,人工智能科技伦理标准难以达成统一。

此外,“负责任的研究与创新”(Responsible Innovation/Responsible Research and Innovation,RRI)逐渐成为欧美等国在科技伦理层面的普遍共识。这一观念的基本内涵被解释为综合“伦理上的可接受程度、发展的可持续性、社会满意度”等因素的全面考虑,实现科研人员、政府、社会公众等主体相互尊重、信息透明、产品市场化的创新过程。欧盟委员会在《加强负责任研究与创新的选择:关于负责任研究与创新最新专家组报告(2013)》(Options for strengthening responsible research and innovation:Report of the Expert Group on the State of Art in Europe on Responsible Research and Innovation)中指出“负责任的创新”是使得受影响的利益相关方在创新初期就参与进来,具体包括“是否能够了解其行动后果和所面临选择范围的影响”“有效评估涉及社会需求和道德价值的结果和选择”以及“将前两个要素作为新型研究、产品和服务设计与开发的功能性需求”。在国外学者看来,“负责任的研究与创新”是一个科学政策框架,囊括了公众参与、性别平等、科学教育、伦理和治理等多方面内容,其核心目标是将纯粹的科技创新解释为科研人员与受影响的社会群体相关互动的创新活动,以此实现创新的可接受性、可持续性和社会价值。一方面,借由科研人员与社会公众的互动对话形成符合新兴技术的科技伦理观念;另一方面,将科技伦理观念以外部监督、内部自律的方式作用于科研人员本身,促使其在设计、研发和生产过程中,自觉地将科技伦理嵌入至创新活动中。

学界部分观点倾向于借鉴国外制度模式,但忽视了国外科技伦理审查与本国制度体系的内在冲突,导致其难以在国内监管实践中发挥相同水平的治理作用。更重要的是,国外的科技伦理审查制度主要还是适用于生命科学、医学等领域,在人工智能领域的延伸适用实际上仍然处于发展阶段。以英国为例,在医学领域,其科技伦理审查已经形成较为成熟的三层架构:第一层是由卫健委在2007年成立的全国伦理研究服务机构(NRES)进行全国范围内的伦理审查制度统筹规范;第二层是英国地方卫生行政机构建立的区域伦理委员会,针对本地区内非药物临床试验以及患者参与的药物临床试验开展伦理审查;第三层是高校、医院等机构自行设立的机构伦理委员会,负责内部的科技伦理审查。故而也有学者将之归结为分级分类的伦理委员会管理模式。在人工智能领域,英国数据伦理和创新中心(CDEI)与人工智能办公室(OAI)主导引领科技伦理治理工作,CDEI将人工智能伦理界定为“一整套价值观、原则和技术,采用广泛接受的标准来指导人工智能系统开发和使用中的道德行为”。在伦理审查标准层面,英国人工智能办公室和政府数字服务局在2019年发布的《理解人工智能的伦理和安全》(Understanding artificial intelligence ethics and safety)提出SUM价值观和FAST伦理原则,前者建构了诸如人文关怀等人工智能伦理词汇体系,后者则是提出了更为具体的人工智能项目社会影响、可持续性的评估办法。由此看来,英国模式同其他欧洲国家一样,依靠更加灵活的产业政策适配科技伦理治理的非强制性,并未选择通过成文法的方式建构人工智能科技伦理审查标准。

将始于医学领域的科技伦理审查制度适用于人工智能领域并不是简单的“制度套用”。诚然,这些领域的科技伦理风险具有同质性特征,但是相较于人工智能而言,生命医学领域的科技伦理审查更加偏重对人类生命健康的保护,这种差异性也决定了当下人工智能立法需要重新明确设置科技伦理审查制度的立法目的是什么。一方面,通说是将科技伦理审查视为法律、市场、伦理等治理工具彼此衔接的核心制度工具,但如果将科技伦理审查事项限定在权利侵害等法律风险方面,反而使得两种治理工具之间的差异性被淡化。另一方面,科技伦理审查的功能定位直接决定具体的制度和程序,现有研究却始终跳过这一基础问题的回答,前提依据的模糊性必然会导致后续的制度建构缺乏正当性基础,而这也是部分学者习惯性地将生命医学领域的科技伦理审查套用在人工智能领域的根源之一。


三、人工智能科技伦理审查制度的功能定位


基于人工智能科技伦理审查的功能缺失及其疏解方向研究,显然需要重新明确人工智能科技伦理审查的制度功能,进而作为伦理审查制度建构的价值指引和理论基础。

(一)风险识别功能

虽然预防和控制科技伦理风险是人工智能科技伦理机制的基础功能已成共识,但也存在将科技伦理审查和安全评估混同的主张。虽然伦理审查的最终目的是治理科技伦理风险,但是其所遵循的内在逻辑是判断和识别科技伦理风险,而不是同安全评估机制那般评估具体的风险水平并采取相应的风险预防措施。将伦理审查理解为伦理风险评估的主张显然未能区分科技伦理风险与法律风险之间的差异性:科技创新的法律风险主要表现为对具体权利的损害,科技伦理风险则是一种抽象层面的价值损害风险。相应地,安全风险评估机制、个人信息保护影响评估机制更加侧重准确评估是否存在违法行为、判断权益损害程度,而伦理审查则更加侧重能否发现和识别科技伦理风险,并作出“是或否”的道德判断结论。进一步而言,对两种风险治理机制的理解混同是因为未能准确理解科技伦理审查机制的最终结果。科技伦理始终是一种社会层面的伦理规范,不具备边界分明的内涵和外延,故而不同主体所秉持的伦理观念会有所差异。单纯由立法机构或者监管机构逐一判断和认定某一类人工智能技术应用是否符合科技伦理,虽然能够解决伦理审查标准的争议问题,但在实践层面显然不具有可操作性。所以,在风险治理层面,人工智能科技伦理审查是以作出道德判断为终点,借由伦理审查委员会从多个维度评判技术应用是否符合科技伦理要求、是否存在被忽视的科技伦理风险。

通常而言,风险识别是风险评估的前置性条件。在《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》等法律法规规定的安全风险评估、个人信息保护影响评估等相关条款中,实际上也是将法律风险识别作为评估的一部分事项。例如,《数据出境安全评估办法》第8条列举了数据出境安全评估的主要事项,其中就包括“(三)出境数据的规模、范围、种类、敏感程度,出境中和出境后遭到篡改、破坏、泄露、丢失、转移或者被非法获取、非法利用等的风险”等风险识别事项。更重要的是,网信领域的安全风险评估在评估结果层面表现为风险水平的衡量,而这种风险阈值在科技伦理审查制度领域并无实际意义。因为一项伦理道德的判断结果往往是合乎或不合乎伦理道德,科技伦理风险的判断和治理也不依赖于风险水平量化或风险水平类型化。科技伦理审查的制度功能之一应当是通过作出道德判断,预防科技伦理风险转变为实际损害事实,同时,借由将科技伦理风险识别和确认结果反馈至科研人员,在工程伦理、设计伦理等伦理观念层面产生反馈性影响。因此,人工智能科技伦理审查制度功能的实现不仅需要在审查事项、审查流程方面予以完善,还需要在审查结果反馈和整改环节予以补充。

德国近年来也关注到新兴技术潜在的滥用风险,德国国家科学院在2015年设立全国性的处理安全相关研究联合委员会(Kommissionen für Ethik sicherheitsrelevanter Forschung),其设置宗旨便是制定科技伦理审查程序、伦理准则以及提供相应的审查建议。在审查环节,委员会主要设计的关键问题包括七项,其中与科技伦理风险相关的包括:(1)研究人员及其相关人员在研究项目中追求哪些具体目标?(2)是否拥有必要的专业知识对研究工作的潜在风险进行知情评估,或者是否需要咨询其他专业知识?(3)能够根据当前的实际状况充分说明已知或可能的研究结果的收益和风险,并在必要时相互权衡?(4)该研究工作的安全相关结果和由此产生的风险是全新的,还是在之前已经公开的研究工作基础上产生的?从这些审查事项来看,德国的科技伦理审查在一定程度上还是更加侧重对科技伦理风险的发现和识别,既包括新旧科技伦理风险的识别,也包括是否属于特定专业领域的科技伦理风险。并且,也有学者发现,德国的安全相关伦理委员会主要职责包括“通过咨询服务和开展活动提高科研人员的敏感性”和“加强研究人员独立处理滥用其研究风险的能力”。

(二)风险预防功能

在我国,科技伦理审查通常被视为一种整合科学技术内外伦理规范的科研活动监督制度。在生命医学领域,该制度的核心功能是避免科学技术创新活动无序开展,破坏人类共识性的伦理道德底线,保障人类受试者的生命健康和实验动物的合理对待。特别是在涉及基因实验领域,无序的科研创新活动会使得人类本身处于相当危险的状态,随意试验人类基因所产生的后果以及对未来人类生命健康的影响难以预料。这种完全失控的科技伦理风险已经超出社会对于科技创新活动的合理期待范畴,甚至会产生诸如基因编辑武器等更为严峻的危险因素。所以,科技伦理审查的核心目的被部分学者归结为“新技术应用不损害人类的生存条件和生命健康”“保障人类的切身利益和至高无上的尊严”和“促进人类社会的可持续发展”。之所以实现此类目的需要通过科技伦理审查机制,是因为生命医学领域的科技伦理风险已经超出了社会可接受范畴。基因编辑等涉及人体试验活动所产生的社会危害性往往无法通过事后责任认定完全消除。因此,法律责任和科技伦理审查制度成为应对此类科技伦理风险的“双重保险”。科技伦理审查在事前阶段通过引入生命医学、伦理、法学等领域的专家进行必要干预,但因为科技伦理规范并不具有国家公权力作为执行保障,同时也需要通过刑法等法律法规发挥威慑作用,限制科研人员因过度追求科研绩效等目的从事危险的科技创新活动。

不过,科技伦理审查制度并没有就此在其他所有科学创新领域进行扩展性适用。这是因为科技伦理审查的对象通常是涉及生命健康、人格尊严等相关的科技伦理风险,其他技术领域的科技伦理风险属于社会可接受范围,且能够通过现行立法直接约束技术应用方式。综合考量促进科技创新和保障科研自由之目的,科技伦理审查制度的实际适用范围相当有限。在人工智能领域,该制度再次受到关注并被视为人工智能技术治理体系的重要组成部分,其中的原因是人工智能技术创新速度远超社会预期,使得原本停留于科幻小说中才有的“自主机器人”的主体伦理问题开始被伦理学学者所担忧。此外,人工智能的技术特征具有场景导向性和智能决策性两类特征,其科技伦理风险水平远超其他信息技术。场景导向性主要是指人工智能科技伦理风险的产生往往与其应用场景密切相关,在电影文娱行业,“AI换脸”“定制图片、视频生成”等业务模式属于正常的业务活动。但是,一旦用于“重现死者生前音貌”等领域,反而可能产生更为显著的科技伦理风险。智能决策性则是指人工智能技术的智能化程度越来越高,甚至可以在特定业务场景中代替人类作出较为简单的决策活动,而这种决策活动及其影响则会产生不同程度的科技伦理风险。例如,在自动驾驶领域,一旦发生类似“电车难题”的紧急情况时,信息系统究竟应当按照何种伦理标准进行驾驶行为的决策至今仍然存在较大争议。

与生命医学领域的伦理审查相比,人工智能科技伦理审查的核心功能还表现为,针对不可预期的人工智能科技创新活动,在事前阶段发现可能违背伦理道德、损害人格尊严的技术应用方式。同时,在具体的科技伦理审查制度中,对审查委员会的知识背景设置多元化要求,如《科技伦理审查办法(试行)》第7条提及同行专家、伦理、法律等专业背景专家组成委员会,其目的是更加准确地判断是否存在科技伦理风险。特别是针对市场上尚未出现的新型人工智能技术应用模式,其是否存在异常的科技伦理风险往往存在一定争议,故而需要借由科技伦理审查制度进行科学技术、伦理学和法学层面的综合性评判,在确保技术应用本身不存在算法歧视、偏见等伦理风险之外,阻止新型技术应用方式产生全新的科技伦理风险类型。

(三)科技创新合理性评价功能

在科技伦理审查法制化的过程中,该制度的定位更适宜理解为网信领域安全风险评估机制、算法分级分类治理机制的前置性程序。科研机构、科研人员是否充分开展科技伦理审查、是否严重违反科技伦理审查要求等行为可以作为相关义务主体是否采取必要措施保障人工智能应用安全的判断要素。因为倘若将“是否按照要求开展科技伦理审查活动”作为承担法律责任的事实依据,其直接结果便是在科研机构、科技人员从事科技创新活动中增加不必要的合规负担。并且,这也导致科技伦理审查与安全风险评估机制具有相同的法律效果,义务主体反而难以区分两种制度的实质区别,加剧合规工作难度。但是,倘若将科技伦理审查理解为义务主体未履行人工智能应用安全保障义务的“过错”,则能够促使义务主体充分进行科技伦理审查,作为法律责任免除或减轻的正当事由。此外,在逻辑关系层面,不合法的科技创新活动一定违背科技伦理,但不合乎科技伦理的科技创新不一定不合法,故而不适宜直接将科技伦理审查作为合法性判断的制度工具。

在治理目标层面,法律治理强调引导非法向合法的转向,而科技伦理审查的制度目标则是持续推动实践逐步贴近理想的治理秩序。在部分学者看来,风险预防审查原则更契合科技伦理审查对应的社会公共利益,并将伦理审查框架的核心内容解释为损害与预期受益的对比,这种风险收益比也是判断科技创新活动是否适度和客观的标准。这种风险与收益的合比例性亦是一种合理性判断,而非合法与否的判断。伦理审查委员会的职责之一是发现科技伦理风险并反馈科研机构和科研人员,督促其人工智能应用方式尽可能采取风险与收益比例最小的技术应用方案。因此,科技伦理审查的制度功能在一定程度上是推动科研机构、科研人员在各类可选技术方案中优先选择更加符合人类福祉的选项。不论科技伦理审查机制以何种方式法制化,均无法摆脱其所固有的“非强制性”特征,将科技伦理审查与法律效果直接关联只会使得治理模式之间的差异性模糊化。更重要的是,人工智能科技创新活动达到具有自主意识的智能化技术水平,客观上仍然需要足够长的时间周期,故而现阶段的人工智能科技伦理审查主要解决的是技术应用层面潜在的科技伦理风险,以判断相应的技术应用方式是否合理。


四、人工智能科技伦理审查制度的体系化塑造


《科技伦理审查办法(试行)》所规定的科技伦理审查制度属于“一般法”层面的伦理审查机制,为了更有效地回应人工智能科技创新领域的伦理风险特殊性,则需要针对当下审查范围、审查标准和审查作用机制的模糊性问题,对“审查主体”和“审查流程”两项关键制度内容进行细化。同时,结合人工智能科技伦理审查的风险识别、预防、合理性判断这三类功能,调整该项制度在整个人工智能科技治理体系中的定位,更充分地发挥科技伦理审查的实施作用。

(一)审查主体:科技伦理审查委员会的独立性

在《科技伦理审查办法(试行)》中,采用的是“科技伦理(审查)委员会”这一表述。尽管科技伦理委员会和科技伦理审查委员会仅仅只是概念指称的差异,但从职能定位和组织机构关系来看,更适宜将科技伦理委员会和科技伦理审查委员会予以区分。科技伦理委员会的职能定位包括制定具体的科技伦理规范、科技伦理审查机制、科技伦理最佳实践、提供科技伦理信息咨询等事项。并且,基于这种职能定位的考虑,科技伦理委员会适宜采用相对固定的组成架构,用以确保内部科技伦理规范的一致性和连贯性。科技伦理审查委员会对应的是科技伦理审查主体,为了确保伦理审查的独立性,伦理审查委员会的组成人员应当具有随机性、灵活性,以便能够更好地针对特定领域的人工智能科技创新活动作出更为专业准确的道德判断。并且,不同的技术方案在科技伦理审查过程中会呈现不同的风险收益比,非固定的组成人员更有利于确保相应的道德判断结论符合当下科技伦理发展趋势。

科技伦理审查委员会的独立性是实现科技伦理审查制度功能的基本保障,其中最重要的一点便是通过经济来源独立实现伦理审查的独立性。在自愿审查模式中,科技伦理审查表现为自律性审查,伦理审查委员会的独立性要求相对较低,仅需满足程序性要求,提供必要的审查场所、审查经费等条件即可。虽然科技伦理审查委员会是由被审查对象组建,并由其支付伦理委员相应报酬,但并不构成“自己审查自己”,因为自愿审查模式本身就是一种非强制性的道德约束。但是,如果涉及强制审查模式,科技伦理审查委员会的独立性要求较高,此时由被审查对象承担相应经费、提供办公场所、配备必要工作人员反而会削弱科技伦理审查的独立性程度。一方面,必要的工作人员归根结底属于被审查单位的员工,独立从事科技伦理审查工作不具有可行性;另一方面,审查经费、审查工作场所均由被审查对象提供,更是难以保证伦理审查委员能够独立作出道德判断。因此,对于强制审查情形,为了真正有效预防科技伦理风险事件的发生,更建议通过财政支持、外部机构设置科技伦理审查委员会等方式实现科技伦理审查的独立性。有学者在分析和比较欧盟第8和第9科研和创新框架计划的基础上,发现欧盟对于资助项目的伦理考察越发重视,这两个框架在伦理评价策划层面分别设置了“伦理自评价——伦理审查——伦理检查与审核”与“伦理自评估——伦理筛查——伦理检查”等管理流程。而其中的伦理审查(伦理筛查、伦理检查)均是由外部的科技伦理审查委员会进行。

科技伦理审查委员会的独立性归根结底还是保障审查委员能够独立作出道德伦理判断。为了确保审查结果的独立性和全面性,有学者总结了国外三种人工智能伦理审查的实践范式:一是伦理嵌入,即让伦理学专家加入人工智能科技创新活动,在具体的技术方案研发设计过程中持续提供伦理风险识别和评估服务。这与国内部分学者所提及的全生命周期科技伦理治理理念相似,能够及时发现科技伦理风险,但容易受到专家个人影响。二是伦理对齐,即通过奖励模型、强化学习等技术方案确保人工智能系统设计运行与人类共同伦理观保持一致,但现阶段仍然停留于试验阶段。三是价值敏感设计,即在设计之初就开始融合多学科的伦理观念确定相应的技术方案,但无法在复杂的利益关系中达成伦理观念共识。这些科技伦理审查的实践模式均试图将科技伦理审查从集中审查转变为流程式审查模式,在设计、研发、运用、用户反馈等多个环节进行科技伦理风险的识别和治理,解决集中审查模式可能存在的审查标准单一、伦理审查委员会专业性不足等现实难题。不过,这种流程式审查也存在技术水平要求高、审查周期过长、额外支付伦理审查专家报酬等问题,但其实现独立性、权威性的道德伦理判断之逻辑具有一定的借鉴价值。

(二)审查流程:增设自愿审查模式

人工智能科技伦理审查是一项判断人工智能技术应用是否合理的科技伦理风险识别治理机制,其具体的审查模式也应当围绕技术应用的合理性设置相应的审查事项和审查标准。故此,科技伦理审查环节大致可以划分为三个环节:第一个环节是科技伦理风险发现和识别,判断待审查的科技创新活动是否存在显著异常的科技伦理风险。因为科技伦理风险属于伦理道德的风险范畴,量化科技伦理风险阈值既无必要也无可能,更重要的是判断是否存在远超社会可接受范围的科技伦理风险。如若存在,则应当直接禁止此类人工智能技术的创新应用;如若不存在显著异常的科技伦理风险,则进入到合理性判断环节。第二个环节是根据第一个环节所发现的科技伦理风险与可预见的收益进行比较,在价值衡量层面判断收益范围内相应的科技伦理风险是否属于可接受范围,进而作出相应的道德判断,具体包括“是否存在科技伦理风险”“科技伦理风险是否属于可接受范围”“科技伦理风险具体表现形式”等事项。第三个环节则是审查建议,由伦理审查委员会在上个环节的风险识别、合理性判断的基础上提出相应的技术应用方案改良建议,并反馈至被审查对象。由于科技伦理本身具有多元化的基本特征,部分科研机构、科研人员可能并未注意到潜在的科技伦理风险。此时,科技伦理审查机制引入内外部专家给予不同知识背景下的科技伦理风险判断意见,能够使得科研机构、科研人员采用更为理想化的技术应用方案。

这种科技伦理审查流程表面上似乎明显增加了审查流程的时间周期和人力成本,不能有效降低科技创新活动的外部监管负担,完全不具有可操作性。因此,需要说明的是,科技伦理审查的适用应当涉及三种情形:第一种情形是涉及全新的人工智能技术应用方式。由于技术应用不同于业已公开的产品或服务,科研机构、科研人员可能对潜在的科技伦理风险难以准确识别,故而需要引入科技伦理审查机制进行合理性判断。相应地,如果人工智能科技创新活动涉及市面上已有的产品或服务,那么完全没有必要再进行科技伦理审查。第二种情形是涉及显著异常科技伦理风险的科技创新活动。鉴于风险的特殊性,这类科技创新活动应当纳入强制科技伦理审查范畴,避免类似基因编辑婴儿事件的出现。《科技伦理审查办法(试行)》也已经规定了此类机制,即需要开展专家复核的科技活动清单制度。第三种情形是涉及具有“守门人”地位的科技企业从事的科技创新应用活动。因为这类科技企业在市场份额、用户数量等方面具有优势地位,相应的科技伦理审查风险波及更大,所以在涉及部署全新类型的人工智能应用、人工智能应用重大更新等可能发生科技伦理风险显著波动的情况时,需要进行必要的科技伦理审查。

此外,还需要明确的是,科技伦理审查归根结底属于一种伦理型治理机制,故而需要区分强制审查和自愿申报审查两种启动程序。上文第一种和第三种属于自愿申报申请类型,因为只要潜在的科技伦理风险不具有显著异常性,强制要求进行科技伦理审查反而会不当扩大科技伦理审查的实际范围。并且,这两类情形所存在的科技伦理风险并不足以造成严重的损害事实,即便这两类情形涉及的科研机构、科研人员没有进行科技伦理审查,也不可能因此要求这些科研机构、科研人员承担法律责任。倘若因为违反程序性规定而对其采取行政罚款、警告、约谈等行政处罚措施,也违背了行政法的比例原则。从整体制度体系的角度理解,科技伦理审查的法制化实际上是将科技伦理审查划分为伦理层面和法治层面两类审查模式,而法治层面的科技伦理审查主要针对的是可能同时违背科技伦理和法律禁止性规定的科技创新活动,故而才存在强制审查、承担法律责任等制度的适用可能性。因此,在建构专门性的科技伦理审查规则时,则需要在概念界定条款或审查原则条款中明确人工智能科技伦理审查包括强制审查和自愿审查两类审查模式。

(三)审查作用机制:法律风险与伦理风险的一体化评估

基于科技伦理风险的治理目标,人工智能科技伦理审查的适用范围始终仅限于有限的人工智能科技创新活动,《科技伦理审查办法(试行)》第4条也将设定科技伦理(审查)委员会的情形限定为“涉及科技伦理敏感领域”。结合法律、伦理、市场、技术等治理工具的综合技术治理体系,如若将科技伦理审查制度视为一种普适性义务,要求所有科研单位、企业在开展各类人工智能技术创新和应用之前均应当进行科技伦理审查,则会陷入重复审查的制度泥沼。人工智能科技伦理审查法制化的核心目标是为了进一步完善对异常科技伦理风险的预防和控制。因为忽视这类风险径直从事科技创新活动已经具有违法性,现行立法也规定了安全风险评估等具体制度用以约束这类行为,但从治理效果来看,这类风险的事后归责远不及事前预防有效,故而需要引入科技伦理审查,多方位阻断这类超出合理科研创新范畴的科研活动。然而,仅以涉及科技伦理敏感领域或者异常科技伦理风险作为启动科技伦理审查的前提条件似乎存在先验性判断,毕竟在逻辑层面,只有完成了科技伦理审查才能确定相应的科技伦理风险。这里需要澄清的是,相较于法律风险、技术安全风险而言,初步识别科技伦理风险对专业领域的知识背景要求较低,故而一旦存在显著的科技伦理风险,科研单位、科研人员也能够在科技创新活动之初进行初步判断,进而明确是否有必要启动强制性的科技伦理审查。

与生物医学领域的科技伦理审查相比,人工智能科技伦理审查的行业特殊性在于,需要结合其他人工智能治理机制形成对整个人工智能技术风险的控制。特别是在人工智能统一立法的语境下,更需要关注人工智能科技伦理审查的法制化路径。在兼顾技术安全和技术创新的立法目标下,增强科技伦理审查与其他技术治理机制之间的区分度,同时,合并重复的风险识别、风险治理相关的义务性要求,避免人工智能科技创新活动需要同时进行数个功能目的相同或相近的业务合规事项。既有研究对于人工智能科技伦理审查法制化论述多集中于“配套法律制度予以保障”和“基础立法与专门立法相结合”两类路径:“配套法律制度予以保障”侧重区分科技创新活动与科技应用活动,针对上游的研发设计活动设置原则性、程序性的科技伦理评估机制,并为科技社会化提供组织保证;针对下游的应用活动设定法律优先回应议题,健全审查、评估、监管在内的科技伦理监督体系。“基础立法与专门立法相结合”则侧重科技伦理审查应当体现行业主导性特征,在基础立法层面设置科技伦理基础性立法,通过综合性、统摄性条款明确科技伦理审查的一般规则;在专门立法层面针对具有优先治理需求的科技创新活动设置科技伦理审查特别规则。

前述两种法治化路径忽视了人工智能科技伦理审查法制化过程中的制度衔接问题。在未来建构人工智能科技伦理审查机制的过程中,更需要关注该制度如何通过简化部分程序性事项或与其他制度合并,达成更为高效的义务合并效果,以此实现人工智能立法的双重目标。《中华人民共和国网络安全法》《中华人民共和国数据安全法》均规定了网络安全、数据安全相关的负责人制度,并且要求义务主体保障负责人能够独立履职;《科技伦理审查办法(试行)》同样规定了单位应当采取必要措施保障科技伦理(审查)委员会独立履职。按照此种逻辑,可能会推导出“每一类安全风险都需要义务主体提供必要的独立履职条件”这一荒谬的结论。为了避免这种情况的出现,更需要在法律层面重新整合和解释这些法定义务和科技伦理审查要求的履行方式。在人工智能技术风险治理的论争中,学者们越发侧重对人工智能技术风险的体系化治理,实现这一目标也需要有效整合现有的风险治理策略。人工智能技术风险的呈现方式具有复杂性特征,并不能简单地拆分为技术安全风险、科技伦理风险、法律风险等具体风险类型予以分类治理。所以,未来在制定人工智能统一立法时,应当允许义务主体采用更为灵活的审查评估模式,对潜在的科技伦理风险、技术安全风险等风险类型进行一次评估,也方便义务主体采取更为高效的安全保障措施以预防和控制人工智能技术风险。


结语


武汉市“萝卜快跑”的产业试点说明了人工智能技术普及应用时代已经悄然而至。在享有人工智能技术应用便捷性的同时,不仅需要在法律制度层面规范技术应用的安全监管要求,还需要持续关注技术应用背后的科技伦理风险。在人工智能治理体系中,科技伦理审查机制能够提供判断人工智能技术应用合理与否的综合性分析框架。该项制度的功能作用是对待审查的人工智能科技创新活动进行合理性审查,并将科技伦理审查结果反馈至被审查单位,通过非确定性的科技伦理规范对科技人员的伦理观念产生潜移默化的影响。人工智能科技伦理审查并非合法性审查,而是判断技术创新方式是否符合科技伦理规范的合理性审查。因为科技创新活动的合法性问题完全可以交由其他现行法律制度予以解决,并且以违反科技伦理为由认定科技创新活动不具有合法性也超出了科技伦理规范的实际范畴。客观而言,人工智能科技伦理审查是一种补充性的技术风险治理机制,预防的风险类型也是以科技伦理风险为限,故而没有必要过度“神话”科技伦理审查的治理效果和制度功能。在未来的人工智能立法活动中,更需要以风险体系化治理的治理理念明确科技伦理审查与其他技术风险治理机制的适用关系和衔接方式。

来源:《当代法学》2025年第1期(第84-96页)。

规制与公法
聚焦行政法、规制与治理,分享公法学术文献与资讯
 最新文章