刊文推介||人工智能伦理治理的元规制进路:以企业监管为焦点

文摘   2024-12-26 09:00   安徽  


作者简介

钟浩南(1991—),陕西西安人,华东政法大学中国法治战略研究院助理研究员,主要研究方向:数字法学、系统论法学。

摘要:企业是重要的人工智能实践主体,监督问责机制的缺位和企业对伦理原则内在承诺的缺失,导致伦理原则难以约束企业在该领域的前沿实践。命令控制型规制作为对企业行为的直接规制模式,无法有效满足人工智能伦理治理的现实要求。元规制作为一种对企业自我规制的间接规制模式,能够以实验性的自我规制积累治理经验,以民主协商凝聚规范性共识,以激励性问责激发企业对原则的内在承诺,从而推动企业将人工智能伦理原则付诸实践。建构人工智能伦理治理的元规制机制,应以风险为导向设定类型化和场景化的规制目标,通过执法金字塔和企业的分类监管,提升人工智能企业自我规制的意愿和能力,并建立对人工智能企业自我评估的元评估机制。

关键词:人工智能伦理;企业监管;自我规制;元规制


一、人工智能伦理的共识性原则及元规制的提出


随着人工智能技术的发展,社会各界对其引发的算法偏见、隐私泄露、技术滥用等伦理风险的担忧也日渐增加。人们纷纷呼吁对人工智能展开伦理治理,使其应用符合人类的价值观,实现“人机价值对齐”。在此背景下,各国政府、国际组织、行业协会和科技公司等近年来发布了一系列人工智能伦理建议、准则、指南等规范性文件。截至2023年,全球人工智能伦理治理的规范性文件已有200余部。各类人工智能伦理文件中的原则已经逐渐趋同,大体可归纳为行善、无害、正义/公平、隐私保护原则、透明/可解释原则、责任/问责原则自由/自主等七项。随着社会各界对于人工智能应遵循什么样的伦理原则已经形成基本共识,下一步人工智能伦理治理的重点应转向如何在实践中贯彻这些原则。

企业作为推动新一代人工智能发展的重要主体,对人工智能伦理原则的实践有着重要影响。在国际上,AlphaGo、ChatGPT等突破性的算法应用,均来自于DeepMind、OpenAI等人工智能企业。我国在政策上也多次强调企业在人工智能发展中的主体地位。2017年国务院印发的《新一代人工智能发展规划》指出:“突出企业在技术路线选择和行业产品标准制定中的主体作用。”2022年科技部等六部门印发的《关于加快场景创新 以人工智能高水平应用促进经济高质量发展的指导意见》也指出,推动人工智能场景创新应以企业为主导,“坚持企业在场景创新全过程中的主体地位”。

身处产业一线的企业在人工智能治理方面拥有信息和技术上的优势,但天然的趋利性使其缺少足够的动力贯彻人工智能伦理原则。针对这一难题,政府可采用元规制的监管模式推动企业对原则的遵从。所谓元规制是指对规制本身的规制,具体而言即由监管部门对企业自我规制实施的规制。因此,元规制是一种由多元主体构成的二阶监管模式,其中,企业实施着自我规制,而监管部门则在二阶层次上对企业的自我规制进行规制。与之相对的监管模式是一阶的命令控制型规制,即监管部门通过具体命令对企业行为的直接管控。在分析人工智能伦理原则实效性缺失表现和成因基础上,本文剖析对比了命令控制型规制和元规制的治理逻辑,并试图论证命令控制型规制难以化解人工智能伦理原则实效性缺失的问题,而元规制可为此提供一套可行的制度方案。


二、企业监管视角下人工智能伦理原则的实效性缺失问题


从功能的角度来看,规范具有实效性意味着它能够指引人们的行为。规范的指引功能既包括积极的指导,即明确人们应当做什么,也包括消极的约束,即阻止人们实施越轨行为。因此,从企业监管的视角来看,人工智能伦理原则实效性的缺失集中体现在其难以指导和约束企业实践。

人工智能企业可以通过多种方式规避原则的要求。其中一种典型的规避方式就是所谓的“伦理选购”,这是指人工智能企业从诸多伦理原则中挑选出部分原则,用它们来正当化企业当前的行为,而不是根据原则纠正和改进既有的行为。企业从“原则市场”中挑选出最契合自己原有行为的各项原则,将该行为予以正当化。人工智能伦理原则由此沦为一种企业在事后用于正当化既有行为的幌子,而不再是一种可以敦促企业改变现状的、批判性的评价标准。另一种规避原则的方式被称为“伦理洗白”,这是指企业通过采取营销、赞助等公关手段或者没有实际作用的伦理审查措施,包装出其遵守人工智能伦理的正面形象,但其实际的行为却与之相反。此外,伦理原则与产业实践存在着严重脱节。在设计符合伦理的人工智能产品时,AI从业者能够获得的工具、方法等资源,远远少于他们认为有用的资源。例如,接近30%的被访者都认为伦理设计细则是有用的,但是却只有不足15%的被访者可以获得此类细则。

人工智能伦理原则在实践中效果不佳,其成因可以从原则的实体内容和约束机制两个方面进行分析。在原则内容方面,人工智能伦理原则高度抽象且模糊不清,这削弱了其对具体产业实践的指导性;在约束机制方面,目前的人工智能伦理治理既缺少外部的监督和问责机制,也缺少人工智能企业对原则的内在承诺,故而难以对企业的行为产生约束。

首先,对于企业的算法开发和运用实践而言,过于抽象、笼统的伦理原则难以提供具体可操作的技术指引和行为规范。其一,规制对象具有高度的异质性。人工智能并不是某种单一的技术,而是问题求解、知识推理、机器学习等多种不同算法技术的集合。这些算法可以服务于内容生成、人脸识别、机器翻译等不同目的,并应用于金融、医疗、司法等不同场景。技术和应用的多样性使得人工智能涉及的行业和利益群体具有高度异质性,从而增加了伦理原则具体化的难度。其二,人工智能伦理缺少充足的实践经验基础。就深度学习等塑造今天人工智能面貌的技术而言,其蓬勃发展仅仅是近二十年的事。在其短暂的历史中,人工智能并未像医学、法律那样成为一个独立的职业,也没有基于职业实践而形成一套完备的职业伦理规范。因此,目前的人工智能伦理原则主要是一种自上而下的人为建构。它们只是抽象地表达了人们对于负责任人工智能的理想愿景,而没有充足的实践经验作为支撑,所以难以具体化。

其次,内容的模糊性是人工智能伦理原则缺乏实效的另一原因。原则内容的模糊性体现在人们可以从不同的政治、利益和伦理立场出发,对各原则的含义做出不同乃至于对立的解释。和抽象性问题不同,人工智能伦理原则的模糊性并不缘于技术的复杂性,而是缘于公平、正义、人类福祉等伦理价值本身的争议性。例如在美国“威斯康辛州诉卢米斯”案中,Northpointe公司设计的一款用于预测罪犯累犯风险的算法将种族要素纳入考量,这是否有违公正原则?一种观点认为,因为法律面前人人平等,所以这是一种不当的种族歧视,违反了公平原则。另一种观点则主张,如果有充足的统计学证据表明种族要素能够预测罪犯的累犯风险,那么这种差别对待就没有违反公平;反之如果为迎合政治正确而刻意将种族要素从模型的变量中剔除,则构成对白人的反向歧视。因此一旦涉及具体问题的评判,被抽象的原则所掩盖的价值分歧就会暴露出来。这种分歧不是技术层面的,而是价值层面的。它们反映了人们对伦理原则本身的理解分歧,而人工智能只是展现这些分歧的一个具体场景。

再次,人工智能伦理原则作为一种软法,缺少有力的监督和问责机制,因而难以对行为施加有效的外部约束。根据规制理论的基本原理,一套完整的规制机制应当包含标准制定、监督执行和问责惩戒三大要素。然而,目前的人工智能伦理治理尚未建立完备监督评估机制,对于违反伦理原则的行为亦缺少相应的惩戒机制。虽然在正式监管之外还有市场可以发挥规制功能,但事实上市场的约束往往难以奏效。因为缺少严格的监督,企业可以利用其与消费者之间的信息不对称,包装自己在伦理治理方面的努力和成绩,从而骗取良好的市场声誉,由于缺少正式有力的问责,消费者短期的抵制对于科技巨头的影响十分有限,难以形成实质性的惩戒。

强制惩戒机制的缺失,导致了人工智能伦理原则的贯彻基本依靠企业自律,取决于企业对伦理原则的内在承诺,即出于认同而践行伦理原则的意愿。在现实中,有的企业却缺少这种对原则的内在承诺。这意味着当遵守伦理原则与企业的商业利益相悖时,企业往往会选择原则妥协而非利益妥协,尤其是在外部监管缺位的情况下。


三、元规制提高人工智能伦理原则实效性的理据


从传统法律规制的视角看,人工智能伦理原则缺乏实效性很大程度上缘于软法规制的固有缺陷,即缺少具体明确的规则和有力的惩罚措施。因此,对于人工智能企业的监管而言,应当从软法规制转向硬法规制,通过伦理原则的法律化提高其实效性,即根据原则制定具体的法律规则,对违反规则的行为设置法律责任,并投入执法力量监督企业是否守法。以命令和控制为特征的规制模式,已经难以满足当代人工智能伦理治理的需求,相比之下,元规制则能够提供一种更为合理的规制方案。

(一)元规制与命令控制型规制的治理逻辑

命令控制型规制是一种对企业行为的直接规制。它将规制者和被规制者之间设想为一种科层式的“命令—服从”关系:由立法机关、政府等正式规制者发布法规和命令,而企业则予以遵照执行。于是企业就被简单地视为对法规和命令被动的服从者,其不需要进行能动的自我规制,而只需严格甚至机械地遵守规则即可。然而,在环境治理、网络治理和人工智能治理等新兴的规制领域,命令控制型规制却难以奏效,因为这些领域的治理问题往往具有很高的技术性、动态性和复杂性,而正式的监管部门缺少必要的信息和资源去制定解决问题的合理对策。

企业对于新兴领域的治理问题有着更为深入的了解,而且凭借其信息和技术上的优势,也更有能力找到解决问题的方案,但是企业作为营利主体,本身缺少动力实现公共性的规制目标。元规制的治理逻辑在于,一方面利用被规制者的信息和技术优势,把寻找问题解决方案的责任从监管部门转移给企业,另一方面通过执法和问责机制,敦促其通过自我规制对规制目标和监管要求予以回应。按照这一治理逻辑,元规制不再直接规制被规制者的行动,而是要间接地对其自我规制的过程实施规制。

命令控制型规制和元规制治理逻辑的差异具体体现在以下两个方面。一是,在命令的形式方面。命令控制型规制采用的是具体的指令性标准或绩效标准,要求被规制者必须采取某种解决问题的手段,或者达到特定的绩效。例如,为防止算法歧视,监管部门要求人工智能企业采用特定的数据集缺陷检测工具,或者要求算法输出的错误率不得高于某一指标。而在元规制中,规制者只会对被规制者提出一般性的目标,要求其通过自我规制,自行采取措施实现该目标。例如,我国《生成式人工智能服务管理暂行办法》第4条规定,生成式人工智能服务的提供和使用者应当“采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视”。这一规定就具有元规制的属性,因为它仅仅一般性地要求被规制者采取措施防止算法歧视,而没有对具体的手段或达到的绩效做出硬性规定。相比命令控制型规制,元规制赋予了被规制者更大的裁量空间以及自我规制的余地,允许它们根据实际情况采取最有利于解决问题的措施。

二是,在监管的取向方面。传统的命令控制型规制以规则为导向,这意味着企业监管的重点在于确保其对规则的严格遵守,相应的执法活动也是以具体的规则为标准,检查企业行为是否符合相应的规则。然而,很多时候单纯形式上的守法并不能保证规制目标的实现。例如,大型公司可以雇佣法务和律师,通过各种法律技术将实质上的违法行为包装成合法的。与之相对,元规制以实现规制目标为导向,其重点在于推动企业对规制价值的实质遵从。体现在监管方式上,在元规制中监管部门的职责并不是检查企业的行为是否在形式上符合规则,而是要监督和评估其自我规制体系是否在实质上有助于实现规制目标。换言之,规制者不仅仅监督企业纸面上建立的自我规制体系,更要监督该体系是否实际运作,并且在相应的规制事项上切实取得了成效。

(二)元规制如何推动人工智能企业贯彻伦理原则

根据前文的分析,人工智能伦理原则缺乏实效性缘于目前的人工智能伦理治理缺少四种要素:人工智能治理经验、对原则内容的规范性共识、有力的监督和问责机制以及企业对原则的内在承诺。元规制之所以有望提升人工智能伦理原则的实效性,正是因为它能够弥补这四项缺失。

1.通过实验性的自我规制积累经验

命令控制型规制采用了一种自上而下的规制进路。它假定规制者对于规制事项拥有充足的经验和信息,已经知道解决特定问题或者实现特定目标的合理方案是什么。然而,由于经验和信息的欠缺,规制者在若干伦理原则中勾勒出的理想愿景,难以在具体的算法设计与监管实践中贯彻,更难以将伦理原则转译为具体的法律规则。

元规制则允许人工智能企业开展实验性的自我规制,由此为贯彻伦理原则积累经验。与正式的监管部门相比,人工智能企业因为身处产业一线,在信息、知识和技术等方面往往更具优势,所以更有能力找到贯彻伦理原则的可行方案。元规制恰恰利用了企业在信息和知识方面的优势,将制定规制方案的任务交给企业,让他们在自我规制的过程中,摸索出实现规制目标的可行举措。在具体规制措施方面,元规制采取了自下而上的进路。不同于命令控制型规制,解决规制问题和实现规制目标的具体措施,不是监管部门在法规中事先确定下来的,而是企业在自我规制的实践中,经过反复试错、总结经验而摸索出来的。这种自下而上的规制进路契合了当下人工智能伦理规制的现实。并且,对于人工智能这种具有高度异质性的规制对象而言,元规制相比命令控制型规制也具有显著优势。因为规制者不必就行为不同的技术、场景和行业制定不同的标准,或是实施一刀切式的僵化管理,而是可以要求不同领域和行业的企业制定自己的自我规制方案。相应地,规制者的角色就从制定和执行具体的规制方案,转为监督企业为回应监管要求而进行的自我规制。

2.通过民主协商凝聚规范性共识

在价值多元的现代社会,不同群体从各自的立场和价值观出发对原则的解释产生分歧,这本就是十分正常且无可避免的事。合理的解决方式只能诉诸自下而上的民主协商,让企业和利益相关者在民主程序中,通过协商和妥协达成各方可以接受的人工智能伦理治理意见。

命令控制型规制所依赖的民主立法程序,在规制人工智能企业方面存在诸多局限。一是,正式的立法程序启动困难、流程繁复且历时漫长,无法对人工智能日新月异的技术发展做出敏捷回应。二是,在传统的立法程序中,代表是从特定地区、职业和民族等人群中选举产生的,而不直接来自受算法影响的利益群体。如此产生的代表难以有针对性地表达受算法影响的利益群体的诉求,并在立法审议、表决等程序中维护其权益。三是,命令控制型规制的民主参与仅限于正式的立法决策,也就是让民意代表参与法规的制定,而缺少了利益相关者对企业内部决策的民主参与。因此,一旦规则制定完毕,剩下的工作便只是要求企业遵照执行,利益相关者从此便与企业决策过程相隔离,不再能对其决策进行直接的参与和监督。

为了提高人工智能伦理治理的民主性,有必要使利益相关者能够参与和影响企业决策,元规制恰为此提供了可行的制度方案。其一,信息披露制度。这要求企业向受算法影响的利益相关者披露有关自我规制的信息,包括自我规制的内容、运作情况和效果等等。这有助于企业为算法用户和其他利益相关者提供信息,使之就如何实施伦理原则与企业管理者展开对话。其二,利益相关者协商制度。企业收集有关利益相关者诉求的信息,并在其内部决策中加以考量;在部署和执行企业的算法自我规制体系时,设置相应的协商程序,让利益相关者和企业管理者共同商议监管体系的具体内容。其三,企业正义计划。这是让企业考虑利益相关者诉求最为直接的方式,即赋予利益相关者质疑、挑战企业决策的权利和法律手段。这要求企业内部建立处理算法用户及其他利益相关者申诉的纠纷解决机制,并在无法妥善解决争议时,赋予利益相关者起诉请求否决企业决策的权利。

3.通过激励性问责助推企业建立对原则的内在承诺

缺少监督问责机制和对原则的内在承诺,是人工智能伦理原则难以约束企业行为的两个主要原因。命令控制型规制可以提供前者,却无法实现后者。命令控制型规制对企业的问责,采用的是指令性或绩效性标准,即如果企业未能履行相应的义务或者达到绩效,就会受到惩罚。所以问责仅仅指向企业的外在行为,而不指向企业对规制目标的内在承诺。换言之,它只关心企业是否遵守规则,而不关心其是否内化了规则背后的价值目标,以及遵守规则能否实现该目标。可以说,在命令控制型规制中,监管的起点也是它的终点。然而,这种规制模式对于人工智能伦理治理而言却是不适宜的。原因主要有两方面,一方面,由于缺少实践经验和规范性共识,伦理原则难以被转译为具体的指令性或绩效性标准;另一方面,即便制定和实施了具体的规则,也无法确保伦理原则所追求目标的实现。事实上,在企业缺少内在承诺的情况下,过于具体和技术化的规则反而会诱使企业实施法律规避,通过形式上的守法逃避其对规制目标的实质责任。

元规制可以通过激励性的问责机制,助推企业建立对伦理原则的内在承诺。当企业的自我规制不符合监管要求时,元规制也会对企业进行问责和惩戒。但是元规制的问责遵循恢复正义的价值,更强调激励性而非惩罚性,旨在推动企业建立和完善其自我规制机制。要求企业通过自我规制对规制目标做出回应,可以促使企业将规制目标予以内化,从而建立对目标的内在承诺。在人工智能伦理治理中,元规制问责的目的就不只是敦促企业实施自我规制,而是要借此使企业将伦理原则内化到自身的决策前提和组织文化中,最终让企业“想去做它们应该做的事”。因此,元规制问责的终点超越了其起点。尽管问责直接指向的是企业的自我规制,但其最终的目标在于“超越问责”,在于通过问责使企业建立对伦理原则的内在承诺。由此可见,在伦理原则和法律的关系问题上,元规制和“法律化”模式的处理迥然不同。在元规制的框架中,伦理原则并未被法律规则所替代;法律既不是伦理原则具体化的产物,也不是强制执行伦理原则的手段。毋宁说,法律在此发挥着类似于反思型法的功能,它并不负责具体地执行伦理原则,而是通过程序性和组织性的间接规制手段,助推企业对伦理原则的内化和学习。


四、人工智能伦理治理元规制的制度建构


元规制旨在让被规制者以自我规制对规则目标做出回应,并通过对自我规制的监督评估完成企业监管的闭环。对于人工智能伦理治理而言,元规制模式的制度建构应依次围绕以下三方面展开:首先以风险为导向设定类型化的规制目标,其次推动人工智能企业开展自我规制,最后对企业的自我规制进行元评估。

(一)以风险为导向设定类型化、场景化的规制目标

共识性的人工智能伦理原则为设定规制目标提供了基本的参照。元规制作为贯彻伦理原则的制度工具,其目标应与这些共识性的伦理原则保持一致。

根据人工智能伦理原则设定规制目标,首先需要识别每个原则所针对规制的问题或风险。伦理原则是高度抽象的规范,而规制目标则体现为特定领域内需要解决的问题或者需要防范的风险。因此,伦理原则无法直接作为规制目标。只有通过识别每项原则所针对的问题或风险,才能将伦理原则转译为规制目标,并要求企业为解决相应的问题而展开自我规制。就此而言,公正、隐私、自治、可问责和可解释原则都具有较为明确的问题指向。例如,公正原则主要指向算法偏见和歧视问题,隐私原则指向个人信息的不当处理问题,可解释原则是算法黑箱问题等等。而行善和无害原则指向的问题则较为笼统:行善原则涉及算法设计目的失范、能源消耗、侵犯个人尊严等;无害原则涵盖了网络攻击、硬件物理安全等外部安全风险,算法的可靠性、稳健性和数据质量等内部安全风险,以及防控人工智能对人身或财产的侵害风险。

在识别出各个伦理原则对应的规制目标后,还需要根据算法的技术类型、设计目的、应用场景等要素,识别具体领域的风险类型,从而将规制目标进一步类型化。例如,对于自动驾驶算法而言,自治原则对应的规制目标是保证人类司机对驾驶的及时接管;而对于司法的自动化决策系统而言,相应的目标则在于防止算法侵犯法官的独立裁判权。此外,针对不同类型的算法技术,伦理原则及其规制目标的侧重也有所不同。例如,对于人脸识别算法,重在规制不当收集和泄露个人信息、数据歧视等风险;而对于生成式人工智能,重在规制生成虚假和不当内容、侵犯知识产权等风险。

(二)人工智能企业自我规制的意愿激发与能力提升

良好的自我规制并不是仅凭规制者的一纸命令就可以实现的,而是需要配套的规制工具,激发企业建立对伦理原则的内在承诺,使其获得自我规制的知识和能力,从而使企业有意愿且有能力开展自我规制。

1.以执法金字塔激发企业自我规制意愿

对于激发人工智能企业自我规制的意愿而言,可以采取执法金字塔的规制策略。执法金字塔自下而上的各层中,分别包含了由轻到重的各种规制和惩罚措施。当监管部门发现企业违法违规行为时,应当首先采取金字塔最底层的劝诫、约谈等柔性的规制措施,责令企业限期整改。如果企业拒不配合,监管部门就会逐步升级更加严厉的措施,依次采取警告、民事赔偿、刑事处罚、停业整顿等措施,直到最终吊销企业的营业执照。与传统执法模式相比,执法金字塔为企业的自我规制提供了更多正向激励。相比传统法条主义的执法方式,这种逐级匹配的执法策略,能够对人工智能企业自我规制的意愿和程度做出回应,从而激励那些具有守法意愿的企业及时纠正错误,推动企业建立根据伦理原则自我规制的内在意愿。对于不能自主规制的违法者,执法金字塔还保留了顶端最严厉的惩罚措施,从而确保其问责机制拥有足够的威慑。

2.以分类监管促进企业自我规制能力提升

对于具有不同自我规制能力的人工智能企业,应当进行分类并采取差异化监管措施。

第一类是以科技巨头为代表的人工智能领域的领军企业。这类企业不仅拥有雄厚的技术实力,还拥有高于行业平均水平的自我规制能力。领军企业可以凭借他们在算法治理方面的知识和技术优势,设计出贯彻伦理原则的制度和技术措施。例如,在制度措施方面,谷歌设计的算法审计框架“SMACTR”,按照范围界定、映射、文件收集、测试和反思五个步骤对算法进行系统的伦理评估;在技术措施方面,微软开发的“InterpretML”框架可用于训练可解释的机器学习模型和解释黑箱系统,人们可以借此审查算法是否符合伦理要求。对于领军企业,元规制的目标在于激励它们进行实验性的自我规制,不断探索和创新人工智能的伦理治理方案,并由监管部门将这些方案作为实践案例向其他企业推广。

第二类是占行业大多数的、具有基本自我规制能力的人工智能企业。对于这类企业,监管部门可以采用过程性规制的方式,通过强制企业进行风险管理,促进其自我规制能力的提升。人工智能风险管理是企业自我规制的重要制度,已成为世界各国算法治理普遍采用的规制机制,例如欧盟《人工智能法案》第9条规定,高风险人工智能系统提供者应当建立、实施、记录和维护与系统有关的风险管理体系;美国国家标准与技术研究院(NIST)2023年发布了《人工智能风险管理框架》,指导人工智能企业按照治理、映射、衡量和管理四个模块,构建风险管理框架。在元规制中,企业首先需要制定完善的算法风险管理方案,这要求企业系统地识别和评估其所面对的算法伦理风险,开发相应的应对措施,确保在可行范围内将风险降到最低。

第三类是少数欠缺基本自我规制能力的人工智能企业。对于这类企业,监管部门应通过指导和建议等方式帮助他们获得自我规制基本的知识技能。例如,将由领军企业开发的成熟的算法审计方案转为实践指南,向该类企业推广;通过短期课程、研讨班等方式对企业的管理人员进行培训。此外,还可以鼓励发展人工智能监管领域的咨询公司,由它们为企业提供自我规制策略的咨询服务。

(三)建立对人工智能企业自我评估的元评估机制

元规制的最后一个环节是对人工智能企业自我规制的监督评估,其目的在于审查企业的伦理自我规制体系是否良好运转,并且在实现规制目标方面是否切实取得成效。与元规制的二阶治理结构相对应,元评估也是一种二阶的监督机制,它首先要求企业对其自我规制的情况进行自我评估,而后由监管部门对企业的自我评估进行元评估。在人工智能伦理治理中,元评估具体由以下三项机制组成。

1.人工智能企业的自我评估

自我评估重在审查以下四个方面。其一,算法伦理自我规制体系的设计是否与规制目标相一致,并有助于防控相关风险;其二,自我规制体系的要求是否得到了贯彻执行;其三,自我规制体系是否对企业的决策和行动产生了影响;其四,是否事实上有助于实现规制目标。在这四个方面中,前两者是基于过程标准审查企业算法伦理自我规制的行动过程。例如,企业是否制定了完善的个人信息管理制度,相关的信息处理活动是否严格按照权限规范实施。后两者则应按照一定的绩效标准进行审查,重点在于评估企业伦理自我规制体系的成效。例如,企业对大语言模型的训练方式,是否提高了其生成内容的正确率,且使内容更加符合人类价值观。在收集了这四个方面的信息之后,企业一方面应当对违反伦理原则要求的行为进行内部问责惩戒,另一方面应当针对自我规制的缺陷,对自我规制体系本身进行改进和完善。

2.人工智能伦理治理自评估报告

为了使人工智能企业的自我规制具有可问责性,需要将企业内部的伦理治理与来自监管部门、第三方机构和社会公众的外部监督联系起来,人工智能伦理治理自评估报告制度恰好充当了二者之间的桥梁。该制度要求,人工智能企业应当定期发布自评估报告,向受算法影响的利益相关者以及更广泛的社会公众,披露有关其算法自我规制体系的内容、运作情况和成效的高质量信息。一方面,自评估报告为相关主体提供了进一步监督问责的基础,例如,报告中的负面信息将影响企业的声誉,促使利益相关者通过抵制行为对企业实施问责;监管部门和第三方机构还可以基于自评估报告,对企业的算法自我规制体系进行审计。另一方面,发布自评估报告的要求也反过来推动了企业的自我规制,企业必须为自我评估收集有关其自我规制情况的信息,并采取相应的纠错和改进措施。人工智能伦理自评估报告作为一种向社会披露企业自我评估信息的机制,其内容原则上也应当与企业自我评估的内容保持一致,涵盖人工智能伦理自我规制体系的目标、治理措施、实施情况、取得的成效等方面。监管部门还可以对自评估报告的内容和信息质量制定统一标准,以便于公众对不同企业的算法自我规制情况进行比较。

3.监管部门的元评估

在人工智能伦理自评估报告的基础上,监管部门可以对企业的自我评估进行元评估。元评估作为二阶的监督评估机制,遵循和企业自我评估一贯的逻辑,即基于过程标准和绩效标准,考察企业自我规制体系的执行和成效。在评估标准方面,监管部门可以参考目前国内外已经制定的标准文件,也可以将领军企业先进的管理制度和规制技术,以及行业内成熟的自我规制机制转化为一般性的评估标准。在评估方法方面,监管部门在书面审查企业的人工智能伦理治理自评估报告的同时,也应当实际检查企业自我规制体系的部署和执行情况,并通过专业的算法审计验证报告所披露的绩效信息的真实性。元评估的结果一方面可以作为对企业问责的前提,另一方面也为监管部门对其治理成效的自我评估提供了信息,促使其反思相应的规制政策和措施是否合理、是否需要改进。


(责任编辑 吴 楠)

原文刊发于《江淮论坛》2024年第5期,编发微信时有删减。

原文引用钟浩南. 人工智能伦理治理的元规制进路:以企业监管为焦点[J].江淮论坛,2024(5):148-155.





本刊自2025年1月起采用中国知网投稿系统:https://jhlz.cbpt.cnki.net,原投稿邮箱自2025年4月1日起停止使用。热诚欢迎学界专家学者惠赐佳作。






扫码关注我们

     微信号:jhlt1958

     地址:安徽省合肥市徽州大道1009号

     邮编:230051

     电话:0551-63438336

     网址:www.jhlt.net.cn

     投稿平台:https://jhlz.cbpt.cnki.net

江淮论坛杂志社
《江淮论坛》是安徽省社会科学院主管主办的社会科学综合性学术期刊,现为国际交流期刊,中国人文社会科学核心期刊,中文社会科学引文索引(CSSCI)来源期刊,全国中文核心期刊。投稿平台:https://jhlz.cbpt.cnki.net。
 最新文章