张恩典|通过合同实现算法行政问责
文摘
教育
2024-08-30 17:22
江西
以机器学习算法为代表的数字技术正推动算法行政的兴起。伴随着数字政府建设浪潮,当前算法行政面临多重问责困境,具体表现为算法黑箱加剧行政决策的不透明性、商业秘密阻碍算法问责、算法行政拒斥行政机构专业判断以及褫夺公民参与决策和获得救济权利。面对算法行政问责困境,合同规制进路因具有回应性、灵活性等优势,不失为一种可供选择的补充性算法治理方案。宜从总体原则、重点内容和组织保障三个维度来建构算法行政问责的合同规制进路:遵循以风险为基础的采购原则,将算法问责作为协商重点内容,建立专业算法系统采购小组,确保政府采购具有透明性和负责任的人工智能算法系统,从而实现算法问责,重塑算法行政合法性。张恩典(1983— ),男,江西东乡人,南昌大学法学院副教授,法学博士,从事数字法学、行政法学研究。在数字时代背景下,政府在社会福利、市场监管、环境治理等公共治理实践中日益广泛地应用机器学习算法,算法行政随之悄然兴起。2022年6月,国务院出台«关于加强数字政府建设的指导意见»,指出“加强数字政府建设是适应新一轮科技革命和产业变革趋势、引领驱动数字经济发展和数字社会建设、营造良好数字生态、加快数字化发展的必然要求”。«关于加强数字政府建设的指导意见»对我国数字政府建设作出了战略谋划和系统部署,掀起了数字政府建设高潮。人工智能算法系统为数字政府建设提供了重要的技术支撑,无论是“一网通办”,还是“一网统管”,背后均离不开人工智能算法的技术支撑。目前,各行政机构所应用的人工智能算法系统多数并非由自己开发,而是由国有或私营公司开发设计,政府相关部门通过政府采购方式向市场主体采购而来。在算法行政兴起乃至整个政府数字化转型的过程中,作为市场主体的国有或私营公司发挥重要作用,甚至在一定程度上主导这些应用于人类公共事务的机器学习算法模型的开发和设计过程,并在很大程度上得以分享原本由立法机关赋予政府部门及其执法人员的执法权力。究其本质,算法行政在实现行政决策自动化的过程中,不同程度地呈现出国家行政权力“私有化”和“去中心化”趋势。由机器学习算法驱动的行政自动化、私人化的交织和交互现象,引发了社会各界关于算法行政问责乃至算法行政正当性的思索和追问。近年来,算法行政兴起带来的一系列问题受到包括法律学者在内的社会科学领域理论研究者的高度关注。目前的研究成果主要从算法自动化行政的性质与类型、算法行政对行政法基本原理和制度挑战、算法行政的规制方案建构等三个维度展开。在自动化行政类型研究方面,有学者基于自动化程度,将自动化行政区分为无自动化行政、自动化辅助行政、部分自动化行政和完全自动化行政。在算法行政对行政法基本原理和制度挑战研究方面,有学者分析了算法自动化决策兴起与依法行政原则、正当程序原则、行政公开和行政公平等诸行政基本原则之间所潜藏的张力;还有学者聚焦算法自动化决策对申辩、听证等经典行政正当程序规则的冲击和挑战。在制度方案建构研究方面,有学者从提高算法透明度、增强算法责任性角度,提出建立算法解释权、算法影响评估制度、算法审计、建立人工干预机制等富有价值的算法规制方案。一方面,既有研究更多基于立法论视角,侧重从制度建构角度来探寻算法行政问责制。这一研究对于消解算法行政的正当性危机无疑具有重要的理论和现实意义。然而,算法规制制度方案的系统性建构是一个长期过程,难以有效回应当下算法行政所面临的急迫的算法问责困境。面对当前各地如火如荼的数字政府建设浪潮,依赖立法进路解决算法行政所面临的紧迫的问责困境显得“制度供给不足”。另一方面,现有制度规则多聚焦商业领域的算法自动化决策,对公共算法决策关注甚少,公共算法决策的法律规制成为一个亟待解决的问题。面对算法行政所面临的问责困境,除了从立法层面系统构建算法问责的制度体系,学者还亟须探索更具操作性和灵活性、能够有效回应公共治理领域算法规制需求的方案,以解当前算法行政问责困境的燃眉之急。以数字政府建设为背景,立足算法行政“外包”的实践图景,在全面剖析当前算法行政问责困境的基础上,深入分析算法行政问责合同规制进路的理论意涵与价值功能,探索算法行政问责合同规制的具体方案,以期对我国算法行政问责制度构建有所助益。为回应日益增长的治理压力,政府开始在公共治理实践中广泛应用机器学习算法等现代数字技术,期望发挥其所具有的监测、预测和数据驱动决策功能,以提高公共治理效能。机器学习算法的上述功能对现代公共行政产生深刻影响,促使传统依赖威慑型的事后行政监管模式逐渐向预防型的事前行政监管模式转型,在很大程度上回应了现代风险社会的治理需求。这是环境监管、市场监管、公共安全、民生保障等公共行政中诉诸算法系统,苦心孤诣打造“自动化行政国家”的原因所在。在算法技术深度嵌入传统行政科层制、赋能政府治理的过程中,作为数字时代的一种新兴力量,算法科层制塑造了公共组织内部的“控制与激励机制,改变了知识信息流动、组织形态以及服务供给模式”。然而,在政府部门致力于通过建立算法科层制来实现良善之治的过程中,我们仍需思索算法科层制在多大程度上能够达到马克斯·韦伯所言的“根据纯粹的客观考虑来执行行政职能专门化原则的最佳可能性”。当前,算法行政正面临着深刻的正当性危机。我们对那些来自商业机构的算法技术深度渗透公共行政实践应当保持足够审慎,对当前政府算法行政“外包”实践给予充分警惕。受算法决策自动性、模糊性影响,算法行政正面临着多重问责困境。透明度是促进问责的重要机制。行政公开是保障公众知情权、实现政府问责的重要前提。在算法行政中,机器学习算法模型具有高度的复杂性和模糊性,导致设计和开发算法模型的技术专家难以对其输出结果作出解释和说明,更不用说采购部署算法系统的行政机构以及那些受算法系统影响的潜在利益相关者。算法技术正在将人类社会推入库克里克所言的“微粒社会”。在这一社会形态中潜藏着一种透明与不透明共生的悖论状态,亦即那些高度不透明的数字化机器正在创造着无法辩驳的透明。这种悖论会使我们在面对机器学习算法时陷入一种独特的混乱之中:一方面,算法决定我们的生活,控制我们的行为,关联我们存在的所有方面,统治着、影响着、规训着我们;另一方面,我们无力地站在程序的对面,因为我们不懂它们。我们面对的是看不见的机器。它们能看穿一切,但自己却无法被看穿,仿佛是神的存在。一些学者甚至将机器学习算法比喻为“神谕”。这种观点和做法的背后实则是一种“盲目的技术崇拜、唯科学主义”观念作祟;在这种观念影响之下,甚至连社会科学家都披上了神父的神秘外衣。具体到算法行政领域,机器学习算法的高度复杂性为算法行政披上了神秘和科学的外衣,产生所谓“黑箱效应”。这在客观上为行政机构推脱责任提供了可能。行政机构正试图利用算法模型为其行政决定营造一种看似“客观中立”的表象。在实践中,一些行政机构常会以行政决定是由算法系统自动生成、具有高度的复杂性和客观性为借口,拒绝对行政决定的理由作出解释。机器学习算法的模糊性和不透明性引发了算法行政的解释难题,进而导致问责困境。“当一个人无法解释采取某一具体行动的原因时,就很难确定问责制。算法行为背后不透明的推理使得本就困难的软件责任问题复杂化。”例如,在实践中,一些行政机构通过人工智能算法作出自动化决策之后,在面对公民提出解释特定决定的生成逻辑和理由时,拒绝作出合理的回应和解释,而选择以特定决定是由后台算法系统自动生成的,其决策过程具有高度的复杂性无从解释为由加以搪塞推诿。客观而言,这种做法在很大程度上侵蚀了公众对算法决策的信任,也削弱了数字政府建设的公信力。“当自动决策和商业秘密促进公共和私人的混合时,将会产生透明度危机。在这种情况下,私营企业现在正扮演着过去由政府所扮演的角色,但其却可以利用商业秘密法的原则,将自己与政府运作所依据的问责制期望相隔绝。”回应性是实现问责的基本方式。“向某人应责意味着有义务去回应后者提出来的任何令人不愉快的问题,往往是说明自己已经做了或未来准备做什么以及为什么这样做。”在算法行政场景中,“算法外包”导致行政机构对民众回应性逐渐削弱。具体而言,在政府部门与供货商订立采购合同时,供货商常会以所提供的设备和服务涉及商业秘密、知识产权为由,拒不公开算法代码,拒绝对算法系统的运行规则、参数作出说明和解释。正当的商业秘密应当受到法律保护,但诉诸商业秘密并不意味着其便当然受到保护。“商业秘密作为财产的概念是其设计本法律框架的基础。这使得它几乎与考虑政府透明度的公共利益背道而驰。”很多商业机构所开发的算法系统实际上并未达到商业秘密保护标准,但却在采购合同中提出过于宽泛的商业秘密保护要求,而政府机构采购人员在审查和订立采购合同的过程中常因审查能力不足以及担心披露和解释算法决策将影响算法系统效果等主客观原因,主动或被动地接受供货商提出的商业秘密保护要求。“如果机构在起草人工智能服务合同时不考虑透明度,他们就有可能允许私人供应商提出过于宽泛的商业秘密保护要求。不幸的是,这种宽泛的声明被说得太多,以至于‘成为保护算法的默认方式’。”正是借助商业秘密这张王牌,供应商乃至政府机构得以豁免披露和解释那些对公众的基本权利产生重要影响的算法决策背后的理由。可以说,在算法行政中,商业秘密已然成为横亘于公众与行政机构的一道屏障,阻碍公众对算法行政进行问责,并在很大程度上导致算法行政问责陷入困境。立法机构之所以授予行政机构裁量权,主要是因为行政机构在长期的行政执法实践中积累了大量的专业知识。然而,算法行政的兴起在一定程度上拒斥甚至替代了行政机构的专业判断,且这种拒斥贯穿算法设计开发、算法系统运行等阶段。在算法设计开发阶段,算法模型的设计开发基本上由那些具备专业技术能力的商业机构主导,作为技术需求方的行政机构及其工作人员因缺乏相应的专业技术能力难以参与算法开发设计活动,这使得行政机构及其工作人员的行政专业知识难以借由参与开发活动而浸润人工智能算法系统之中。然而,行政机构所应用的算法模型涉及的一些关键指标参数的设定却离不开那些具有丰富经验的行政官员所提供的专业知识。例如,在污染物排放智能监测系统设计中,对于在算法系统中将污染排放量设定在哪个阈值需要行政官员来参与设定。换言之,这些由商业机构开发的算法系统的参数、阈值设定均离不开作为需求方的行政机构的深度参与。在现实中,行政机构对其所应用的算法系统知之甚少,难以参与算法系统开发过程。“购买和使用这些系统的政府机构通常对这些系统设计与公共目标和价值观的契合程度没有任何参与,甚至没有相关知识。他们不知道系统对其试图预测的现象建模的方式、训练数据的选择和管理,或数据的使用。”在算法系统运行阶段,行政机构采购的算法系统在执行任务时不使用明确的指令,而是依靠模式和推理,并以一种不透明的逻辑取代行政自由裁量权的人类决策者;这种逻辑与机构人员有限而理性的推理过程毫无相似之处,而是由机器通过学习海量数据观察人类行为推导出模式。不同于遵循因果推理逻辑思维的人类执法者,算法自动决策的基础是建立在对海量数据的分析基础之上,前者遵循因果律,后者关注相关性。在此过程中,人类执法者直接参与算法决策过程的空间极为有限。机器学习算法能够大幅提升执法效率,并跟上私营部门快速交易的步伐。然而,机器学习算法系统可以有效地将人类从他们曾经发挥核心作用的某些决策过程中剔除出去。由此可见,算法决策的自动性和规模性带来的所谓精准、客观和高效,是以行政机构和行政官员让渡部分行政权力乃至摒弃专业判断为代价的,其直接导致行政机构对技术公司的深度依赖,最终引发算法决策对人类决策的侵蚀乃至替代。“在数字生活世界里,占主导地位的物品将是数字技术,因为对控制它的人来说,他不仅带来便利,娱乐甚至财富,它还会带来权力。”这种算法权力通常属于那些控制技术的人。算法行政对行政机构工作人员和专业判断的拒斥,既强化了商业机构对算法系统开发和运行的影响乃至控制,也使得商业机构借由算法系统的开发设计而实质分享了行政权力。虽然这种行政权力“外溢”与“分享”并非行政机关和技术公司主观追求的目标,但却是一个不争的事实。同时,“对于监管机构而言,其面临的挑战不仅在于他们如何了解自己的系统是怎么运作的,尤其是如何通过‘学习’自动更新,还在于基于算法的决策如何能够被目标人群所接受,以及为外部审查提供合理解释”。缺乏可解释性给寻求保留对政策控制权的行政机构及其工作人员带来了挑战,行政机构将越发依赖作为算法系统管理中介的计算机和数据处理专家。这种权力分享在客观上导致公共权力的“私有化”,模糊公权力与私权利之间的界限也使得算法行政问责的难度陡增。因为这些商业机构透过算法系统分享公权力,却无须承担责任;而行政机构因各种原因无法深度参与算法系统设计,不了解系统运行规则,难以为行政相对人提供合理解释,多以决策为算法系统自动生成为借口推脱责任。人工智能算法驱动的“行政自动化”实践正面临着“算法卸责”这一不容忽视的问题。在现代民主社会中,公众参与行政决策和获得救济的权利是行政问责的主要内容,亦是确保行政机构应责的重要机制。人工智能算法强大的数据处理能力让一些民众对数据民主产生了期待:“在数据民主中,最终的政治权力将属于人民,但一些政治决策将基于数据而非投票做出。通过收集和综合大量的可用数据———对每个人的利益、偏好和价值观给予同等考量———我们可以绘制出最清晰、最完整的公共利益画像。”在那些支持数据民主的学者眼中,“数据民主将是一个真正的代议制,比人类历史上其他所有民主模式都更具代表性”。但是,从韦伯有关事实与价值分离的论断来看,数据民主的问题在于,数据只能够告诉我们事实情况是什么,而无法告诉我们它应该是什么。数据驱动的算法决策还受制于数据本身的质量和算法决策透明度等现实问题。当我们对算法决策的基础和逻辑无从理解时,这种所谓的数据民主能否称得上一种民主类型确实值得商榷。诚如卡尔波卡斯在谈及数字化对传统民主政治影响时所言:“治理、规制和执法的混杂化和数字化的结果———‘数字法律、私有化力量、自主的权力体系’———非常可能深刻动摇社会政治生活的基础。”现代政府治理的算法转型并未如同一些数据民主论者所憧憬和描绘的那般促使政府运行流程和公共治理实践走向开放,而是存在技术行政化、技术内卷化的倾向,并由此引发了民众对算法控制所带来的数字极权的忧虑。目前,政府数字化转型实践呈现出较为严重的封闭性。政府引入人工智能算法技术的决策封闭,政府算法研发设计的过程对外封闭,政府算法的生成和应用的全流程由政府和科技企业主导,缺乏有效的公众参与。算法行政在很大程度上对行政相对人的参与权利构成深刻挑战和冲击。一方面,在算法行政场景中,由于算法行政决策的自动性,行政相对人常常只能得到算法系统自动输出结果,且决定是在瞬间作出,行政相对人往往难以如同在传统行政决策过程那般,在决定正式作出之前参与行政决策,提出申辩意见,表达自己的利益诉求,其合理诉求往往缺乏有效的反馈渠道。另一方面,在面对由机器学习算法自动生成的结果时,行政相对人对于诸如结果究竟是如何作出的、在算法自动决策过程中究竟考虑了哪些具体因素、究竟是基于何种理由作出等在传统行政决策场景中行政相对人均能得到回应,在算法决策场景中却常常无从知晓,难以得到合理解释和回应。不得不承认,在算法行政场景中,公众参与行政过程的美好愿景正逐渐沦为一种幻象,而经典的行政正当程序原则及其背后的参与价值逐渐受到侵蚀。美国学者指出,当政策被封闭的代码所笼罩时,公众与政府行为者均无法影响政策,并主张建立面向算法行政的“技术性正当程序”的构想,以增强行政相对人对行政算法自动决策的参与和控制。在算法行政场景中,行政相对人不仅被褫夺参与权,其享有的获得救济的权利同样面临被悬置的风险。算法系统远非科技公司所宣称的那样完美,也并非行政机构所期望的那样客观中立,而是充斥着偏见与歧视。“但自动化决策,尤其是机器学习算法,极易受程序员、之前所作决策、用户和/或社会偏见的影响,从而生成歧视性结果。”例如,美国政府机构启用的人脸识别系统由于无法准确辨别有色人种而被质疑存在种族歧视。在算法社会中,人们在享受算法自动决策带来的便利的同时,正在经受着来自算法的侵害。算法行政场景也概莫能外。在福利行政中,人们正在经受着来自算法系统的分类、排斥和歧视。在实践中,不乏一些福利申请人因为个人数据出错,或者是算法系统本身设计上的缺陷,导致面临被系统“锁定”的困局,最终被剥夺享受福利的资格。美国学者弗吉尼亚·尤班克斯在考察美国的“数字济贫院”时评论道:“数字济贫院将行政权力集中在一小批精英手中。其集中整合数据系统和数字监控设施达到了前所未有的控制程度。这种分类穷人的自动化工具如果任其发展,将造成严重的不平等。”然而,在面对来自算法行政决策的侵害时,行政相对人却难以获得有效救济。行政相对人因不了解特定算法决策背后的规则和逻辑,挑战和质疑算法决策将日益困难,捍卫自身合法权益的难度也随之陡增。科技公司和行政机构在面对来自行政相对人的权利救济诉请时,往往能够达成某种“共谋”,将责任推脱给既不受程序员控制也不受行政机构干预的自动化算法系统。法院在面对政府基于维护公共利益而使用算法自动系统作出决策时,因高度专业性而常常表现出相当程度的尊让。这意味着在算法行政场景中,行政相对人寻求权利救济变得更为困难。综上,在数字政府建设中,由商业公司设计开发的算法系统得以广泛介入过去由行政官员掌控的公共行政领域。此时,政府机构与算法系统供应商角色正发生转换:前者从传统监管者转变为算法系统的购买者和受益者,后者从技术供应商转变为行政过程参与者,甚至主导者。从行政法原理上审视算法行政实践可以发现,其在发挥监测、预测和驱动决策等功能的同时面临着问责困境。如何走出困境,形塑算法行政合法性,已然成为现代政府需要深入思索的“时代命题”。面对数字时代公共行政算法治理转型导致的问责困境,学者以制度建构为要旨,从立法论进路列出诸多颇具建设性的制度方案,这对于促进算法问责具有重要价值。然而,面对算法技术系统借助政府数字化浪潮对人类生活世界的大规模、迅速介入,除立法规制进路,还亟须探索一种具有实践回应性、能够灵活有效回应算法行政问责困境的应对方案。目前,政府所应用的算法系统多采购自商业机构,有必要探索算法行政问责的合同规制进路,缓解当前算法行政的问责困境。合同规制进路是在商业机构尤其是私营机构深度参与我国数字政府转型这一时代背景下提出的,以回应算法行政的问责困境。合同规制进路是公私合作治理背景下政府机构借助私法方式完成公共职能的重要方式。相对于立法进路而言,所谓算法行政问责合同规制进路,是指借由政府采购合同这一载体,作为算法系统采购者和应用者的行政机构通过政府采购合同缔结过程,与算法系统供货商展开充分协商并订立相关条款,借此对供货商课以一定的合同义务,以实现算法行政问责的目的。例如,在政府采购合同中要求供货商在开发和设计中承担算法披露、解释、评估等约定义务,并为行政机构参与算法系统设计、开发提供适当的参与机制,为行政专业知识植入算法系统提供有效渠道,进而达到增强算法行政问责的目标。第一,合同规制进路是一种事前规制方案。与那种在算法系统应用过程中对其提出算法透明度等方面要求的事后规制不同,合同规制进路在算法系统投入运行之前,亦即在系统的政府采购阶段对算法透明度等提出要求,是一种典型的事先规制方法。这一方案的优势在于,其不是等待算法系统采购运行并出现透明度、公平性等后寻求解决方案,而是坚持事前预防理念,防患未然,确保后续的算法系统运行更加安全、高效。第二,合同规制进路是一种逐案交易的规制方案。作为一种治理工具,合同代表一种去中心化和分权化的治理机制,在算法分布式问责制方案的建构中占据重要地位。相对于立法所提供的“一刀切”的整体化算法行政问责方案,合同规制进路遵循敏捷治理理念,是一种面向个案的分散化规制方案。其优势在于具有高度的灵活性和适应性,耦合多元算法行政场景,能够有效回应多样化应用场景中多元主体在算法系统的透明度和公平性等方面的差异化需求。第三,合同规制进路是一种协商性的规制方案。合同的本质是合意,而合意达成依赖合同双方的协商。尽管普通消费者在与供货商议价的过程中通常处于弱势地位,在很多情形下不得不同意由供货商主导的对其颇为不利的标准化合同,但政府并非普通消费者,作为最大的商品和服务买家,政府具有强大的谈判议价能力。合同规制进路具有两大优势:一方面,作为消费者的政府能够借助竞争性磋商程序,了解供应商对算法透明度和公平性要求的可接受程度;另一方面,在尊重供货商权利的同时,在采购环境中能够签订具有更高算法透明度和公平性的合同,且这种透明度和公平性可能比法律所要求的更高,从而更好地实现算法行政问责的目标。相较于呈现滞后性、整体性的立法规制进路而言,合同规制进路呈现出高度的回应性和灵活性,在实现算法问责方面具有重要的实践价值。第一,合同规制进路的回应性能够有效回应算法行政实践。立法规制进路旨在通过建立完备的算法问责制度体系来实现算法问责。客观而言,立法程序复杂,周期长,耗时费力,远非一朝一夕能够实现,而且成文法固有的滞后性使其难以对快速更新迭代的数字技术作出及时有效回应。这在很大程度上限制了成文法在数字技术规制方面的功能。例如,近年来出台的«中华人民共和国个人信息保护法»(以下简称«个人信息保护法»)、«互联网信息服务算法推荐管理规定»(以下简称«算法推荐管理规定»)等法律和规章对算法自动化决策作出规范。我国个人信息保护立法遵循一体调整模式。具体而言,«个人信息保护法»第五十五条第一款第(二)项将“利用个人信息进行自动化决策”作为个人信息处理者需要履行个人信息保护影响评估义务的情形之一。同时,该法以专节方式对国家机关处理个人信息作出特别规定。在体系解释上,行政机关为履行法定职责利用算法模型进行个人信息处理的行为,亦需要遵守«个人信息保护法»第五十五条的规定,履行个人信息保护影响评估义务。客观而言,«个人信息保护法»虽然将国家机关处理个人信息的活动纳入该法的调整范围,但是相关内容却付之阙如。这使«个人信息保护法»的一体调整模式在实践中难以有效适用于国家机关的个人信息处理活动。这意味着,«个人信息保护法»有关国家机关处理个人信息的规定呈现高度“象征性立法”色彩。同时,该法更多侧重个人信息保护,对算法尤其是算法行政决策缺乏足够关注。国家互联网信息办公室等出台的«算法推荐管理规定»旨在规范互联网信息服务中的算法推荐活动,对算法行政决策缺乏系统规定。面对当前算法行政问责实践中存在的制度供给不足问题,合同规制进路以其高度的回应性为算法问责提供了一种更加高效便捷的治理方案。在当前政府算法外包的背景下,通过对算法系统供货商课以算法责任是一种兼具操作性和适应性的规制进路。作为采购方的行政机构无须等待立法行动,便能够借助采购合同来协商约定旨在促进算法问责制的条款。具体而言,行政机构作为采购方能够通过采购合同这一载体灵活高效地与供货商协商约定算法开发设计和运行过程中的具体义务。例如,算法系统采购方可以通过要求供货商提供适当的公众访问算法设计和功能基本信息的途径,来达到提升算法透明度、增强算法问责制的目的。第二,合同规制进路的灵活性能够适应算法行政问责的现实需要。面对繁复的公共行政场景,各行政机构所采购的算法系统功能和特性各异,且基于不同的应用场景,人工智能算法系统在算法透明性、可解释性等方面存在差异,导致那种倡导一刀切的立法规制进路在具体落地实践中面临障碍。立法者在寻求诸如算法等数字技术的立法规制方案时,通常遵循原则性和回应性的立法理念,为包括行政机构在内的数字技术多元治理主体的具体规制实践预留足够的规制空间。当然,这表明立法者试图在激励创新与保护人权之间达成一种反思性平衡。在现代行政国家中,“判断法律的价值的标准不是它是否具有融贯性,而是它是否有效”。面对不断迭代更新且呈现高度复杂性的现代数字技术,立法者需要更为高超的立法艺术,克服笼罩在立法者心头的一味追求法律融贯性的立法原旨主义观念,探索建立面向数字时代的反思型法模式。相对于成文法而言,合同工具最具价值的特性在于其灵活性、简单性和可预测性。相较于呈现高度整体性的立法规制进路而言,合同规制进路呈现鲜明的灵活性。作为一种软法治理工具,合同工具体现了敏捷治理理念和逻辑,既能够对持续迭代的算法系统作出及时回应,又能够快速适应算法行政场景的变化,从而避免立法规制进路在算法行政问责方面的一刀切制度安排,契合算法治理场景主义的规制风格,有效回应算法行政多元化场景的需求。第三,合同规制进路能够促进算法问责制度构建及其合规实践。在行政民营化背景下,作为私法工具的合同日益被视为实现社会目标的重要工具。“社会采购旨在确保政府承包商不会歧视、违反劳动法、损害环境或以其他方式从事不良商业行为。”在算法决策的场景中,合同工具是勾连整体性算法问责制度体系与个别化算法问责实践的重要纽带。在一定程度上,合同工具可以被视作得到合同各方同意的“私人立法”,发挥填补立法空白的作用。“通过在合同基础上制定‘法律’,合同各方能够明确各自的责任,制定标准,并选择在哪里以及如何应用规则,尽管有所限制。”一方面,该规制进路是在立法层面尚未对算法行政问责制度作出体系化制度建构的前提下,行政机构与供货商针对算法系统应用所采取的一种颇具自我规制意味的算法问责方案。“合同行为的第三个规范性框架是由包含在合同中的自我规制所提供的标准组成的。这个参照框架指引行为契合于由任何正式的文件、明示的协议和公认的惯常标准所确立的权利和义务。”作为一种个别化和分权化的问责方案,合同规制进路能够为未来建立算法问责制度体系积累可资借鉴的经验。另一方面,算法规制立法所确立的算法行政问责制度的最终落地,依赖作为行政机构通过一个个算法系统政府采购合同具体条款的协商来加以实践和落实,这也是算法合规实践的重要意蕴。第四,合同规制进路的协商性有利于实现算法系统应用者与开发者之间的利益平衡。算法系统具有高度的复杂性,这为算法开发者规避和转嫁风险、谋取利益创造了便利条件,而算法应用者因对算法系统缺乏足够的知识和信息而处于相对弱势地位。“合同能够在保密与披露之间保持平衡。”合同工具常被用于保护商业秘密和禁止披露,而通过合同条款的精细设计,也能够促成合理的透明度。对于算法应用者而言,机器学习算法系统中往往潜藏着歧视和错误,算法应用者因此面临着司法诉讼风险,合同规制进路有助于减少算法采购者和应用者的风险。作为算法应用者的行政机构能够借助政府采购合同要求算法开发者披露算法系统的功能和部分参数,以增强算法系统的透明度,促进算法问责。对于算法系统开发设计者而言,行政机构通过在政府采购合同条款中对供货商提出适当的问责要求,能够有效促进商业机构不断优化算法系统,提高性能。由此,合同规制进路能够在一定程度上改变算法系统开发者与应用者之间的失衡状态。政府和提供服务的私人组织之间的合同本身可以作为促进公法价值观的工具,合同条款能够规定规范,并以激励承包商实施这些规范的方式构建合同关系。在数字技术席卷政府治理的时代背景下,合同规制进路为缓解算法问责困境提供了一条更具灵活性且能够立即付诸实施的可行方案。“政府机构和第三方供应商之间的合同为确保人工智能工具的负责任设计和使用的总体责任提供了重要工具。”各行政机构应当有效利用政府采购合同,向公众保证政府负责任地采购并应用算法工具。在明确算法行政问责合同规制进路的功能之后,仍需进一步明晰其应遵循的总体原则和重点任务,指导行政机构透过政府采购合同将算法透明度、公正性和隐私保护等具体价值目标植入其中。具体而言,宜从总体原则、重点内容和组织保障三个维度,探索建构渐进的算法行政问责合同规制方案,进而达到算法行政问责的目标。一方面,相较于传统的技术服务而言,数字技术服务的履职合规风险和安全运行风险高得多。以人工智能算法系统为例。人工智能算法系统的潜在风险包括算法歧视、数据泄露和隐私风险等诸风险类型。另一方面,现代社会行政治理任务繁复,导致算法行政实践呈现出高度的场景化特征,且在不同的应用场景下风险性质、规模和程度迥异。因此,算法行政问责宜充分考虑算法系统的应用场景、风险规模和强度。具体到行政机构的算法系统采购实践,应当遵循以风险为基础的采购原则,将风险治理理念贯穿人工智能算法系统采购实践的全过程。首先,算法系统采购应当将公共利益贯穿采购决策过程,并以社会价值为指引,考虑人工智能算法系统对人类和社会经济的影响和收益。应充分考虑采购的相称性,根据算法系统具体的应用场景和潜在的风险性质、规模、强度来拟定算法采购合同,并将风险评估贯穿整个算法系统采购的全过程。特别是在算法系统采购初始阶段,有必要进行算法系统风险影响的预评估,这对于后续算法系统采购至关重要。其次,在风险评估内容方面,要着重考虑和评估算法系统采购在数据质量、数据安全、应用领域、社会经济效应以及对机构和个人财政等方面的影响,在综合考虑风险和收益等方面因素达成合理的政府采购协议。算法行政问责意味着政府需要向公众证明其在行政执法活动中所应用的算法工具是精心设计和公平的,而算法透明度在实现算法行政问责中发挥重要作用。然而,商业秘密主张的滥用已经成为实现适当算法透明的重要障碍,并从根本上制约公共利益的实现。目前,行政机构所部署应用的算法系统多采购自第三方机构,且后者常以商业秘密为由拒绝披露算法系统,导致行政机构在算法行政中陷入问责困境。鉴于此,在算法系统采购中,行政机构宜充分利用其作为买方的优势地位,以促进算法问责为重点,通过充分的条款协商,对供货商课以适当的算法披露和管理义务,驱散笼罩在算法系统中的“商业秘密”迷雾,达到借由合同实现公共利益的目标。第一,将促进算法问责作为筛选竞标供货商的重要条件。传统政府采购更多关注所提供商品或服务的质量和价格,并将其作为筛选供货商的重要条件。鉴于人工智能算法系统的特殊性,行政机构在算法系统的政府采购中,除考虑价格因素,还应当将增强算法透明度和公平性、促进算法问责的能力作为筛选供货商的重要条件。这与现代社会所倡导的可持续性政府采购理念相契合。可持续性政府采购是联合国可持续发展首脑峰会于2002年提出的概念,即公共部门在采购工程、货物和服务时,应在全生命周期内综合考虑采购活动对经济、社会和环境的影响,并通过设置支持自主创新、劳工保护、节能环保、中小企业发展等政策的评价标准,发挥公共采购的引导作用,促进经济社会发展和生态环境保护。算法系统采购同样应遵循这一理念,并立足算法系统应用实践存在的算法歧视、算法黑箱等突出问题,将算法问责的实现能力和程度作为选择供货商的重要考量因素。第二,课以供货商适当的算法披露义务。在算法系统采购中,科技公司所声称的“商业秘密”保护,许多并未满足法律所保护的“商业秘密”标准。因此,在人工智能算法系统的采购合同协商谈判中,采购官员在提出对算法系统透明度要求的基础上,可以对供货商所提出的所谓“商业秘密”主张提出质疑。双方围绕“商业秘密”和“算法透明”之间冲突的充分协商,既能够使潜在的供货商了解政府机构借由算法透明度回应公众问责的现实需求,也能够让政府机构理解作为潜在供货商的科技公司的正当“商业秘密”诉求,并借此挤掉后者在算法系统采购中所主张“商业秘密”的“水分”。作为采购方的行政机构可以通过在政府采购协议中要求参与竞标的供货商部分放弃其所谓的“商业秘密”主张,并要求其履行适当的算法披露义务。具体而言,在算法系统采购合同中,行政机构作为采购方可以根据应用需求,要求其履行以下披露义务:(1)披露算法系统的目标和功能;(2)提供有关其算法模型构建方法的信息,包括选择变量、构建样本和验证模型等;(3)提供用于其算法模型构建的训练数据,以提高算法的透明度。第三,课以供货商适当的算法系统开发管理义务。机器学习算法系统具有高度的复杂性和自动性,且处于动态迭代更新之中。“由于算法的性质以及法律何商业地位,它们是不透明的,因此很难想象如何对其问责。如果建立架构、决定信息功能和设置因果关系的代码无法被检查和评估其目标,那么信任就很难实现。”因此,为确保政府采购的算法系统是精心设计且负责任的,采购方宜在采购合同中与供货商约定有关算法系统开发和持续管理方面的义务,并辅以适当监督机制,确保供货商严格履行约定义务。一方面,可以通过协议要求供货商在算法系统设计开发阶段,除其达到国家和行业标准,还应遵守相关国际行业组织发布的人工智能技术标准,借此迫使供货商澄清乃至放弃对特定算法系统的商业秘密保护。另一方面,在部署运行阶段,可以要求供货商承担加强算法系统管理,持续履行算法影响评估和审计义务,对其提供的算法系统开展定期与不定期的影响评估和审计,并持续为算法系统提供运维服务。同时,行政机构可以要求后者向公众披露其影响评估报告的主要内容。“政府并不能通过缔结那些设计用于提供所需的服务水平的合同而在提供服务方面逃避对公众的政治责任。为了对公众的需要保持灵敏的反应,政府试图在它们的合同中既获得对将要履行的任务进行界定时的灵活性,又获得自由裁量权以监督和指示外包承包人的履行。”针对当前行政机构利用合同机制让市场主体参与政府的算法治理转型实践所面临知识赤字和监督乏力的问题,应加强对算法系统政府采购行为的保障和监督。首先,以政府首席数据官为基础建立算法系统专业采购小组,为算法系统采购乃至数字政府建设提供组织保障。当前,广东、江苏、上海等地先后设立了政府首席数据官制度,作为应对公共治理数字化转型的重要组织改革举措,政府首席数据官在统筹推进数字政府建设、数据开发利用和数据安全管理工作等方面发挥重要作用。建议以首席数据官为基础,在政府机构内部设立一个相对独立的人工智能算法系统采购小组,专门负责采购人工智能算法系统工作。其中,首席数据官的一项重要职责是负责本部门的数字设备采购;由于采购既涉及数字设备的性能,又涉及公共资金使用,因此该采购组织在人员构成上应兼具专业性和民主性。一方面,要有效整合行政系统内部专业能力,并有针对性地吸收计算机、人工智能、行政管理和法学等相关领域的外部专家,充分发挥其在人工智能算法系统采购乃至算法系统研发中的作用;另一方面,要合理吸纳少量公众作为小组成员,以发挥其监督作用。其次,建立算法系统采购监督制度。政府算法系统采购和应用直接关系到公民权益保障和公共资金使用,因此应加强对人工智能算法系统政府采购过程的监督。除涉及国家秘密外,政府应通过政府采购网和政府官网向社会披露所采购人工智能算法系统的目的、名称、数量以及拟部署的应用场景,并说明采购特定算法系统的必要性,以接受公众监督。政府是人类创造的最重要且引以为傲的组织体,虽然几经变迁,但是其之于人类而言依然举足轻重。当前,以机器学习算法为代表的数字技术正在对政府内部运行和外部治理实践产生深刻影响乃至结构性重塑,既打破了横亘于政府内部各行政机关的藩篱,也打破了政府组织与其他社会组织之间的界限,形成全新的数字治理生态。在人工智能算法等数字技术的加持下,传统面向工业社会的街头官僚制正在向数字社会的算法官僚制转型;相应地,旨在控制街头官僚制的传统行政法规范体系也正在发生变革,控制以数字技术为支撑的算法官僚制。目前,国家数字能力建设呈现出社会灵活性,即“主要通过平台型企业的委托治理以及激发社会大众的数字参与来实现数字领域的治理目标,因此也面临委托治理的危机”。算法行政问责难题正是这一委托治理难题的集中体现。合同规制进路契合了现代软法治理理念,在传统立法论的硬法治理思路之外,为算法行政问责提供了一个颇为高效且能够立即付诸实践的、补充性的软法治理方案,也是缓解和克服当前数字法治政府建设中面临的“双化失衡”与“弱势叠加”问题的可行对策。相信随着我国算法治理领域立法的加速推进,并辅之以具有高度灵活性的合同规制进路,软硬并重,多措并举,算法行政问责困境能够逐渐得到有效缓解,最终重塑算法行政法性。为微信推送方便,本文参考文献省略,引用请参考原文。
载于《南昌大学学报(人文社会科学版)》2024年第3期微信号|ncdxxbskb
中文社会科学引文索引(CSSCI)来源期刊
全国中文核心期刊
中国人文社会科学核心期刊
RCCSE中国核心学术期刊
全国高校精品社科期刊
华东地区优秀期刊