治理之智 | 算法影响评估的三个基本问题:制度定位、机制模式与改革启示(下篇)

科技   2024-09-18 14:48   北京  


摘要:

上篇《治理之智 | 算法影响评估的三个基本问题:制度定位、机制模式与改革启示(上篇)》详细分析了算法影响评估的制度定位和应然内涵。本文聚焦于算法影响评估的实然表现,通过对欧盟、美国、英国、加拿大等主要国家或地区算法影响评估的实践梳理,认为列表清单、底线规制、放权赋能等三种实践模式在体现各自特征的同时仍然存在不足。由此启发,算法影响评估的制度构建应围绕“合作治理作为制度目标、探索平衡开放性与责任性的关键机制、坚持‘技术-组织-社会’的系统论思维”三个维度展开,而相应的机制设计将助力算法影响评估制度的改革完善与实践应用。



一、算法影响评估制度的实然表现:

三种模式及其相对性














算法影响评估作为一种制度实践已经被普遍纳入主要国家人工智能治理框架,但这并不意味着当前已形成较为成熟而稳定的算法影响评估制度,各国的实践探索在客观上构成了制度多样性的基础,而在比较案例的分析过程中,我们也不难发现各国决策者的偏好与侧重。概括而言,将各国政策实践大致总结为以下三种模式:列表清单模式、底线规制模式、放权赋能模式



(一)列表清单模式


“列表清单模式”是指监管者提出一系列明确的算法影响问题列表,要求被评估主体对这些问题做出回答,并基于答案对被评估算法的风险影响进行评分,然后按照评分总数高低做出分级分类管理决定,从而分别匹配以差别化的治理要求。列表清单模式的制度逻辑在于,其注意到了算法影响评估边界的模糊性、范围的广泛性,以及被评估主体可能因缺少引导而难以形成可参考、可积累治理经验的分散性,因而监管者预先制定一系列问题列表以引导评估工作的具体展开。列表清单模式已经普遍在各国出现,尤以加拿大、欧盟为典型代表。


加拿大在2019年4月施行的《自动决策指令》(Directive on Automated Decision-making)是专门针对公共部门自动决策算法应用的规范性要求,其中便提出了算法影响评估的系列问题列表。列表共包括风险(细分为影响、数据两个子部分)、风险预防(细分为咨询、去风险措施两个子部分)两部分,形成了涉及商业流程、所用数据、模型逻辑等80余个具体问题,基于被评估主体回答而形成的得分将进一步决定其风险等级。按照指令要求,该列表每两年更新一次,以试图跟随技术创新应用步伐。与此类似,欧盟在2019年4月由人工智能高级专家组发布了《可信赖的人工智能道德准则》(EthicsGuidelines for Trustworthy AI),其中第一次对可信赖人工智能的评估提供了详尽而具体的问题列表。考虑到准则的非约束性特点,欧盟《人工智能法案》进一步以“基本权利影响评估”(Fundamental Rights ImpactAssessments)的形式提出了制度要求。尽管法案当前还没有形成具体问题列表,但仍然指出了需要展开评估的范畴内容。特别是其将算法对环境的可预见影响纳入算法影响评估范畴,体现了欧盟算法治理的独特性。


(二)底线规制模式


“底线规制模式”是指监管者致力于设定影响评估的底线要求,多以影响评估标的范畴(即需要考虑哪些方面的影响)或被评估主体对象范畴(即需要要求哪些主体展开影响评估)的最小化界定等形式体现出来。底线规制模式的制度逻辑在于,虽然认识到了因算法影响评估边界和范围模糊而使自规制流于形式的治理挑战,但监管者同样担心过度监管带来的创新抑制效应,因而其采取了最小化界定的方式,在明确涵盖影响风险底线的基础上,将更大范畴的影响评估工作交由一线主体自主展开。在该模式下,算法影响评估的风险底线往往是以既有法律框架为准绳,具有确定标准并因此接近于算法审计,但却并不延伸至更为宽泛也更为模糊的其他议题或对象。


该模式的典型代表是美国,并具体体现为两个方面。一方面,由于美国采取了基于垂直领域的人工智能治理模式,因而算法影响评估更多被置于垂直领域监管法律框架之下,直接面对具体的法律要求。例如,消费者保护领域的《公平信用报告法案》要求公平对待消费者的信用评级申请,因此该领域的算法影响评估将被要求聚焦算法歧视问题。另一方面,美国同样出台了一系列跨领域的一般性人工智能治理规则,算法影响评估同样是其中重要组成部分。例如,拜登政府行政管理和预算局在2023年发布的《促进联邦机构推动人工智能治理、创新、风险管理的备忘录》,以及连续三次被提案的《算法责任法案》,分别针对联邦机构、私人部门提出了算法影响评估要求,而它们的共性特点是基本都围绕公民的法定权益展开,并且没有延伸至能源环境、基本权利等宽泛范畴。同时,《算法责任法案》还提出了对于中小企业的“安全港”原则,仅对大企业提出算法影响评估要求,而这也不同于欧盟治理框架将各类企业“一视同仁”的治理思路,后者更多强调为中小企业提供相匹配的合规资源但仍然要求进行算法影响评估。


(三)放权赋能模式


算法影响评估的第三类模式可被称为“放权赋能模式”,其主要特征是联邦或中央政府决策者并不对算法影响评估的具体要求、标准、内容做出实质性规定,而是将此权限赋予各垂直领域的具体监管部门,并通过界定监管部门职责、提供政策工具箱、设立跨部门协同机制等方式来提升监管部门推进算法影响评估的能力。放权赋能模式的制度逻辑在于,联邦或中央政府决策者意识到其远离一线实践而处于信息劣势,因此将决策权限赋予了作为算法影响实际发生地的垂直领域监管者。


该模式的典型代表是英国,其相关政策主要体现在以下四点。第一,英国主张人工智能的治理风险需要在应用层面才能得到确认和评估,因而实际发生的影响只有在特定场景下才能被充分发现,算法影响评估由此需要被置于垂直领域下加以考量;第二,考虑到确定的、中心化的治理模式既容易过时,也不利于发挥各垂直领域监管者的经验和专长,英国主张由一线监管者来相机决策以实现敏捷反应,并界定了其在明确算法审计的启动条件、确立算法审计的最佳示范、作为更好审计的推动者、确保审计所发现问题得到救济、对可能误导的审计结果进行纠正或解释等方面的五项职责;第三,为提升一线监管者治理能力,英国政府发布的工作文件列举了八种算法影响评估政策工具,较全面勾勒出了覆盖全频谱的政策工具箱,且不对每种工具的具体适用场景做出强制要求,而是留给各领域监管者自身来决定;第四,为避免各垂直领域监管者各自为政,英国政府设立了“数字监管合作论坛”这一跨部门协同机制,其作用既包括共同开展探索性监管研究,也包括分享监管经验和标杆实践案例等。


(四)三种模式的比较分析


列表清单、底线规制、放权赋能三种模式构成了对当前各国在算法影响评估制度实践领域主要探索的框架性总结,基于比较制度分析视角可得到以下三点启示:


第一,三种模式都不强制要求向公众公开而大都只需向监管者汇报,且三种模式都形成了更丰富的兼顾开放性与责任性的新机制。


第二,三种模式代表了两类制度设计视角,列表清单、底线规制更重视算法影响评估制度具体内涵的设计,涵盖实质性要求、流程性要求等不同方面;相比而言,放权赋能模式则将制度设计重点从制度内涵转向了行动者,即注重垂直领域监管者自身能力的建设和行为的促进。


第三,三种模式体现了差异化的治理权力关系。列表清单仍然延续了监管者主导、自上而下的传统思路,但底线规制、放权赋能则更明显地表现出了监管者的“自谦”:即在认识到自身局限性的前提下,重新定位监管者职责并试图推动监管、被监管者合作以共同探索算法影响评估的过程与结果。



二、中国算法影响评估制度建构的

改革启示














我国近年来高度重视算法影响评估制度建设,并展开了一系列具有标志意义的实践行动。2023年8月15日,《生成式人工智能服务管理暂行办法》正式施行,其中明确指出,“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估”,同时也要求在生成式人工智能技术研发过程中需要“开展数据标注质量评估”。为进一步落实该文件,2024年2月,全国网络安全标准化技术委员会发布了技术文件《安全基本要求》,从语料安全、模型安全、安全措施等方面提出了安全评估要求,为生成式人工智能服务提供者的安全评估工作、相关主管部门评判生成式人工智能服务安全水平提供了重要参考。尽管作为技术文件并不具有强制性,其治理效果仍然取决于监管部门、一线技术研发与应用主体、市场第三方评估机构等利益相关主体如何理解、使用、执行,但从制度演化视角来看,《安全基本要求》是我国国家层面治理机构第一次对人工智能算法安全评估的对象、范畴、标准等实质性内容提出制度要求,对于我国完善人工智能算法安全评估制度建设具有关键性的推动作用。换言之,《安全基本要求》很有可能作为催化剂加速我国算法影响评估制度的探索、完善乃至成熟进程。在此背景下,前文围绕算法影响评估的制度定位、应然层面的关键机制、实然层面的模式比较这三个方面的具体分析,将为我国该领域的未来制度建构与改革提供三点启示。


第一,合作治理应成为算法影响评估制度构建的指导理念和价值遵循,在此过程中以敏捷性、实验性的方式累积治理知识、探索治理方案是算法影响评估制度改革的主要目标。算法影响评估要求监管者、被监管者、第三方等不同主体间形成动态、反复、迭代的合作治理过程,并在此过程中累积治理知识、探索治理方案。对监管者而言,“合作治理”意味着监管权力的分散,以及在此过程中与被监管者关系的改变。虽然算法影响评估可以作为一种监管压力施加在被监管者身上,但监管者需要被监管者主动寻找评价方案和风险救济措施。在此意义上,监管者的工作重心便从传统意义上监督、惩罚被监管者,转变为了利用机制创新来激励或“倒逼”被监管者的主动行为,二者由此构成合作关系。对于被监管者而言,“合作治理”既意味着对其自主性的认可,同时也意味着其需要接受合作框架的约束并承担责任。信息不对称和共同无知现象的存在,仍然使得更具有资源和信息相对优势的被监管者需要扮演更为积极主动的角色;同时,包括惩罚性默认在内的诸多机制创新为“倒逼”被监管者进入合作关系建立了边界条件。对于第三方而言,“合作治理”意味着需要发挥更多主体作用以建立更丰富、多层次的治理框架与体系。监管者与被监管者都可能存在“道德风险”:前者存在“监管俘获”问题,而后者出于保护商业秘密的需要而拒绝开放。第三方主体的引入既可能监督监管者行为,也可能为被监管者提供利益平衡的渠道(例如向第三方开放而不向公众开放)。


第二,开放性、责任性以及二者的兼顾应被视为算法影响评估的关键机制设计,应以此为基准来比较不同模式的优势与不足,进而选择适合中国发展与治理需要的算法影响评估制度框架。为实现合作治理的理念,算法影响评估要在开放性、责任性以及二者兼顾这三个方向上推进机制创新,而它们便构成了算法影响评估制度的关键机制。开放性是指人工智能算法影响评估应在评估主体、被评估对象、评估方法、评估工具等多个维度上避免边界的封闭与割裂,持续与所处环境发生关联,并在此关联过程中累进式地积累治理经验。一方面,算法影响评估需要“自下而上”地构建治理知识生成与积累的通道从而克服共同无知的治理困境,而开放机制便是治理知识生产、累积与再生产的根本源泉;另一方面,算法影响评估需要面对治理环境的复杂性和多样性,相同的算法治理问题与答案在不同治理环境下可能会包含不同含义,这些现象都要求人工智能算法影响评价需要保持对环境的开放性,以维持与环境的动态匹配。责任性是指算法影响评估需要在一定程度上回应实质性治理目标的实现与否,通过设定明确的、最低限度的合规标准以确保被监管者落实治理责任。考虑到算法影响评估的宽泛性,到底哪些内容应该被纳入最低限度的实质性治理目标范畴,以及如何设定“最低限度”,仍然是需要探索的实践性问题。值得注意的是,强调程序性要求的开放机制与强调实质性要求的责任机制并不一定是相互匹配的,二者可能存在内生的制度冲突。事实上,如果考虑到开放机制的初衷是激发被监管者参与合作治理的行为动机,那么其前提必然是监管制度本身存在宽泛、模糊地带,从而能够为被监管者提供可自由裁量与探索的空间,但责任机制纳入实质性治理目标可能会削弱这一前提。不仅使得影响评估制度具备了一定刚性,甚至可能将合作关系转变为对立关系,即监管者需要监督被监管者是否严格落实实质性目标要求。在此意义上,二者的平衡是算法影响评估制度设计的第三个关键机制。


第三,“技术-组织-社会”的系统论思维应贯穿算法影响评估制度构建始终,在各类系统框架的比较中寻找适合不同场景的差异化评估模型。在明确合作治理作为基本理念、开放性与责任性及其兼顾作为关键机制的基础上,算法影响评估制度设计的第三点启示在于寻找与特定场景相匹配的涵盖“技术-组织-社会”三个维度的系统模型。算法影响评估需要从宏观层面的制度设计走向微观层面可落地的具体指标或框架,而这便体现为算法影响评估模型的设计与选择。考虑到算法影响评估对象涵盖技术、组织、社会等不同层面,制度设计者便应以系统论视角勾勒出三个要素相互影响的不同关系,然后针对不同算法治理场景需要选择匹配模型。较有代表性的系统模型例如技术执行框架、“委托-代理”框架、“社会-生态”系统理论框架等。仍然需要强调的是,不同模型框架都代表着从不同理论研究视角对“技术-组织-社会”系统的差异化“简化”,而具体算法治理场景下的模型选择便因此主要体现为实践经验的探索、积累,而非一般性的理论范式。




总结与讨论


算法影响评估作为一种算法治理制度正在各国普遍建立,而随着大模型技术的快速发展与应用,这一趋势将变得更加明显且呈加速态势发展。大模型技术的出现和发展标志着人工智能科技从专用化走向通用化,人工智能接近乃至超越人类智能、人类和机器共生共栖的社会场景开始从幻想走向现实。在治理方面,大模型超过预期的表现不断刷新人类对机器智能的认知,颠覆性创新对传统文化价值观念、社会经济形态、个人基本权益带来诸多影响,如何重构人类对机器的主导性和权威性,让人工智能回归以人类为中心的发展路径,有效管控大模型人工智能带来的核心风险,需要政府、产业、学界和社会各界的共识和共治。


另一方面,大模型技术的前沿性和影响的广泛性对政策效果的合理性和有效性提出了更高要求。在此背景下,算法影响评估正在成为应对大模型治理挑战的重要政策工具。基于评估结果的敏捷反馈以引导模型产业负责任的研发应用行为,既能为企业内部资源的有效配置提供参考,也有利于鼓励治理方案的实验和治理经验的累积。相比于其他类型影响评估制度,算法影响评估在机制设计、公众参与、反馈修正等方面都具有独特性,未来仍然需要根据人工智能技术发展、产业应用和社会影响的实际情况来动态调整。然而,无论具体机制如何选择,面对人工智能技术和产业应用的新治理挑战,算法影响评估制度的基本定位,需要从简单的责任判定标准向提供信息反馈、积累治理知识、推动治理合作、促进国际对话的综合性治理框架不断演化发展,而这也是本文关注的重点所在。限于篇幅,算法影响评估的具体维度和内容、算法影响评估的适用性场景及其选择依据等具体内容超出了本文讨论范畴,而这也构成了该领域未来理论研究和实践探索的方向所在。


本文首发于《电子政务》

- 因篇幅限制,略去原文注释及参考文献 -

 版块介绍 — 治理之智 


在全球化背景下,科技的快速发展也带来了前所未有的治理挑战。本板块内容依托阿里巴巴集团先进的AI科技能力、丰富的应用场景与负责任的技术生态,聚焦于AI风险、AI大模型安全、AI大模型开闭源生态、AI大模型出海等AI治理政策研究,基于技术理性的风险观,为大模型发展与安全平衡与取舍提供独到见解。同时,我们致力于收集和分享海内外AI治理先进理论与经验,为构建合理的科技治理体系提供智慧与灵感。


推荐阅读

Reading

1、静水流深:美国人工智能治理的特征、趋势与启示

2、《中华人民共和国人工智能法(学者建议稿)》:产业期待中的中国方案

3、“不用旧瓶装新酒”:模型开源生态的认知——基于美国NTIA公共咨询意见的分析

4、寻找高质量数据:对“确定性”的实践探寻和思考

5、薛澜:人工智能面临治理挑战

6、合成数据:治理之智

7、合成数据:大模型训练和应用的新方案

8、合成数据:前世今生

9、“全球AIGC版权侵权首判”留下的三个问题

10、2024年中国数据治理前瞻:再平衡与新常态

11、走向AGI时代——关于AI发展与治理的十段观察

12、段伟文|如何应对前沿科技的核心伦理风险?

13、大模型数据之二|中美大模型的竞争之路:从训练数据讲起

14、大模型训练数据之一|大模型训练的“阿喀琉斯之踵”:数据这么近那么远?

15、ChatGPT这么牛,我们应该如何兼顾发展和治理?

16、治理之智 | 合成数据:模型能力跃迁的必经之路

17、治理之智 | 对“数据入表”的若干思考:重视数据意识能力,回归要素价值本源

18、治理之智 | 算法影响评估的三个基本问题:制度定位、机制模式与改革启示(上篇)



阿里研究院
依托阿里巴巴集团先进的AI科技能力、丰富的应用场景与负责任的技术生态,总结提炼科技发展的案例实践和治理经验,为产业政策制定实施提供科技企业的智识建议。
 最新文章