欧盟与美国的通用人工智能监管政策:最新进展与路径异同(上) | 小惑译介

文化   2024-11-20 20:01   中国  


通用人工智能大模型监管:欧盟与美国的趋同与分歧点

Regulating general-purpose AI: Areas of convergence and divergence across the EU and the US


来源:

https://www.brookings.edu/articles/regulating-general-purpose-ai-areas-of-convergence-and-divergence-across-the-eu-and-the-us/


作者:

1. 本杰明·塞德里克·拉森 (Benjamin Cedric Larsen):世界经济论坛旧金山第四次工业革命中心的人工智能和机器学习项目负责人。本杰明的研究主要集中在“人工智能治理”方面,从技术层面到政策和监管。

2. 萨布丽娜· 库斯珀特(Sabrina Küspert):欧盟委员会欧洲人工智能办公室政策官员 。



引言


人工智能领域的先驱之一 Yoshua Bengio 在一次美国参议院听证会上,将当前人工智能的快速发展描述为“历史上前所未有的时刻”。去年来大火的OpeanAI旗下的GPT-4及其衍生工具,就是通用人工智能模型(general-purpose AI models)的一个代表性例子。只有少数拥有大量资源的参与者创建了通用人工智能模型,但是这些模型可以直接对接数亿用户,并为数千个基于大模型构建的应用程序提供支持,涉及到教育、医疗、媒体和金融等各个领域。围绕越来越先进的通用人工智能模型的发布和采用,使大西洋两岸和其他地方如何对通用人工智能进行监管的问题再次变得紧迫。

 

欧洲议会认识到,人工智能技术的进步速度比政策制定者预期的更快且更难以预测,因此加快了关于人工智能应用的监管法规建设。2023年底,欧盟立法者就《欧盟人工智能法案》达成了政治协议,这是一个开创性的人工智能立法框架。该法案引入了针对通用人工智能模型的约束性规则,并在欧盟层面通过新设立的欧洲人工智能办公室对通用人工智能模型建立了集中治理结构。然而,美国政府对人工智能的监管态度则相对更为自由放任。2023年秋季发布的《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》全面概述了美国在人工智能治理方面的方法。虽然国会议员提出了各种人工智能立法提案,但专门用于监管通用人工智能模型的联邦立法程序仍然缺失。

 

这篇报告概述了欧盟与美国在通用人工智能监管领域的最新进展,并分析了《欧盟人工智能法案》与美国行政命令之间的重要趋同和分歧。最后,报告还讨论了七国集团制定的自愿性质的人工智能行为准则。该准则作为一种国际协调机制,可能促成更广泛的合作,并为更前沿的人工智能治理勾画出一条共同路线。



1

欧盟:为全球通用人工智能风险管理确定基调


欧盟通常被视为人工智能监管领域的领跑者,为全球培育值得信赖的人工智能奠定了监管基调。随着通用人工智能模型被广泛应用于各个领域,欧盟委员会强调,这些模型“对经济和社会来说变得过于重要,必须加以监管”,同时也明确支持值得信赖的创新。2023年12月,欧盟就《欧盟人工智能法案》达成了政治协议。该法案于2024年2月获得27个成员国代表的一致通过,并于2024年3月获得欧洲议会批准。欧盟明确监管通用人工智能模型的意愿标志着《欧盟人工智能法案》初稿的重大进展。最初,欧盟委员会在2021年主要关注将人工智能作为具有预期用途的有形产品进行监管。随后,欧盟理事会和欧洲议会在2022年和2023年分别扩大了其立场范围,直接涉及通用人工智能和基础模型相关的概念。

 

每次监管方法的迭代都反映了欧盟对人工智能潜在机遇和风险更深入的认识,以及制定有关通用人工智能模型的简明规则的必要性。这些模型可以通过下游人工智能应用产生变革性影响,例如从医学领域药物发现到教育的个性化等。许多可预见的应用领域将因为通用人工智能模型的引入而产生巨大的经济效应。与此同时,公众对相关风险日益增长的认识也推动了对通用人工智能模型的直接监管。例如,欧盟委员会提到,强大的人工智能模型可能导致严重事故、大规模传播有害偏见,或由于其双刃剑性质而被滥用于网络犯罪。欧盟对通用人工智能模型的监管方式集中在人工智能价值链上的责任公平分担,包括通用人工智能模型开发者和在这些模型上构建应用程序的下游提供商。

 

目前,只有少数资源充足的模型开发商(例如与微软合作的OpenAI、谷歌的DeepMind、Anthropic或Meta)才拥有对通用人工智能生态系统产生重大影响的资源储备。少数欧洲初创公司(例如Mistral AI或Aleph Alpha)正在开发自己的模型来与老牌公司竞争。欧盟的中小企业表示他们对通用人工智能模型子集的依赖感到强烈担忧。欧洲各民间社会组织也支持这一观点,主张“应根据《人工智能法案》明确规定义务,以避免小型提供商和用户承担本应由原始开发商承担的大部分义务”

 

因此,除了用于监管许多建立在通用人工智能模型之上的特定使用场景的系统外,《欧盟人工智能法案》还旨在确保人工智能价值链的更大透明度。该法案要求所有通用人工智能模型的提供商向下游系统提供商披露某些信息,以便更好地了解底层模型具体来说,提供商需要起草技术文档或提供用于模型训练的内容摘要,并解释他们如何遵守现有的欧盟版权法。没有系统性风险的免费开源模型提供商则被极大免除这些透明度义务,因为他们被认为已经确保了高度的开放性。同时,用于市场发布前研发的模型也不受该法规的约束。

 

此外,欧盟承认,一些通用人工智能模型可能带来系统性风险,尤其是当它们非常强大或被广泛使用时。目前,使用总计算能力超过1025 FLOP(浮点运算)训练的模型被认为具有系统性风险,因为使用更大计算能力训练的模型往往更强大。根据《人工智能法案》,该阈值可以根据技术进步进行更新,并且可以应用进一步的标准来划分具有系统性风险的模型,例如用户数量或模型的自主程度。对于可能代表系统性风险的通用人工智能模型,《欧盟人工智能法案》要求遵守更严格的规则。该类提供商需要承担更多义务,例如特殊评估和减轻系统性风险、进行模型评估和对抗性测试、报告严重事件并确保网络安全等。

 

在治理方面,欧盟正在欧盟委员会内设立欧洲人工智能办公室,主要负责执行通用人工智能模型规则、加强可信赖人工智能的开发和使用以及促进国际合作。欧洲人工智能办公室将由一个独立专家团队组成的科学小组提供支持,并且该办公室也被期望成为在人工智能算力进步、发展趋势、潜在利益和新兴风险等系列相关领域的专业知识中心。欧盟政策制定者预计,这一集中治理结构将成为“全球第一个执行人工智能约束性规则的机构,有望成为国际范围内的参考坐标”

 

人工智能办公室将在对具有系统性风险的模型进行分类方面发挥重要作用,并将促进和监督通用人工智能模型提供者行为准则的详细规则的制定,这些准则将由人工智能行业、学术界、民间社会和其他专家共同制定。基于对开源模型潜在优势和面临的独特挑战的深刻认知,人工智能办公室将建立一个专门的开源社区合作论坛,以确定和制定安全开发和使用通用人工智能大模型的最佳实践。人工智能办公室有权要求模型提供者提供更多信息,直接或通过指定专家强制进行模型评估,要求提供者采取纠正措施,并在必要时处以罚款,从而保障规则的实施。

 

欧盟治理通用人工智能的方法取决于拥有相关专业知识和资源的人工智能办公室的成功设立。为保障制定详细规则的灵活性,人工智能办公室必须要对深入发展的人工智能格局具有深刻了解,并结合最先进的措施制定有针对性的法律框架,以兑现“促进值得信赖的人工智能”的承诺。



2

美国:引领全球人工智能安全治理新方向


2023年10月30日,拜登总统签署了关于“安全、可靠和值得信赖地开发和使用人工智能”的第14110号行政命令,标志着美国人工智能政策的重大转折。该行政命令是美国迄今为止最全面的人工智能治理方案,涵盖了从人工智能安全的行业新标准到隐私保护、公民权利、工人利益、技术创新、政府对人工智能的使用以及美国的国际领导力等多个领域。

 

在此之前,美国对人工智能的治理采取了一种自由放任的态度,没有一个针对通用人工智能的集中式联邦监管框架。相反,各个联邦机构根据各自的需求和情况制定和实施人工智能政策,缺乏统一的国家战略。然而,通用人工智能模型的最新发展促使华盛顿的政策制定者对人工智能监管采取更积极的立场。这一态度反映在2023年9月8日国会提出的《美国人工智能法案两党框架》等提案中。该框架建议建立一个由独立监督机构管理的许可架构,要求相关公司在开发通用人工智能模型或在高风险情况下使用时必须向指定机构注册。

 

美国还开始投资非监管性质的人工智能基础设施,例如美国国家标准与技术研究院(NIST)的人工智能风险管理框架(RMF)。该框架详细指导了如何在人工智能生命周期中处理风险。2023年7月,NIST成立了生成式人工智能公共工作组,带头制定了跨部门的人工智能风险管理框架概要,以管理生成式人工智能的风险(一般认为生成式人工智能已包括通用人工智能模型)。

 

虽然行政命令是第一个集中解决人工智能监管问题的举措,但白宫在其发布前一年就开始探索一种积极的治理方法。例如,白宫科技政策办公室(OSTP)于2022年10月发布的“人工智能权利法案蓝图”以及相关机构的几项行动。2023年5月,白宫有关部门会见了多家科技公司的首席执行官,讨论了如何在人工智能创新中分配责任。2023年7月21日,包括亚马逊、Anthropic、谷歌、Inflection AI、Meta、微软和OpenAI在内的多家美国人工智能龙头公司与白宫签署了一套自愿承诺,旨在确保人工智能在更安全、可靠和值得信赖的道路上发展。2023年9月12日,另外八家公司——Adobe、Cohere、IBM、Nvidia、Palantir、Salesforce、Scale AI和Stability AI——也承诺遵守该自愿规则。

 

本次颁布的行政命令将美国有关部门此前对人工智能技术监管的努力整合在一起,形成了一种更全面、精简的人工智能治理方法。该方法关注可能对经济、公共健康或安全以及国家安全构成风险的大模型——“双重用途基础模型”。行政命令采用了与《欧盟人工智能法案》相同的方法,即利用基于模型训练所需算力的阈值对这些大模型进行分类

 

在安全方面,行政命令指示商务部长通过NIST制定指导方针和最佳实践方案,以促进人工智能系统朝更加安全可靠的方向开发和部署。这些部署包括创建评估和审计人工智能能力的基准。创建该基准的关键目标是使双重用途基础模型的开发人员能够进行人工智能的红队评估(red-teaming tests)。总之,行政命令代表了公共部门对基础模型开发的全面监督方法;在治理方面,行政命令要求建立白宫人工智能委员会,并在政府机构任命首席人工智能官,以及在较小规模机构内设立内部的人工智能治理委员会。同时,为确保各机构之间的全面协调,还将建立一个由所有首席人工智能官组成的跨部门委员会。NIST新成立的美国人工智能安全研究所将专注于在双重用途基础模型等领域与业界合作

 

从某种程度上来说,这份行政令可以视为未来人工智能安全领域立法的路线图。美国商会最近发表了一封“致各州领导人的人工智能公开信”,表达了对各州政府监管人工智能的零散提案的担忧,认为这些提案可能会减缓人工智能优势的实现速度,并导致创新的合规程序变得复杂繁重,从而扼杀创新的动力。为了避免重蹈之前治理中的分裂轨迹,美国各城市和各州可以将这份行政令作为方向指引,进一步调整自己的政策以强化行政命令中的愿景。例如,美国人工智能安全研究所联盟(AISIC)召集了200多个组织,共同制定了基于科学和经验支持的人工智能测量和政策指南和标准。

编译 | 廖一恒

排版 | 程   诺

审核 | 郭睿怡

(图源网络)


政治学的困惑
以政治学的思维,看待困惑的世界。
 最新文章