精彩回顾|生成式人工智能治理高峰对话系列——欧盟《人工智能法》

学术   Science/technology   2024-05-04 16:40   中国香港  

点击上方蓝字HKUCCL关注我们~

2024年4月26日,香港大学黄乾亨中国法研究中心主任张湖月教授与中国人工智能产业发展联盟(AIIA)政策法规工作组组长、联合国高级别人工智能咨询机构成员、中国政法大学张凌寒教授携手合作,成功举办第二场“生成式人工智能治理高峰对话”,聚焦欧盟《人工智能法》以及中国人工智能立法进展。本次会议邀请了联合国人工智能高级咨询委员会联席主席Carme Artigas、奥得河畔法兰克福欧洲大学的Philipp Hacker教授、清华大学的申卫星教授以及中国政法大学的张凌寒教授作为嘉宾。会议以Zoom在线圆桌形式举行,通过北大法宝、小鹅通、哔哩哔哩和微信四大平台进行直播,吸引了将近6000名观众在线报名参与。活动现场气氛热烈,讨论内容引人入胜,深受观众喜爱与好评。
特编辑会议视频及详细文字总结,以飨读者

‍‍‍‍‍‍‍‍‍

会议一览‍‍




欧洲专家评议环节


1.  欧盟《人工智能法》适用范围

张湖月: 欧盟《人工智能法》长达 400 多页,包含113 条规定和 13 个附件。您能否概述该法的覆盖范围与主要内容?

Carme Artigas:欧盟《人工智能法》是一项具有域外效力的创新性立法,由欧盟委员会在2021年6月发布首个版本。该法隶属于一个更广泛的法律框架,其中还包括《通用数据保护条例》(GDPR)、《数字服务法》(DSA)、《数字市场法》(DMA)和《数据法》(Data Act)。在《人工智能法》未涵盖的一些方面,如数据位置和算法透明度,将在该框架的其他法律中予以规范。《人工智能法》最主要的目的是监管高风险的人工智能应用。该法依据一系列风险指标,基于“产品”和“风险”的概念,判定“不可接受风险“和”高风险“的人工智能系统应用。前者直接予以禁止;后者在进入市场前后需进行合规评估(conformity assessment)。“风险有限”的应用仅需注册,而“低风险”应用则无特定要求。高风险人工智能系统可能影响教育、职场、司法和执政等应用场景的安全、健康或基本权利。《人工智能法》的立法精神在于规范技术的有害使用,而非技术本身。

欧洲的立法遵循特定程序,制定“指令”(Directive)或“法案”(Act)。指令为欧洲提供一般性规则,但各成员国必须将其转化为国家法律。这种分散的监管框架影响了欧洲在数字领域的竞争力。为解决这一问题,欧盟推出“数字十年”计划,引入DSA、DMA和《人工智能法》等法案。这些法案为所有成员国建立了统一、一致的法律,不允许进行任何修改,从而提高欧洲数字市场的凝聚力。《人工智能法》的谈判涉及欧盟委员会、代表成员国的欧盟理事会和代表公民个人的欧洲议会。ChatGPT的出现引发了三方激烈辩论。欧盟立法者面临的最大挑战在于如何维护《人工智能法》的立法精神,即仅规制有风险的技术应用,而非技术本身(例如通用人工智能GPAI模型)。最后的解决方案是对这些模型施加最低透明度义务,以预防整个人工智能价值链的系统性风险。

欧盟《人工智能法》最重要的内容在于对超高风险人工智能系统的禁令以及部分执法豁免条款,而非关于GPAI模型。通过这些禁令,欧洲希望明确其立场:即使技术上可行,也不应允许某些人工智能应用,如使用生物特征识别对人进行分类。欧洲强调人工智能与地区价值观相结合的重要性。鉴于过去缺乏可供借鉴的经验,欧盟《人工智能法》并非完美无缺。该法面向未来,采用创新的立法技术,在正文条款中定义规范要素,并在附件中涵盖高风险领域等具体细节。这些细节可随着时间和环境变化而调整,具有高度适应性。该法的一个关键特点是要求监管者与市场主体协商制定强制性的“实践守则”(code of practice),试图在保持实用性和动态性的同时尽可能涵盖各种风险。

Philipp Hacker:欧盟《人工智能法》对人工智能的定义非常广泛,以确保其具备面向未来的特性。该法采用了经过修订的经济合作与发展组织(OECD)定义,并以推理(inference)的概念区分人工智能与传统软件,排除了基本数据处理和人类设计的基于规则的系统,如Excel中的自动求和功能。然而,该法仍然涵盖了诸多技术,包括金融领域长期使用的统计优化方法。

欧盟《人工智能法》对GPAI模型采用了分层治理方法,为所有GPAI模型提出了一些最低要求,并对具有系统性风险的模型提出了附加规则。系统性风险GPAI模型的推定门槛为10^25次浮点运算(FLOPs),涵盖GPT-4及以上的模型。然而,这种治理方法存在两个问题。首先,系统性风险的门槛相当高。随着模型趋于更小但更强大的产业发展趋势,监管者将难以应对低于该门槛但仍具有系统性风险的模型。这种划分还可能导致漫长的法律诉讼,类似于围绕DSA指定“超大型在线平台”(VLOP)所发生的争议。其次,为系统性风险GPAI模型设定的附加义务不一定有效。目前的义务包括网络安全、红队测试、事件报告和风险评估,但缺乏内容监管。相比之下,中国的人工智能治理侧重于使模型输出与社会价值观和习俗保持一致。欧盟也应要求GPAI模型运用最先进的内容过滤等技术,以减少仇恨言论、诽谤和虚假新闻。

总的来说,欧盟《人工智能法》实际上并没有大家想象中那么严格。该法主要是禁止那些公众难以接受的人工智能应用,其余大部分内容都围绕如何执行产业最佳实践。对于负责任的开发者而言,遵守这些规则并不困难。欧洲监管者需要重新塑造叙事,强调《人工智能法》的要求是完全可以被履行的。随着该法的实施,欧洲还必须加大对人工智能开发和部署的投资。

张湖月:我赞同Philipp Hacker教授的观点。欧盟和美国在人工智能监管方面有很多相似之处。2023年欧洲议会版本《人工智能法案》中许多关于GPAI模型的义务已明显减弱,目前内容更接近美国发布的《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》。此外,我同意即使规模较小的人工智能模型也可以非常强大。

Carme Artigas:回应Philipp Hacker教授的观点,欧盟《人工智能法》目前关于“人工智能”的定义已经获得了较多的共识。尽管一些不太先进的工具可能属于《人工智能法案》的管辖范围,但它们大多属于低风险类别,因此不会受到过多影响。此外,GPAI模型的分层治理方法使用FLOPs作为指标,虽然不完美,但可以区分GPT-4等超大型模型和其他模型。该指标主要关注能源消耗问题,超过特定门槛的公司将受到额外关注,并需要提供更多数据和信息。实际上,科技巨头可以轻松承担所有义务。监管挑战在于如何帮助小企业以较低成本达到合规要求。与其他行业一样,软件行业可能并不喜欢监管。然而,出于安全性和透明度的考虑,监管已经深入各个行业。引入人工智能法规可以促进消费者信任和市场增长,因为目前公众对人工智能持怀疑和恐惧态度。通过监管沙箱和实时测试场景等措施为企业和公民提供确定性和支持,可以进一步鼓励人工智能的采用和创新。

Philipp Hacker:透明度固然重要,但远远不足。GPAI模型的系统性风险门槛与计算能力相关,而计算能力又与能源成本挂钩。问题在于目前的门槛设定过高。气候变化是一个全球性问题,需要各方协同行动来解决GPAI模型对能源、水资源和有毒物质不断增长的需求。欧盟《人工智能法》要求GPAI模型能源使用透明,但还需制定更明确的披露标准并采取额外措施。借鉴“隐私设计”(privacy by design)的理念,实施“可持续性设计”(sustainability by design)或许是一个有益的做法。《人工智能法》规定了风险评估,并将环境保护视为可能受到威胁的基本权利,这为将环境影响评估纳入人工智能监管创造了条件。

2.  人工智能的开源治理

张湖月:Meta最近发布了全球最强大的开源人工智能模型Llama 3。在欧盟《人工智能法》的立法过程中,开源模型的监管一直是争论的焦点,关键在于如何在不扼杀创新和竞争的同时防止恶意滥用。请问欧盟的开源治理进路是什么?

Carme Artigas:本质上,开源旨在通过透明披露,实现对软件错误的及时检测和修改。《人工智能法》为人工智能价值链的关键参与者设定了不同责任,包括开源模型的开发/提供者。由于没有按照《人工智能法》的要求披露其权重,Llama 3并不构成开源模型。尽管开源社区鼓励发布各种参数,但实践中披露的一致性仍然不足。无论采取何种具体方法,促进人工智能的透明度和问责制都至关重要,其对经济和社会产生的影响之大已有目共睹,不应由其不受限制地发展。

Philipp Hacker:人工智能的开源模型是一把双刃剑。尽管可以促进竞争,但如果被恐怖分子或流氓国家滥用,也可能造成巨大危害。OpenAI、Meta等头部人工智能公司已承诺将其模型提交英国人工智能安全研究所(AI Safety Institute)进行检测,但尚未付诸行动。随着人工智能模型变得愈发强大,可能需要阻止特定模型开源,并强制要求其通过API实现访问控制。在监视和监管之间取得平衡具有挑战性,但对于解决生物和化学恐怖主义等潜在威胁是必要的。目前,欧盟《人工智能法》对开源模型的豁免实际上非常有限,未来的监管应当更多地关注高性能开源模型。

3.  基于风险的治理框架 & 通用人工智能的规制

张湖月: 欧盟《人工智能法》采用基于风险的治理框架,根据人工智能系统的风险进行分级监管,并加入针对GPAI 模型的特别规定。这种监管模式的主要内容和核心争议是什么?

Carme Artigas:GPAI模型本身并非高风险。然而,当数百万人予以部署、使用时,GPAI模型可能带来独特的系统性风险。这些风险也许不会直接威胁健康和安全,但可能侵犯其他基本权利。GPAI模型通常由资源充足的大公司开发,而在高风险场景中部署这些模型的中小型企业承担了风险和责任。为实现平衡,GPAI模型开发者必须向下游参与者提供相关信息,帮助其履行义务。“基本权利影响评估”旨在识别可能不会影响健康或安全但仍然令人担忧的风险。欧盟人工智能办公室(EU AI Office)将建立审计机制来进行评估。未来两年,预计会出现大量的规制细则,使《人工智能法》得以完善并纳入适当的现实要素,以促进行业合规并实现立法目的。《人工智能法》的制定面临着来自市场、政府和社会团体的压力,需要在保护公民、促进创新和监管人工智能之间找到适当的平衡,同时又不妨碍市场发展。总之,拥有80%完善的法律总比没有法律好,因为它有助于控制技术、限制滥用行为并保障创新和自由。

Philipp Hacker:《人工智能法》可以通过实施或授权法案(implementing or delegated acts)进行修改,允许滚动式调整,例如降低系统性风险GPAI模型的算力门槛。这些法案还可以修改高风险领域清单,以豁免对基本权利、健康或安全影响较小的辅助应用。例如,用于安排工作面试时间而不用于能力评估的人工智能系统不被视为高风险。为了防止公司利用法律漏洞,该豁免也存在反向限制:如果人工智能系统用于侧写(profiling),即涉及调查人群并收集大量数据以进行复杂推论,则无资格获得豁免。

4.  欧盟《人工智能法》的执行

张湖月:欧盟对《人工智能法》的实施有何计划?该法由欧盟人工智能办公室还是成员国当局执行?欧盟从GDPR执法中吸取了哪些经验教训?

Carme Artigas:《人工智能法》旨在避免GDPR实施过程中所面临的问题。该法的关键实施阶段包括:发布后6个月内从市场上撤下被禁止的AI系统,9个月内要求GPAI模型和系统履行透明度义务,以及在3个月内建立人工智能办公室。《人工智能法》设定了两种类型的监管机构:国家执法机构和欧盟人工智能办公室。国家执法机构将负责处理高风险应用、合规评估等相关问题,而欧盟人工智能办公室负责GPAI模型的横向监管、门槛定义和“实践守则”。人工智能办公室由多个机构组成,包括一个科学小组、一个由国家当局代表组成的人工智能委员会以及一个外部咨询机构。两年内,企业必须遵守《人工智能法》,首先从大公司开始。如果实施得当,市场也许会出现合规竞争。此外,人工智能监管沙箱将提供合规工具和最佳实践,帮助中小企业适应《人工智能法》,国家监管机构在这一方面发挥着至关重要的作用。

Philipp Hacker:《人工智能法》的有效实施依赖于聘用足额监管人才和及时出台指导实践细则。监管招聘面临来自人工智能行业的激烈竞争。此外,人工智能监管机构与现有监管机构的协调至关重要,应设计一个框架来防止公司遵循多种相互冲突的法规。《人工智能法》已经提到允许公司整合合规机制,但建立更全面的协调框架将更加有益。对于之前不受行业特殊监管的人工智能系统,公司可以通过自我审计证明合规。市场监管机构负责监督这一过程,但不会审查每一个案例,通常也不需要监管部门的事先批准。



中国专家评议环节

1. 您如何评价欧盟《人工智能法》的适用范围?

申卫星:关于适用范围,可以从两个方面考虑。首先是人工智能的定义。欧洲的定义相对较宽泛,这可能导致欧盟《人工智能法》的覆盖范围过大。尽管欧盟《人工智能法》的一个显著特点是分级管理,但如果将人工智能本身的定义设定得包容万象,可能仍会造成过度管制,从而阻碍产业发展。

其次是欧盟《人工智能法》的长臂管辖。当GDPR规定其具有域外效力时,许多人感到惊讶。然而,由于欧洲的经济规模和市场需求,美国和中国的企业都在实践中遵守GDPR。因此,GDPR式的长臂管辖开始流行。这种管辖的生命力不仅取决于一个国家的实力,也不仅仅是谁能率先立法,更重要的是法律本身是否满足特定需求。各国都会从比较法的角度借鉴其他国家的经验,但所有的借鉴都是以自身为主导,以他山之石攻玉,而非简单的“拿来主义”。欧盟《人工智能法》也规定了域外效力,但其在世界范围内产生影响力的程度取决于是否满足各国对价值共识、产业发展、技术进步以及包括消费者在内的社会公共需求。如果一部欧盟法能够满足这些需求,就不存在所谓的“布鲁塞尔效应”,而是找到了最具辐射力的共识。

此外,尚未投入市场或仅用于纯科学研究的人工智能模型或系统不适用于欧盟《人工智能法》的管制,这一点上中国和欧洲的立法立场是一致的。

2. 在人工智能的开源治理中,您认为哪些问题值得关注?

申卫星:关于开源治理,欧盟《人工智能法》的立场变得相对宽松。首先,该法明确规定开源可免除某些义务,这是正确的。开源有助于科学研究和技术创新。权利义务的界定应当旨在推动社会进步,赋权加重本身不是目的。值得注意的是,开源免责也分情况。欧盟《人工智能法》对于高风险及以上的应用场景,即使是免费的开源模型,一旦导致损害,仍需承担责任。中国《人工智能法(学者建议稿)》也提到,如果模型是开源免费提供的,那么责任应予以适当减轻,除非存在故意或重大过失。“故意或重大过失”与欧盟《人工智能法》中的风险等级对应。总之,若提供模型的行为本身就可能带来较大的社会风险,无论是否免费开源,都需要承担相应责任。

3. 采取基于风险的治理框架对人工智能有什么优点?您认为这种模式是否会被广泛接受?

张凌寒:风险治理框架自GDPR提出以来,已在全球范围内被广泛采纳。中国也提出构建针对人工智能及相关制度的风险分级分类治理框架。尽管此类框架具有诸多优势,例如治理时点前移、降低监管及合规成本等,但数据风险治理与人工智能风险治理存在一定的差异。目前,人工智能治理已逐渐吸纳数据和算法治理,未来可能面临一些挑战。首先,以风险为导向的治理需要有效的风险评估作为前提。欧盟《人工智能法》第三条精确地将风险界定为发生损害的概率和该损害严重程度的结合,但由于AI的应用和发展时间较短,进行风险评估时所依据的数据质量和数量可能不足。其次,技术因素在AI风险评估中的重要性逐渐降低,道德、政策、文化等因素占比逐渐增加。美国《人工智能风险管理框架》将风险划分为技术性、社会技术性和指导原则性风险;联合国高级别人工智能咨询机构将风险划分为对个人、群体和社会的风险。尽管风险框架看似全面,但由于不同国家的政策和制度关注点存在差异,这种“全面性”恰恰可能导致疏漏。

另一个挑战是如何预先区分风险程度的高低。欧盟《人工智能法》的风险划分思路主要围绕关键信息基础设施和与某些基本人权相关的应用场景,如是否严重危害健康和安全,是否对基本权利、环境和民主法治产生严重不利影响。然而,这些标准仍具有较大的弹性和模糊性。欧盟所列举的受禁或受限人工智能应用,其实更多是关乎重要性而非风险程度。一个人工智能系统的应用场景可能很重要,但不一定意味着风险非常高。例如,一些潜在高风险的人工智能系统正是由于应用越来越多,风险反而可能降低,如就业评估和无人驾驶汽车等。随着应用越来越普遍、数据越来越充分,这些系统造成损害的概率与严重程度将大大减小。如果一开始就被贴上高风险的标签而受限,就不会有之后风险降低的机会。在未来的人工智能风险治理中,这是需要协调的一对矛盾。中国《人工智能法(学者建议稿)》并未采用“高风险人工智能系统”的表述,而是使用了“关键人工智能系统”和“特殊应用场景人工智能系统”。我们希望避免事先进行价值预判或负面评价,将动态评估引入高风险人工智能的治理中。

4. 您认为哪些人工智能系统属于高影响力系统?对于通用人工智能(GPAI),应采取哪些治理措施?

张凌寒:“通用”指的是风险可能发生的范围,而“高风险”可能指的是风险发生的程度。在中国《人工智能法(学者建议稿)》的撰写过程中,围绕通用人工智能的治理出现了许多争论。首先,何谓通用人工智能?在两到三个领域或场景使用的人工智能是否属于通用人工智能?如果适用于众多场景,它是否真的更强大?欧洲学者也指出,由于小模型聚焦特定领域,其能力可能更强;具有广泛适用性的模型功能性可能受到一定损失和影响。此外,尽管通用人工智能可能带来广泛的风险,但我们更关注在关键场景中承担关键功能的人工智能系统。例如,中国智慧法院建设如火如荼,司法场景无疑是一个非常重要且可能高风险的人工智能应用场景。但一些提高法官办案效率的人工智能系统其实风险很低。总之,对于通用人工智能系统是否应被定义为高影响力系统,以及影响力是用高低来判断还是用广泛性和狭窄性来判断,目前仍需要进一步研究和讨论。

5. 您如何看待欧盟《人工智能法》面临的实施挑战?

申卫星:欧盟《人工智能法》引发了全球各国在人工智能立法方面的竞争。实际上,大家都在思考人工智能立法的最佳时机。一个主要的立法动机是消除人们对人工智能的不信任感,建立一个可信赖、负责任的人工智能体系。要实现这个目标,在立法时可能需要在促进法与管制法之间权衡。促进法难以产生显著效果,而管制法可能抑制产业发展。在这一背景下,欧盟《人工智能法》的执行将面临一系列挑战。首先,法律责任设定较高,可能产生市场寒蝉效应,导致产业创新与安全保障之间的关系失衡。其次,法律稳定与技术日新月异之间存在矛盾。第三,风险分类分级的划分直接影响义务承担,但标准模糊,且随着技术的迭代更新发生变化。总之,各国始终面临一个根本问题:能否通过立法消除对人工智能的担忧?答案是否定的。我们对法律寄予了过高期望,似乎通过严格立法就能防范人工智能的潜在风险。应采取“解铃还须系铃人”的策略。正如欧洲学者提到的“隐私设计”理念,应将法律价值事先嵌入人工智能产品设计中,而不是在事后出现问题时通过重罚进行产业管制。企业自律是降低人工智能风险的最佳手段。



欧洲专家回应环节



Philipp Hacker:关于《人工智能法》的适用范围,有两点需要澄清。首先,人工智能的定义不包括Excel和其他由人类制定规则的自动化流程或系统。其次,在域外效力方面,欧盟像GDPR一样设定了广泛的覆盖范围。然而,从本质上讲,要在欧盟开展业务,企业必须遵守欧盟规则;同样,欧盟公司在中国开展业务时也必须遵守中国法规。这是市场监管的标准原则。值得注意的是,欧盟《人工智能法》在域外效力方面的独特之处在于其著作权条款。即使人工智能模型在北京进行训练,但在欧盟部署或使用时仍必须遵守欧盟TDM豁免(即作者有权反对将其受版权保护的材料用于人工智能训练)。这似乎偏离了遵循属地原则的著作权法。展望未来,欧盟监管者应审慎执法,特别是对于不熟悉《人工智能法》的企业,例如来自中国的公司。


Carme Artigas:有效的谈判往往是各方都同样不满意的谈判,而《人工智能法》实现了这种巧妙平衡。以下就三点进行回应。 首先,《人工智能法》对高风险分类的界定已经非常明确,并且考虑到技术不断变化的性质允许更新。其次,该法适用于“服务欧洲市场”的欧洲公司和境外公司。因此,即使是欧洲公司,也可以向非欧洲市场销售被《人工智能法》禁止的人工智能系统。最后,《人工智能法》并没有直接处理生成式人工智能的著作权问题。著作权法具有强烈的地域性,欧洲有27项不同的著作权立法。此外,人工智能生成的内容应进行标记以避免混淆。然而,利用生成式人工智能损害基本权利等行为,即使带有水印,仍然受到监管。仅仅披露并不免除责任。



更多精彩内容点击文末"阅读原文"‍‍‍‍‍‍

        

HKUCCL
香港大学法律学院黄乾亨中国法研究中心
 最新文章