已结课!最后的最大优惠!扫码立享!
一、法案背景与进展
2024 年 12 月 5 日,联邦参议院内部临时人工智能委员会(CTIA)批准了第 2338/2023 号法案的替代报告。该法案旨在为巴西人工智能系统的使用构建法律框架,其重要性不言而喻,因为它将直接影响巴西在人工智能领域的发展方向与规范程度。此法案已定于 12 月 10 日在参议院全会进行表决,且通过的可能性颇高。 该法案最初由参议员罗德里戈・帕切科(Rodrigo Pacheco,PSD/MG)提出,背后是立法部门任命的法学家委员会长达一年的辛勤工作。在整个 2024 年,此法案一直处于激烈的辩论漩涡之中,报告员参议员爱德华多・戈麦斯(Eduardo Gomes)发挥了关键的引领作用。
二、基本概念和权利
(一)适用范围与核心原则
法案的适用范围有着明确界定,其不适用于 “在人工智能系统、应用程序或模型投放市场之前的调查、研究、测试和开发活动”,但前提是必须严格遵守消费者保护、环境法和个人数据保护法规。同时,“仅提供用于人工智能系统的存储基础设施和数据传输的服务” 也被排除在适用范围之外。这一规定旨在平衡创新发展与规范管理之间的关系,确保在促进人工智能技术进步的同时,不损害其他重要领域的利益。 法案以一系列基本原则为基石,其中保护基本权利处于核心地位,这一原则贯穿于整个立法体系之中。此外,促进负责任的创新和竞争力、确保系统安全可靠以造福人类也是不可或缺的重要原则。这些原则共同构成了巴西人工智能发展的指导方针,为后续的规则制定和实践操作提供了基本准则。
(二)概念定义的明确阐释
对于 “人工智能系统”,法案给出了清晰的定义:这是一种基于机器的系统,具有不同程度的自主性,能够处理数据或信息,以生成诸如预测、内容、推荐或决策等结果,进而影响虚拟、物理或现实环境。这一定义涵盖了人工智能系统的基本特征和功能范围,为准确识别和规范人工智能技术提供了基础框架。 “通用人工智能系统” 则被定义为基于大规模数据集训练模型的人工智能系统,其具备强大的通用性,能够执行多种任务并服务于不同目的,甚至包括那些未曾专门设计或训练的任务,且可集成到各种系统或应用程序中。这一概念的界定反映了人工智能技术的发展趋势和广泛应用前景。 “生成式人工智能系统” 被专门定义为旨在生成或在不同程度自主性下显著修改文本、图像、音频、视频或软件代码的人工智能模型。随着生成式人工智能技术的迅速崛起,这一精准定义有助于针对其独特的技术特性和潜在影响制定相应的规范和管理措施。
(三)利益相关者的界定与权利保障
法案明确了人工智能领域的利益相关者,包括开发者、分发者和应用者。开发者是指直接或委托开发人工智能系统的自然人或法人,他们以盈利或非盈利的方式将系统推向市场或应用于服务;分发者负责使人工智能系统可供第三方应用;应用者则是以自身名义或利益使用人工智能系统,并进行相关配置、维护和数据支持的主体。这种明确的界定有助于在法律框架内清晰划分各方责任,确保每个环节都能依法依规运行。 在借鉴反歧视法的基础上,法案保留了 “滥用或非法歧视” 和 “间接滥用或非法歧视” 的概念定义。“滥用或非法歧视” 指在公共或私人生活中,基于个人特征,以非法或滥用的方式取消或限制他人依法享有的权利或自由的行为;“间接滥用或非法歧视” 则发生在看似中立的规则、做法或标准对特定个人或群体造成不利影响的情况下,前提是这些规则、做法或标准本身是非法或滥用的。这两个定义为防止人工智能系统在应用过程中出现歧视性现象提供了法律依据,确保每个人都能在平等、公正的环境中受到人工智能技术的影响。
(四)新法律概念的引入与解读
法案引入了 “初步评估” 这一概念,要求在使用或向市场推出人工智能系统之前,相关主体必须进行简化的自我评估。这一过程旨在根据法律标准和技术发展现状,对系统的风险水平进行分类,以确定其是否符合法案规定的义务。通过初步评估,人工智能主体能够提前识别潜在风险,采取相应措施,从而提高系统的安全性和合规性。 “算法影响评估” 也是法案中的关键概念,它要求对人工智能系统对基本权利的影响进行全面分析,包括对可能产生的负面影响制定预防、减轻和纠正措施,同时积极探索增强系统积极影响的方法。这一评估不仅有助于保护个人和社会的基本权利,还能促使人工智能系统在设计和应用过程中更加注重社会责任和伦理考量。
(五)系统性风险的关注与应对
法案高度重视人工智能可能带来的系统性风险,特别是通用或生成式人工智能系统对个人和社会基本权利造成的潜在重大不利影响。这种系统性风险可能源于算法偏差、数据滥用、决策不可解释性等多个方面,一旦爆发,可能对社会秩序、公平正义和个人自由产生深远影响。因此,法案通过一系列规则和措施,旨在提前预警、有效防范和妥善应对这些风险,确保人工智能技术在巴西的健康、可持续发展。
三、风险监管方面的深度剖析
(一)风险监管的核心地位与争议历程
风险监管是巴西人工智能立法的核心组成部分,其理念在于根据人工智能系统对个人利益和基本权利构成的风险水平,动态调整相应的义务。这一理念在 2021 - 2022 年期间引发了激烈的争议,当时许多私营部门倾向于 “基于原则的立法”,主张减少风险监管机制。然而,正如在联邦参议院公开听证会上所强调的,缺乏针对过度和高风险情况的具体规则的联邦立法将难以有效应对人工智能带来的复杂挑战。实际上,合理的风险监管机制不仅能够保障公共利益,还能通过灵活的规则设计,为小企业和创新企业创造有利的发展环境,促进市场的公平竞争和创新活力。
(二)风险分级与义务设定的保留与强化
法案的核心结构在风险分级及义务设定方面得以保留,这为人工智能系统的监管提供了坚实的框架。根据这一结构,人工智能主体在市场引入、应用或使用系统之前,被鼓励进行初步评估,以准确判断其风险水平。这一评估过程必须紧密遵循法律标准,并充分考虑技术发展的最新动态,确保评估结果的科学性和可靠性。初步评估的结果不仅是人工智能主体证明自身合规性的重要依据,也为监管部门实施差异化监管提供了关键参考,有助于将有限的监管资源精准配置到高风险领域,提高监管效率。
(三)风险类型分类与禁止事项的明确规定
法案对风险类型进行了细致分类,从不可容忍的过度风险到在特定措施下可容忍的高风险和低风险,形成了一套完整的风险评估体系。在此基础上,立法明确禁止开发、实施和使用人工智能系统用于一系列特定行为,这些行为涵盖了从煽动有害行为、利用个人脆弱性到非法评估预测、制作传播有害内容等多个方面,旨在全方位保护个人和社会的健康、安全及基本权利。
(四)高风险人工智能系统的详细界定与监管
高风险人工智能系统被严格定义为用于特定目的和背景,且对个人或群体产生不利影响的可能性和严重性较大的系统。这些系统广泛涉及关键基础设施安全管理、教育和就业决策、公共服务分配、司法辅助、自动驾驶、医疗诊断、犯罪分析、行政当局评估、生物特征识别以及领土准入评估等众多关键领域。针对这些高风险系统,法案保留了当局进行分类监管的权力,并明确了监管的具体方向和重点,确保高风险人工智能系统在严格的监管框架内运行,最大程度降低潜在风险。
(五)算法影响评估的关键作用与具体要求
算法影响评估作为人工智能法中用于透明度和损害预防的核心法律工具,其重要性不言而喻。法案详细规定了算法影响评估的各项要求,包括:明确义务主体为将高风险人工智能系统引入或在市场上流通的开发者或应用者;根据主体在产业链中的角色和参与程度灵活校准评估义务;允许主体自主创建评估方法,但必须确保对基本权利的风险和收益、缓解措施以及管理措施的有效性进行全面评估;详细规定了信息共享的具体情形,确保监管部门能够及时掌握关键信息;强调评估必须在系统引入市场之前,结合具体背景进行,以确保评估结果的准确性和实用性;鼓励公司和私营部门与主管当局合作,共同制定评估的一般标准和要素,提高评估的科学性和规范性;最后,明确评估结论在尊重商业和工业秘密的前提下应向公众公开,接受社会监督,增强人工智能系统的透明度和公信力。
四、国家人工智能监管和治理系统(SIA)的全面解读
(一)SIA 的组成与功能架构
法案创建了国家人工智能监管和治理系统(SIA),这一系统由多个关键部分组成,包括国家数据保护局(ANPD)、部门当局(如国家电信局、国家卫生监督局、国家民航局、国家电力能源局、中央银行等)、人工智能常设监管合作委员会(CRIA)和人工智能专家和科学家委员会(CECIA)。这一多元化的组成结构整合了政府各部门、专业机构和专家资源,形成了一个全方位、多层次的监管和治理体系。
(二)各组成部分的职责分工与协同合作
国家数据保护局(ANPD)在 SIA 中扮演着协调者的关键角色,负责统筹各方资源,促进不同部门之间的有效沟通与协作。部门当局凭借其专业领域的监管经验和职能优势,在各自负责的领域内对人工智能系统实施具体监管,确保行业规范的严格执行。人工智能常设监管合作委员会(CRIA)致力于制定统一的指导方针,为整个监管体系提供战略方向和政策框架,并通过与部门当局和民间社会签订技术合作协议,促进各方资源的整合与共享。人工智能专家和科学家委员会(CECIA)则汇聚了专业领域的顶尖人才,他们凭借深厚的学术造诣和丰富的实践经验,负责对人工智能的技术和科学发展进行深入研究和指导,确保监管措施在技术层面的合理性和前瞻性。
(三)SIA 在人工智能监管中的整体作用与意义
SIA 的建立旨在加强和提升部门当局的监管、制裁和规范能力,使其在统一的框架下协同工作,形成监管合力。通过促进不同部门之间的信息共享、协调行动和经验交流,SIA 能够有效应对人工智能技术跨领域、复杂性的特点,确保监管的全面性和有效性。同时,SIA 积极寻求与横向问题的监管机构进行合作,如与环境保护、消费者权益保护等相关机构建立协同机制,共同应对人工智能发展带来的综合性挑战,推动人工智能技术在巴西的健康、可持续发展。
五、激励措施的具体分析
(一)对中小企业的激励政策
为促进中小企业在人工智能领域的发展,法案提出了实验性监管环境(沙盒)这一创新举措。在沙盒机制下,中小企业在有限时间内可以在相对宽松的监管环境中开发、测试和验证创新的人工智能系统,从而降低创新成本和风险。主管当局和部门当局负责制定详细的沙盒运营规则,包括申请流程、运营期限、监管要求等,确保沙盒机制的公平、透明和有效运行。同时,部门当局被要求为微型和小型企业、初创企业以及公共和私营科学、技术和创新机构(ICTs)提供优先进入测试环境的机会,这有助于这些企业和机构在人工智能领域快速成长,激发市场创新活力。
(二)对可持续发展的激励措施
法案高度重视人工智能在可持续发展方面的潜力,通过一系列措施鼓励各州和市政府积极推动以人工智能为重点的创新。这包括促进公私伙伴关系的建立,整合政府、企业和社会资源,共同投资于人工智能研发项目;优先支持有助于提高国家技术和数据自主权的研究,增强巴西在全球人工智能领域的竞争力;为中小企业提供资金支持,帮助其获取物理和技术人工智能资源,缩小数字鸿沟;积极鼓励创建人工智能多学科研究、开发和创新中心,促进学术研究与产业实践的深度融合,提升巴西人工智能产业的整体创新能力。在环境方面,法案明确要求公共和私营实体优先使用节能和资源合理利用的人工智能系统,推动人工智能技术与环境保护的深度融合,实现经济发展与环境保护的双赢。此外,未来人工智能常设监管合作委员会(CRIA)将与环境和气候变化部密切合作,共同研究和制定认证计划,以进一步减少人工智能系统对环境的影响,促进可持续发展目标的实现。
六、对劳动者和内容创作者保护的细致阐述
(一)对劳动者权益保护的调整与保留
在劳动者权益保护方面,法案最终文本虽有所调整,但仍保留了一些关键要素。一方面,当局之间的合作得到进一步加强,主管当局、部门当局以及人工智能监管合作委员会(CRIA)将与劳动部携手合作,共同制定指导方针。这些方针旨在实现多个重要目标,如减轻人工智能对工人的潜在负面影响,特别是防范因技术进步导致的失业风险和职业发展受限问题;积极挖掘人工智能对工人的积极影响,通过改善工作环境、优化工作流程等方式,提高工人的健康水平和工作场所安全性;重视工人在劳动过程中的谈判工具和集体协议,保障工人的合法权益;大力促进持续培训和技能建设计划的开展,帮助工人适应人工智能时代的职业需求,提升其职业竞争力和发展空间。另一方面,法案也对一些具体规则进行了调整,如删除了关于遏制大规模裁员和工人参与算法影响评估的详细规定,这在一定程度上引起了社会关注,需要在后续的实践中进一步观察和评估其影响。
(二)对内容创作者权利保护的全面保障
法案为内容创作者提供了全方位的权利保护。首先,使用受版权及相关权利保护内容的人工智能开发者必须履行告知义务,通过在易于访问的网站上发布摘要,详细说明在人工智能系统开发过程中使用的受保护内容,同时严格遵守商业和工业秘密保护规定。其次,版权及相关权利持有人被赋予了反对权,若发现人工智能系统使用其内容违背自身利益,有权禁止该使用行为。此外,即使在训练过程后,禁止在人工智能系统数据库中使用受保护作品和内容,开发者仍需承担损害赔偿责任,包括精神和物质方面的赔偿,这为内容创作者提供了强有力的法律救济手段。再者,法案建立了公平报酬制度,要求人工智能主体在使用受保护内容时,必须按照合理、公平的原则向权利持有人支付报酬,报酬计算需综合考虑多种因素,如人工智能主体的规模、市场竞争影响等,同时保障权利持有人的集体谈判权,确保其能够在公平的市场环境中获得合理回报。最后,法案还特别强调人工智能系统使用描绘或识别自然人的图像、音频、语音或视频内容时,必须充分尊重人格权,这体现了法律对个人尊严和权利的全面保护。需要注意的是,这些保护规则在特定情况下,如科学研究组织、博物馆、公共档案馆、图书馆和教育机构进行人工智能系统研发时,若满足合法访问、非商业目的以及合理使用范围等条件,则可适当豁免,以平衡公共利益与个人权利保护之间的关系。
七、最终文本的变化与潜在风险评估
(一)言论自由和信息完整性相关变化
法案最终文本在言论自由和信息完整性方面发生了显著变化。报告员以保障言论自由这一民主社会的基本价值为由,对相关条款进行了调整。具体而言,第 15 条中原本涉及信息完整性、言论自由、民主进程和政治多元化作为监管和识别新的高风险人工智能场景标准的风险考量被删除。这一变动引发了广泛关注,因为信息完整性和言论自由在人工智能时代面临着诸多新挑战,如虚假信息传播、算法偏见影响舆论等。这一调整可能会影响对高风险人工智能场景的准确识别和有效监管,需要在 后续实践中密切关注其影响。同时,法案新增了第 77 条,明确规定对可能影响言论自由的在线内容传播相关方面的监管,包括使用人工智能进行内容审核和推荐,只能通过具体立法进行。这一规定进一步明确了不同立法在相关领域的职责分工,但也可能导致在实际操作中需要更多的协调与衔接工作,以确保对人工智能在内容传播领域的监管既保障言论自由,又维护社会公共利益。 (二)生成式人工智能系统开发者责任条款的变动
最终文本删除了原法案中关于生成式人工智能系统开发者在商业化之前必须采取措施识别、分析和减轻有关基本权利、环境、信息完整性、言论自由和信息获取等合理可预见风险的要求。这一变化引发了业界和社会各界的担忧,因为生成式人工智能技术的快速发展带来了一系列新的风险,如深度伪造内容对个人声誉和社会稳定的影响、算法生成内容的不可控性等。如果开发者无需承担这些风险防范责任,可能会导致相关风险的增加,对个人权利和社会秩序构成潜在威胁。 (三)社会组织的关注
有社会组织特别是网络权利联盟(2024 年),对法案最终文本的变化保持高度警惕。他们警告说,这些变化可能为引入压制性修正案打开大门,从而删除法案中关于版权和内容创作者保护的关键规则。这些规则对于保护文化产业的创新动力、创作者的合法权益以及文化多样性至关重要。一旦这些规则被削弱或删除,将对巴西的文化创意产业和知识经济发展产生负面影响,阻碍创新和文化繁荣。 (四)高风险活动法规和监管能力的潜在削弱
除上述变化外,还存在对高风险活动法规进行修改以及删除确立主管当局干预可能性规范的风险。这可能会严重削弱国家人工智能监管和治理系统(SIA)未来的监管和监督能力,使得一些高风险的人工智能应用无法得到有效的管控。例如,在关键基础设施、司法辅助、自动驾驶等领域的高风险人工智能系统,如果缺乏适当的监管,可能会引发安全事故、侵犯个人权利或破坏社会公平正义等问题。 (五)呼吁保护成果与推动法案批准
面对这些潜在风险,数据隐私巴西等组织呼吁各方重视法案在民主讨论中取得的成果,确保这些成果不被强大经济团体和私人利益的压力所破坏。他们强调,第 2338/2023 号法案的批准对于巴西在人工智能领域建立公平、负责任的发展框架至关重要,是实现人工智能技术与社会价值平衡的必要步骤。
八、结语
该法案的批准对巴西人工智能发展意义重大,希望其成果得以保留,推动巴西在人工智能领域朝着保护权利和构建公平信息生态系统的方向发展。只有通过民主、透明的立法过程,充分考虑各方利益和社会整体利益,才能确保巴西在人工智能时代既能充分享受技术带来的机遇,又能有效应对各种挑战,实现可持续发展。
。。。。。。
全部AI及数据中译本及资讯请加入