2024 年11月14 日,美国国土安全部发布了《关键基础设施中人工智能的角色和责任框架》(Roles and Responsibilities Framework for Artificial Intelligence in Critical Infrastructure),旨在应对人工智能(AI)在关键基础设施领域带来的安全风险,明确各相关方的角色和责任,促进 AI 的安全、可靠和负责任的发展与部署。该框架确定了关键基础设施中人工智能安全和安保漏洞的三大类:使用人工智能进行的攻击、针对人工智能系统的攻击以及人工智能设计使用本身的失败,框架将问题发生的环境划分为环境安全、系统设计、数据治理、安全部署、性能监控和影响评估五大责任领域,并对其中可能存在的各角色职责做了明确划分。国土安全部部长马约卡斯(Alejandro N. Mayorkas)称:“该框架如果得到广泛采用,将大大有助于更好地确保提供清洁水、稳定电力、互联网接入等关键服务的安全和保障”。
关键基础设施系统涵盖了能源、交通、通信、金融等多个领域,这些系统的正常运行对于国家的安全、经济和社会稳定至关重要。一旦关键基础设施受到破坏或干扰,可能会导致严重的后果,如停电、交通瘫痪、通信中断等,甚至可能威胁到国家安全和人民生命财产安全。随着 AI 技术的不断发展,其在关键基础设施领域的应用也越来越广泛。AI 可以帮助提高关键基础设施的效率、可靠性和安全性,例如,通过智能电网技术实现电力的优化分配,通过交通流量预测优化交通管理等。然而,AI 的应用也带来了新的安全风险,如算法偏见、数据泄露、系统故障等,这些风险可能会对关键基础设施的安全运行产生负面影响。美国的对手正在利用 AI 技术对其关键基础设施发动复杂、频繁的网络攻击,这对美国的国家安全构成了严重威胁。同时,AI 技术的快速发展也使得监管和治理面临巨大挑战,现有的法律法规和监管框架难以适应 AI 安全的需求。框架的目标是为 AI 在关键基础设施中的安全、可靠和负责任的发展与部署提供指导,促进各相关方之间的合作与协调,共同应对 AI 安全风险。框架适用于参与关键基础设施建设、运营和管理的所有实体,包括云和计算基础设施提供商、AI 开发者、关键基础设施所有者和运营商、民间社会以及公共部门。框架识别了 AI 在关键基础设施中可能面临的三类安全攻击向量和漏洞:使用 AI 的攻击、针对 AI 系统的攻击以及设计和实施失败。同时,根据潜在危害的规模和严重程度,将风险分为资产级风险、部门级风险、系统性和跨部门风险以及国家重大风险四个类别,并针对每个类别提出了相应的风险缓解措施。此部分内容对 AI 在关键基础设施中的安全风险进行评估的依据,主要来源于美国政府此前发布的相关备忘录和报告,如《关键基础设施安全与韧性国家安全备忘录》(NSM 22)、《关键基础设施所有者和运营商安全与安保指南》、OMB 备忘录 M - 24 - 10 以及白宫《人工智能权利法案蓝图》等。通过美国国土安全部(DHS)与网络安全和基础设施安全局(CISA)及其他部门的协调,确定了 AI 在关键基础设施中的三类安全攻击向量和漏洞,包括使用 AI 的攻击、针对 AI 系统的攻击以及设计和实施失败。依据 NSM 22 中基于潜在危害的规模和严重程度对风险进行分类的方法,将 AI 在关键基础设施中的风险分为以下四类:
资产级风险:涵盖因 AI 的高风险使用,导致关键基础设施的运营、资产或系统受到干扰或物理损坏等情况,例如设计或部署缺陷可能影响特定地区人群的服务。
部门级风险:涉及影响一组资产进而对部门运营产生超出单个资产范围的风险,如能源或水务设施中部署的 AI 系统出现运营故障,或医院、银行等提供的关键服务中断,以及选举基础设施子部门因 AI 滥用而成为攻击目标。
系统性和跨部门风险:包括因 AI 引发的网络攻击对信息技术部门造成的干扰,限制关键服务的访问,AI 采用带来的负面环境影响,AI 事件导致的重大财务损失,AI 传感技术误差严重阻碍关键基础设施实体的服务访问,AI 增强流程失败导致的物流供应链中断,以及关键基础设施日益相互依赖所产生的其他风险。
国家重大风险:特指 AI 可能对安全或权利造成广泛影响,或显著协助常规、化学、生物、放射或核(CBRN)武器的开发、制造或部署等风险。
针对不同的风险类别,该框架提出了相应的缓解措施。通过实施这些措施,有望降低各类风险发生的可能性和严重程度。同时,该框架强调了风险之间的相互依存关系,指出未解决的资产级风险可能会演变为部门级或跨部门风险,而旨在提高关键资产安全性的缓解措施可能有助于预防或降低国家重大风险的发生概率。
云和计算基础设施提供商:负责确保数据的完整性、可用性和保密性,提供可靠、弹性和安全的 AI 产品和服务。具体包括审查硬件和软件供应商、实施访问管理最佳实践、建立漏洞管理机制、管理物理安全等。AI 开发者:在 AI 生命周期中承担安全和安保责任,特别是在推动负责任的模型和应用设计、测试和维护方面。具体包括管理模型和数据的访问、准备事件响应计划、采用安全设计原则、评估模型的危险能力、确保与人类价值观的一致性、实施数据治理、确保安全和可靠的部署、监测模型的性能和影响等。关键基础设施所有者和运营商:负责管理关键系统的安全运行和维护,确保 AI 的使用符合安全和安保要求。具体包括保护现有 IT 基础设施、采用负责任的采购指南、评估 AI 使用案例和相关风险、实施安全机制、建立适当的人类监督、实施数据治理、确保安全和可靠的部署、监测性能和影响等。民间社会:包括非政府组织、工会、慈善组织、专业协会、基金会、学术界和研究机构等,在支持、标准化和改进 AI 安全方面发挥着关键作用。具体包括积极参与制定和传播标准、最佳实践和指标,教育政策制定者和公众,为 AI 系统的开发和部署提供指导价值观和保障措施,支持使用隐私增强技术,考虑关键基础设施的红队测试标准,推动和支持 AI 安全研究和创新等。公共部门:包括联邦、州、地方、部落和地区政府及其官员,有责任确保相关私营部门实体保护个人和社区的权利,应对危机和紧急情况,并促进 AI 在关键基础设施中的安全使用。具体包括提供基本服务和应急响应、推动全球 AI 规范、负责任地利用 AI 改善关键基础设施的功能、通过法律法规推进实践标准、与社区领袖合作、支持 AI 安全和安保的基础研究、支持关键基础设施安全采用 AI、发展监督机制等。框架涵盖了 AI 在关键基础设施中的整个生命周期,从设计、开发、部署到运行和维护,明确了各个阶段各相关方的角色和责任,为 AI 安全治理提供了全面的指导。框架将 AI 安全视为一个系统性工程,强调各相关方之间的合作与协调。通过建立共享和分离的责任模型,促进各方之间的信息共享和沟通,共同应对 AI 安全风险。框架采用了自愿性原则,各相关方可以根据自身情况选择采纳和实施框架中的建议。同时,框架也强调了持续改进和更新的重要性,以适应 AI 技术的不断发展和变化。框架将隐私和人权保护作为 AI 安全的重要组成部分,要求各相关方在 AI 的开发和部署过程中充分考虑个人的隐私和权利,采取相应的措施加以保护。促进 AI 安全治理的协调统一:框架为美国国内各相关方提供了一个统一的 AI 安全治理框架,有助于促进各方之间的协调合作,形成合力,共同应对 AI 安全挑战。推动 AI 安全技术的发展:框架的发布将促使各相关方加大对 AI 安全技术的研发投入,推动 AI 安全技术的不断创新和发展。增强公众对 AI 的信任:通过明确各相关方的责任,加强 AI 安全监管,框架有助于增强公众对 AI 的信任,促进 AI 技术的广泛应用。提供参考和借鉴:美国作为全球 AI 技术的领先者,其发布的 AI 安全框架将为其他国家和地区提供重要的参考和借鉴,有助于推动全球 AI 安全治理的发展。促进国际合作:框架强调了国际合作在 AI 安全治理中的重要性,美国将与他的国际伙伴共同推动全球 AI 规范和标准的制定,加强国际间的信息共享和协作,共同应对 AI 安全挑战。