天极按
本框架旨在补充和推进《白宫自愿承诺》、《人工智能权利法案蓝图》、《关于安全、可靠和可信赖地开发和使用人工智能的第14110 号行政命令》、《关于推进治理的OMB M-24-10备忘录》所确立的人工智能安全和安保最佳做法、 关于推进治理、创新和风险管理以促进机构使用人工智能的备忘录》、《关于推进美国在人工智能领域的领导地位的备忘录》、人工智能安全研究所的工作、《国土安全部关于关键基础设施所有者和运营者的安全和安保准则》等。
关键基础设施中与人工智能相关的角色、责任、用例和风险错综复杂、相互依存,并将随着技术的发展而不断变化。考虑到这些因素,本框架:
为在美国关键基础设施中安全可靠地使用人工智能提出一套自愿责任,分为五个关键角色:云和计算基础设施提供商、人工智能开发商、关键基础设施所有者和运营商、民间社会和公共部门。
在五个责任领域对这些角色进行评估:确保环境安全、推动负责任的模型和系统设计、实施数据治理、确保安全部署以及监控关键基础设施的性能和影响。
提供技术和流程建议,以提高部署在全国十六个关键基础设施部门的人工智能系统的安全性、保障性和可信性。
如果在整个人工智能生态系统中得到采纳和实施,本框架旨在促进关键基础设施中的人工智能安全和安保,包括统一安全和安保做法,改善关键服务的提供,增强实体之间的信任和透明度,保护公民权利和公民自由,并推动人工智能安全和安保研究,从而进一步使关键基础设施能够负责任地操作和部署人工智能。
本框架以现有风险框架为基础,使各实体能够评估在某些系统或应用中使用人工智能是否会对关键基础设施资产、部门、国家重要系统或由此类系统提供服务的个人造成危害。本框架中的责任经过了专门调整,以通过实施技术风险缓解措施、问责机制、常规测试实践和事件响应规划来应对这些潜在危害。重要的是,本框架还将透明度、沟通和信息共享作为人工智能安全和安保的关键要素,并将其作为优先事项。本框架并不代表相关实体对人工智能安全和安保所负责任的完整清单,而是侧重于推进人工智能安全和安保使用的活动,这些活动与关键基础设施尤为相关。所有相关实体,从云和计算基础设施提供商到人工智能开发商以及关键基础设施所有者和运营商,除了本框架提出的基本责任外,还应考虑针对具体部门和具体情况的人工智能风险缓解措施。
人工智能仍是一项新兴技术,人工智能安全和安保实践仍在同步发展。国土安全部和人工智能安全与安保委员会将以身作则,支持、加强和推进本框架中的核心概念,共同致力于保护和塑造美国关键基础设施创新的未来。
美国的关键基础设施包括美国社会的十六个部门,这些部门的系统非常重要,其瘫痪将对国家的生活产生破坏性影响。它包括美国的国防、能源、交通、信息技术、金融服务、食品和农业、通信等系统。
美国国土安全部(DHS)与其合作伙伴一起,帮助保护美国人的家庭和企业供电、进行金融交易、共享信息、获取和提供医疗保健服务以及餐桌上的食物等日常活动。人工智能可以成为一股强大的力量,改善关键基础设施所提供的服务、建立复原能力、检测威胁并支持灾难恢复。随着拥有和运营这些关键基础设施系统的实体越来越多地采用人工智能,该部有责任了解、预测和应对可能对这些系统及其服务的消费者产生负面影响的风险。这一职责包括确保关键基础设施系统为美国所有人运行和服务。关键基础设施中的人工智能系统也不例外,必须以有效、尊重和维护隐私、公民权利和公民自由的方式进行有意设计、开发和部署。
由于认识到这些系统的关键性及其在利用人工智能服务美国人民方面的作用,2023年10月,美国总统发布了《关于安全、可靠和可信赖地开发和使用人工智能的行政命令》(第14110号行政命令),指示国土安全部部长成立人工智能安全和安保委员会,负责就人工智能的使用向部长和关键基础设施社区提供 “意见、信息或建议”。作为第一步,国土安全部与委员会密切协商,制定了本自愿性的《关键基础设施中人工智能的角色与责任框架》(以下简称 “框架”),就整个人工智能生态系统中各实体的角色与责任提出建议,以便在关键基础设施中安全、可靠、有弹性地开发和部署人工智能。
本框架提出了在关键基础设施中安全可靠地使用人工智能的共同和单独责任模式。为此,本框架:
► 建议基于风险和用例的缓解措施,以降低在开发和部署人工智能时对关键基础设施系统及其服务对象造成损害的风 险,以及如果不加以解决,损害可能以连锁方式影响多个部门或造成全国性重大破坏的可能性。
► 在开发和部署人工智能驱动的服务时,提出一套自愿性责任,涵盖云和计算基础设施提供商、人工智能模型开发商以及关键基础设施所有者和运营商的角色,而国家的大部分关键基础设施目前或即将依赖于这些服务。
► 建议民间社会和公共部门承担一系列自愿责任,为使用这些关键系统或受其影响的人提 倡,支持研究以改进新技术的各个方面,并推进强有力的风险管理实践。
► 依靠现有的风险框架,使各实体能够评估在某些系统或应用中使用人工智能是否会带来严重的风险,从而可能对关键基础设施资产、部门或服务于美国人民的其他国家重要系统造成损害。对这些风险类别之间的关系及其缓解措施的进一步研究将有助于各实体根据使用情况进行评估。
此外,该框架补充并利用了从国土安全部协调的人工智能和关键基础设施安全计划中收集的信息,包括根据第14110号行政命令制定的关键基础设施年度人工智能部门特定风险评估程序和即将出台的国家基础设施风险管理计划。
在本框架中,我们从对关键基础设施的潜在威胁、危害、脆弱性和后果的角度来提及安全和安保风险,并提供可在整个人工智能开发和部署生命周期中实施的风险缓解措施。我们对这些因素的评估借鉴了美国政府之前发布的备忘录和报告,特别是《关键基础设施安全与安保指南》、《关于关键基础设施安全与恢复能力的国家安全备忘录》,以及《OMB备忘录M-24-10》和《白宫人工智能权利法案蓝图》中关于公民权利和公民自由风险的指导。
国土安全部通过网络安全和基础设施安全局(CISA),并与其他部门风险管理机构(SRMA)协调,在整个关键基础设施中确定了三类人工智能安全和安保攻击载体和漏洞:使用人工智能的攻击、针对人工智能系统的攻击以及设计和实施故障。关键基础设施的基本服务和功能是公众每天所依赖的,对于关键基础设施的所有者和运营者来说,了解这些漏洞的性质并相应地加以解决不仅是一项业务要求,也是国家的当务之急。
关于关键基础设施安全和复原力的国家安全备忘录》(NSM 22)阐明了根据潜在危害的规模和严重程度对关键基础设施的风险进行分类的方法,这反过来又有助于确定风险管理工作的优先次序。下面,我们将每个类别与关键基础设施使用人工智能相关的具体风险进行了对比说明。风险类别对不利影响进行评估,并按规模递增的顺序排列:
1.资产层面的风险:包括但不限于关键基础设施的运行、资产或系统受到干扰或实际损害,或因高风险使用人工智能而导致的直接供应商。这些风险可能包括设计或部署缺陷,从而损害对人口或地区的服务。
2.部门风险:包括但不限于影响部门运作的一系列资产的风险,而不仅仅是单个资产的风险。除其他外,这些风险包括部署在能源或供水公用事业中的人工智能系统的运行故障和重要服务(如医院提供的医疗服务和银行及其他金融机构提供的金融服务)的提供中断,以及滥用人工智能使选举基础设施分部门成为攻击目标。
图1. 该框架的风险类别与潜在危害的程度相一致
3.系统性风险与跨部门风险:包括但不限于人工智能网络攻击和限制关键服务访问的事件对信息技术部门造成的破坏、与人工智能应用日益广泛相关的负面环境影响、导致重大经济损失的人工智能事件、人工智能传感技术中严重阻碍关键基础设施实体获得服务的错误、人工智能增强流程中的故障导致的物流供应链中断,以及关键基础设施日益相互依存所产生的其他风险。
4.国家重大风险:包括但不限于人工智能对安全或权利造成广泛影响的风险 ,或严重协助开发、制造或部署常规、化学、生物、辐射或核(CBRN)武器的风险。
本框架提出的缓解措施,如果由从事相关活动的实体实施,可以降低与每个风险类别相关的后果的可能性和严重性。此外,这种风险框架揭示了这些类别的相互依存性质,即资产层面的风险如果不加以解决,可能会恶化为整个部门或跨部门的风险;反之,旨在改善关键资产的安全或安保的缓解措施可能会防止或减少全国性重大后果的可能性。这一重点也承认,在如何开发人工智能模型、如何访问这些模型以及如何在更大的系统中发挥作用方面所做的各种选择,对于它们在美国关键基础设施的广泛部署时将产生的影响至关重要。公共部门和民间社会在理解和塑造这种影响方面发挥着关键作用,从而使各部门共享利益,预防、减轻并在必要时补救危害。
人工智能模型通常由不同实体在不同背景下设计、实施和使用;因此,管理人工智能安全和安保风险的责任必然会分散到多个组织。本框架具体评估了云和计算基础设施提供商、人工智能模型开发商、关键基础设施所有者和运营商、民间社会和公共部门在以下五个基本类别中的共同责任和单独责任:确保环境安全、推动负责任的模型和系统设计、实施数据治理、确保安全部署以及监控性能和影响。
上述实体之间的相互依赖必须通过共同努力来解决,要做到透明,利用沟通渠道和数据共享来促进信任和共同理解。例如,如果人工智能开发者向客户提供信息,说明如何通过模型设计和测试来解决相关的安全和安保风险,关键基础设施实体就能更好地评估模型是否安全可靠。同样,如果云计算和计算基础设施提供商共享软硬件组件和源代码供应商的文档,模型开发者和服务提供商就能更有效地评估其IT环境的风险,并做出明智的采购决策。此外,关键基础设施实体可以通过提供人工智能部署的透明度,包括此类部署的相关背景和流程,在改进人工智能开发流程和为其提供信息方面发挥核心作用。透明度的一个重要目的是将本框架中确定的实体联系起来,使每个实体都能履行各自的安全和安保责任。
此外,实体可能在人工智能生命周期中扮演不止一个角色。人工智能的最新发展越来越多地实现了模型的可配置性和工具化,拉近了技术提供商与客户之间的距离。构建人工智能应用的公司也可能拥有其所依赖的软件。关键基础设施实体可针对某些定制服务对现成的人工智能模型进行微调。人工智能供应链上的服务和能力之间的重叠越来越多,这也造成了人工智能安全和安保的核心责任在哪里以及由谁承担的不确定性。本框架提供建议,帮助每个实体评估自身在人工智能安全和安保方面的义务,同时鼓励所有实体相互合作和沟通,以确保履行共同责任。
整个人工智能生态系统中的实体在关键基础设施中安全可靠地开发和部署人工智能方面承担着共同但不同的责任。本框架对角色和责任定义如下:
► 实体可指云和计算基础设施提供商、人工智能模型开发商、关键基础设施所有者和运营商、民间社会组织或公共部门政府。
► 角色的定义很宽泛,包括一个实体或一组实体为支持人工智能的开发和部署而提供的核心服务,用于各种用途,包括关键基础设施用例。它们包括云和计算基础设施提供商、人工智能开发人员、关键基础设施所有者和运营商、民间社会和公共部门。每个角色都可能包含多种类型的实体(例如,人工智能开发者包括模型开发者和应用开发者),但这些实体是根据其在关键基础设施中的人工智能安全和安保责任的相似性而归类在一起的。
► 责任包括技术风险缓解、问责和透明机制、权利相关保护和测试基准。如本框架所述,责任类似于实体执行的任务,并被归纳为以下共同目标:确保环境安全、推动负责任的模型和系统设计、实施数据治理、确保安全部署以及监控性能和影响。
► 各实体应评估本框架中的哪些责任与其整体角色相关,以及与其在关键基础设施中安全、可靠地开发和部署人工智能相关的具体活动相关。
► 各实体应采纳这些责任,并将其纳入当前或正在制定的人工智能治理计划中,包括技术开 发、采购和合规流程中的责任。本框架并不取代实体应遵守的现有法律或监管要求。
云计算和计算基础设施提供商可按需提供构建、调整和运行人工智能模型所需的可扩展计算资源。客户也可以从这些实体采购基础设施,以便在自己的场所托管模型开发和部署。虽然这些实体的责任可归纳为多个类别,但本框架的重点是建议它们如何通过确保数据完整性、可用性和保密性,为关键基础设施提供可靠、弹性和安全的人工智能产品和服务。
1.审查硬件和软件供应商:云和计算基础设施提供商应审查供应链中的硬件和软件,以确保其组件的可靠性和安全性。硬件物料清单框架、软件物料清单框架和软件采购手册中均列出了供应链风险管理实践,并根据具体情况就适合收集哪些信息提供了指导。云和计算基础设施提供商应采用这些或其他普遍接受的框架来审核硬件和软件供应商。
2.制定访问管理的最佳实践:云和计算基础设施提供商应启用或实施最佳实践,以监控和管理所有用户、设备和应用程序对系统、模型或数据源的访问。
3.建立漏洞管理:云计算和计算基础设施提供商应使用漏洞管理方法扫描基础设施,或使客户能够扫描基础设施以防范威胁,包括来自人工智能的威胁。提供商应进行或启用软件安全审查、渗透测试和外部审计,并应在关键基础设施应用中建立抵御潜在供应链攻击的能力。
4.管理物理安全:云和计算基础设施提供商应建立分层实体安全模式。虽然情况可能各不相同,但成功的实体安全模式一般包括:a)周边围栏和车辆障碍物;b)电子门禁卡;c)访问日志;d) 72*4 活动监控;e)服务器和硬件加固以防篡改。
1. 报告漏洞:在相关情况下,云和计算基础设施提供商在报告可能影响模型和系统设计流程的漏洞时,应遵循标准、协调的漏洞流程。
1. 对数据保密:云和计算基础设施提供商应通过对静态和传输中的数据加密或启用加密方法,降低用于训练或微调 模型的客户个人或机密数据被暴露、泄露或攻击的风险。这样做的方法包括向客户提供加密服务和采用其他数据保护最佳实践。
2. 确保数据可用性:云和计算基础设施提供商应与客户密切合作,利用高可用性网络(即无需人工干预即可始终以最佳水平运行的网络)和备份计划,以确保关键服务的弹性。
1. 进行系统测试:云计算和计算基础设施提供商应测试系统环境,以确保在各种中断情况下服务的持续可用性。这种安全测试可在内部进行,也可通过可靠的第三方提供商进行。在可能的情况下,云计算基础设施提供商应向客户提供工具和诊断程序,以便于对其计算环境进行操作安全和安全测试。
1.异常活动监控:云和计算基础设施提供商应使用适当的工具分析网络活动,或使其客户能够分析网络活动,以发现潜在的威胁和滥用。
2.突发事件准备:云和计算基础设施实体应与提供商合作,在发生涉及未经授权访问系统或数据的事件时,规划升级、调查、恢复和沟通流程。如果由于网络安全、物理安全、内部威胁或其他事件而发生此类未经授权的访问,实体应执行此类计划。
3.建立报告异常活动路径:云提供商应与其客户合作,建立报告可疑或有害活动的明确途径,遵守州、地方和联邦的报告要求,并与公共和私营部门的研究人员合作,减轻相关危害。在相关情况下,各实体应利用现有的事件报告渠道,如信息共享与分析中心(ISAC)。
这里的人工智能开发者是指开发、训练和/或允许访问人工智能模型或应用程序的实体,包括通过其自身或第三方平台服务和工具。他们可以自己开发模型,修改或允许访问第三方模型,提供使开发人员能够使用或配置人工智能模型的软件工具,和/或将模型部署到客户的下游应用程序中。这些开发人员在关键基础设施的整个人工智能生命周期中都负有安全和安保责任,特别是在长期推动负责任的模型和应用设计、测试和维护方面。下文讨论的一些安全和安保责任由所有类型的人工智能开发者共同承担,而其他责任则专门适用于某些类型的人工智能开发者,这取决于他们对上游人工智能模型或下游人工智能应用的访问权限,或模型的权重是否广泛可用。本框架将这些实体--人工智能模型、平台和应用程序的开发者--归为一类,因为他们在开发最终将被关键基础设施实体使用的人工智能技术方面发挥着类似的作用。
对于本节中与防止两用模型被故意滥用来对关键基础设施实施攻击有关的责任,我们鼓励人工智能模型开发人员参考人工智能安全研究所的指导方针草案《管理两用基础模型的滥用风险》,以获取更多更详细的建议。
1.管理对模型与数据的访问:人工智能开发人员应帮助确保人工智能系统中对其整体安全态势起关键作用的组件(如模型权重、训练数据和源代码)免受未经授权的访问。
2.制定事件响应计划:人工智能开发人员应制定明确的报告和评估流程,以快速应对事件,包括内部威胁。应定期审查计划,并将其纳入培训和桌面演练,让员工做好准备,高效地评估和识别风险,遵循升级途径,并控制事件的影响。应将从事件中吸取的经验教训纳入计划,以改进对未来事件的响应。
1.融入安全设计原则:人工智能开发人员应确保其产品从一开始就以安全为重点进行开发,使用既定框架(如CISA 的 “安全设计承诺”)来指导和公开宣传其构建安全人工智能的方法。开发者应定期更新面向公众的安全政策,以反映在实现安全目标方面取得的进展,对员工进行如何识别和减少相关安全漏洞的培训,提供最新信息供客户参考,并纳入有关安全最佳实践的新研究和指导。
2.模型危险能力评估:人工智能模型开发人员应制定并遵守一项战略,以识别与自主活动、物理和生命科学、网络安全以及其他能力相关的能力,这些能力在相关高风险环境中部署时可能会影响关键基础设施。
3.确保符合以人为本的价值观:人工智能模型开发者应尽力确保人工智能模型反映人类的价值观和目标,最终目标是确保它们是有益的、准确的、无偏见的和透明的。
1. 尊重个人选择和隐私:人工智能开发者应确保人工智能系统的有效数据管理考虑到个人的合法权利、明确的选择以及对隐私的合理期望。人工智能开发者在收集、处理、保留和传输个人信息时,应实施隐私最佳实践,包括数据最小化,并遵守适用法规。
2. 提高数据与输出质量:鉴于用作训练人工智能模型输入的数据源的数量和可变性,人工智能开发者应持续评估模型输入的质量,并使用提高输出质量和可靠性的方法,如数据过滤、微调和分类,以帮助防止模型产生意外或有害的结果。
1.使用基于风险的方法管理对模型的访问:人工智能模型开发人员应在广泛提供模型权重之前进行风险评估。评估应考虑开放的好处,包括对人工智能安全和安保研究的影响,以及滥用的风险。
2.区分人工智能生成的内容:在技术可行且商业合理的情况下,鼓励人工智能开发者确保人工智能生成或处理的内容,如代码、文本、图像、音频或视频,能够在时间和来源点上被明确识别,从而与人类生成的内容区分开来,这也符合法律要求和安全最佳实践。随着这些领域研究的深入,人工智能开发人员应不断更新其评估方法。
3.验证人工智能系统的使用:人工智能开发者应尽可能使用现有基准测试一般可靠性和稳健性,以帮助确保人工智能系统在正常条件下和各种可能条件下按计划运行。
4. 向客户和公众提供有意义的透明度:人工智能开发者应提供信息,使其关键基础设施客户能够进行自己的风险评估,并就何时和如何使用人工智能做出明智的决定。人工智能开发商提供的信息可包括有关训练数据和模型架构的信息、在相关基准上的表现和检测危险能力的评估结果,以及风险管理实践的细节,包括安全和安保措施。
5. 评估现实世界的风险和可能的结果:人工智能开发者应该对模型和应用程序进行评估,测试其在高风险环境中部署时可能导致有害结果的偏差、失效模式或漏洞。模型开发者应实施风险管理政策,其中包括测试程序(如人工智能红队)和风险阈值,如果相应的安全措施不能有效地将风险降低到阈值以下,则可用来限制模型的进一步开发或部署。
6. 保持漏洞报告和缓解流程:根据公众利益和强大的安全协议,人工智能开发人员应及时对可能导致关键基础设施受损的已知漏洞进行修复。在可行的情况下,实体应考虑通过ISAC或其他适当渠道向客户、合作伙伴和监管机构披露其修复活动。
1. 监控人工智能模型的异常或敌对活动:人工智能开发人员应监控和/或使客户能够监控可能暗示对关键基础设施构成风险的异常行为或恶意活动的破坏指标,包括人工智能网络攻击或敌意操纵、模型漂移或数据中毒。在某些高度信任的部署中,由于数据的性质、隐私或安全问题,开发人员可以协助客户自行执行这些功能。
2. 识别、交流以及应对风险:人工智能开发人员应制定流程,用于记录和交流新发现的模型风险,并根据影响、可能性、可用资源和缓解措施确定风险的优先级。人工智能开发人员应制定措施,如漏洞悬赏、定期报告和修补漏洞的节奏,以及接收和分析客户报告的流程。
3. 支持独立评估:人工智能模型开发者应允许合格且可信赖的第三方对存在国家重大风险的模型进行评估,如CBRN 相关能力和/或关键基础设施实体及其消费者面临的更高风险。
关键基础设施的所有者和运营商负责管理关键系统的安全运行和维护,这些系统越来越依赖人工智能来降低成本、提高可靠性和效率。这些关键基础设施实体通常与人工智能应用程序或平台直接互动,从而能够为特定用例配置人工智能模型。虽然各行各业的人工智能用例在功能和风险方面大不相同,但人工智能模型和系统的部署方式对关键服务以及消费此类服务的个人具有重要的安全和安保影响。
1. 确保现有IT 基础设施的安全:关键基础设施实体应在适用的地方和将部署人工智能系统的地方采用国际公认的标准和做法,包括管理部署环境治理、确保稳健的架构、加固配置和保护网络免受威胁。
1. 使用负责任的采购准则:关键基础设施实体应与人工智能开发商确认,他们的人工智能产品和服务经过了操作专家和主题专家的测试、评估、验证和核实。实体应采用 “按需安全 ”的方法,评估企业和产品的安全性,以确保它们符合网络安全、隐私和数据完整性(包括数据准确性和一致性)的标准。
2. 评估人工智能用例和相关风险:在考虑使用人工智能应用程序或其基础模型时,关键基础设施实体应在实施前评估人工智能可能对系统运行产生的影响,其中包括:a)人工智能应用程序的预期目的和预期用例;b)与使用或依赖人工智能应用程序的系统相关的可能故障模式;c)与关键基础设施相关的偏见和公平问题的影响和缓解措施。
3. 实施安全机制:关键基础设施实体应在人工智能系统中实施控制措施,以防止或减轻自动决策过程可能造成的影响安全结果的潜在严重性,这些结果会给关键基础设施资产或员工带来严重风险。
4. 建立适当的人工监督:关键基础设施实体在做出或告知可能对关键基础设施资产、服务或消费者产生负面影响的重要决策时,应纳入适当的人工参与。对于此类决策,实体应建立有意义的人工监督,并规定所有者和操作者应在多大程度上依赖人工智能生成的输出、预测和/或预报。
1.保护用于配置或微调模型的客户数据:为降低与使用专有或私人数据相关的风险,关键基础设施实体应保护客户数据,防止其不当暴露,尤其是在训练或微调模型时使用此类数据时。实体应在符合相关客户授权和同意的情况下,仅收集、处理、保留和传输服务于当前特定任务所必需的客户数据。
2.管理数据收集和使用:关键基础设施实体应跟踪和保护用于微调人工智能模型或为其用例配置人工智能应用程序的客户数据。它们应根据需要与人工智能开发人员合作,验证为模型训练而购买或采购的外部数据集的完整性(包括数据的准确性、一致性和安全性),以评估其在特定情况下的适用性。
1.保持网络卫生:关键基础设施实体应实施强有力的网络安全措施,如CISA网络性能目标中概述的措施,以保持对人工智能系统的控制。
2.提供透明度及消费者权利:关键基础设施实体在使用人工智能向公众提供商品、服务或利益时,应提供有意义的透明度。实体应与其利益相关者合作,包括地方政府、社区和公众,以确定适当的信息披露类型、水平和节奏,同时确保知识产权的安全。在可行的情况下,使用可能对个人或社区产生不利和实质性影响的人工智能系统的实体,应给予受影响的个人一个机会,以获得关于该系统如何影响他们的解释。
3.建立人工智能的安全与问责文化:对于在关键系统中使用人工智能,关键基础设施的所有者和运营商应确保其行政领导参与关键决策,并得到适当的治理政策和程序的支持。
4.员工队伍培训:关键基础设施实体应就人工智能的适当使用以及专门影响关键基础设施所有者和运营者员工的安全漏洞(如网络钓鱼攻击、恶意软件、脆弱设备、密码卫生差或数据中毒)对其员工进行培训。
1.在事件响应计划中考虑人工智能:如果发生影响关键基础设施的事故,关键基础设施实体应准备好最新的一般事故响应计划。该计划应指示如何停止人工智能系统的运行,开始运行备份系统以提供关键基础设施服务的持续可用性,通知适当的政府部门,酌情通知受影响的客户和其他利益相关者,并安全地撤销对人工智能系统的访问。各实体应制定计划和协议,以便在出现问题时回退人工智能系统。
2.性能数据跟踪与共享:在适用的情况下,关键基础设施实体应与模型或系统开发人员合作,确定共享有关人工智能系统性能的信息和/或数据的流程。关键基础设施实体还应考虑共享性能数据的任何评估结果,以帮助开发者更好地理解模型行为与真实世界结果之间的关系。这种数据共享应以保护个人数据的方式进行。
3.进行定期和与事件相关的测试、评估、确认与验证:作为持续系统监控/风险管理流程的一部分,关键基础设施实体应定期评估用于实施维修或升级的测试和测量的充分性和有效性。
4.衡量影响:关键基础设施实体应持续衡量人工智能对纳入该模型的整体系统的影响,包括对消费该系统或受其影响的个人或社区的不同影响。
5.确保系统冗余:关键基础设施实体应纳入冗余,以尽量减少自然灾害、事故或其他事件造成的中断影响。
民间社会有别于行业和政府的组织,包括非政府组织、工会、慈善组织、专业协会、基金会、学术界、研究机构等。民间社会组织的作用多种多样,既有与私营部门人工智能公司合作的非政府组织,也有为创新文化做出贡献的研究机构。作为一个部门,民间社会与政府和行业合作,为标准、框架和解决方案做出贡献,帮助衡量和宣传技术对个人和社区的影响。民间社会在支持、规范和改进整个人工智能生命周期的安全、隐私、公平和安全缓解措施、保护公众和提高可信度方面发挥着关键作用。
1.与政府和行业一起积极参与制定和宣传标准、最佳实践和衡量标准:公民社会应支持为关键基础设施使用人工智能制定和宣传人工智能安全标准,并制定具体指标来衡量特定行业应用的影响。这些标准和衡量标准必须肯定权利,并在开发阶段提供定义、评估和监控偏见的工具。
2.教育政策制定者与公众:民间社会实体应开发人工智能教育资源或确定适当的贡献,帮助决策者和公众了解人工智能的用途、益处和风险。
3.为人工智能系统的开发和部署提供指导价值和保障:公民社会应与公众和政府合作制并与云计算和计算基础设施提供商及人工智能开发者合作实施指导性价值观和保障措施,包括适当的规则、政策和程序,以开发和部署透明并能保护隐私、公民权利、人权和社会福祉的人工智能系统。
4. 支持使用隐私增强技术:民间社会应酌情与产业界合作,寻找机会推动采用隐私增强技术(PET)来收集、处理和训练用于人工智能的数据。
5. 考虑红队标准的关键基础设施用例:公民社会应酌情与人工智能开发者合作,制定实用的红队标准,以便关键基础设施在各种使用案例和风险阈值中随时采用。
6. 继续推动和支持研究与创新:公民社会应推动人工智能应用的基础研究,支持关键基础设施中人工智能的安全开发和部署,以及人工智能中的关键社会技术概念。此类研究应关注平等、公平和民主价值观,旨在促进负责任的创新。
公共部门包括联邦、州、地方、部落和领土实体的政府机构,服务于并保护美国人民及其机构。公共部门有责任确保所有部门的相关私营部门实体适当保护个人和社区的权利,并有责任在危机或紧急情况下响应和支持美国公众。鉴于这些重要职责,本框架建议公共部门实体在自身使用人工智能时采取以下做法,并努力促进在关键基础设施中安全可靠地使用人工智能:
1.提供基本服务与应急响应:公共部门应确保其对人工智能的使用支持政府的核心职能,即基本服务、生命和安全、应急响应以及经济和社区支持,而绝不与之冲突。
2.推动全球人工智能规范制定:美国在人工智能领域处于世界领先地位,将与其合作伙伴合作,率先围绕人工智能安全和安保建立强有力的规范和标准。联邦政府应在人工智能方面与国际伙伴合作,以确定共同的威胁,推动国际法规和标准的制定,并围绕共同的责任来保护所有全球公民。
3.负责任地利用人工智能改善关键基础设施的运作:公共部门应提高效率,增加关键服务的可负担性和可用性,并在透明度和与公众沟通方面以身作则。公共部门应优先发展和资助在政府服务中推进负责任的人工智能实践的项目。公共部门实体应就公共部门使用人工智能的问题与民间社会和其他各方进行接触,避免以产生歧视性结果、侵犯个人隐私或违反其他合法权利的方式使用人工智能。公共部门实体不应资助歧视性技术。
4.通过法律法规推进实践标准:联邦政府有机会通过法律和法规行动来推进实践标准。在此过程中,政府必须确保不会扼杀创新,尤其是考虑到人工智能的动态和快速发展。法律法规应保护个人的基本权利,帮助推动创新,促进不同法律要求的协调,简化合规性,并明确事件报告流程。
5.社区领袖参与:公共部门应与社区领袖合作,预测和了解人工智能对选民、劳动力和机构的影响,特别关注弱势群体。联邦政府应与地方政府协调,确保对影响进行衡量、理解,并在相关情况下用于为联邦政策提供信息。
6. 促进人工智能安全基础研究:公共部门应与人工智能开发人员和研究人员合作,测试、分析和监控人工智能的技术进步可能会如何影响金融、教育、医疗保健和其他服务等关键服务的安全和安保。公共部门领导者应与学术机构合作,并利用国家人工智能研究资源(NAIRR)等人工智能资助计划,领导并参与围绕跨行业和跨部门的强大人工智能安全和安保实践制定标准的工作。
7.支持关键基础设施安全可靠地采用人工智能:公共部门应明确支持关键基础设施在有益的情况下负责任地使用人工智能,并确定在哪些情况下不宜使用人工智能。
8.持续监督:国土安全部和委员会应评估本框架的持续相关性,并公布其监督和评估机制。
如果能有效管理相关风险,人工智能的最新进展为改善关键基础设施的运作提供了非凡的可能性。本框架为各部门、各行业和各国政府的领导者提供了一个基础,使他们能够在各自的组织内部以及在与他人的互动中,通过承担和履行共同或单独的人工智能安全和安保责任,帮助推动这一领域的发展。除其他成就外,本框架若能进一步加强人工智能安全和安保实践的协调性,改善人工智能促成的关键服务的交付,提高整个人工智能生态系统的信任度和透明度,推动关键基础设施安全和安保人工智能的研究,并确保所有实体保护公民权利和公民自由,则将取得成功。
美国关键基础设施的规模和影响非同一般,这凸显了在开发和部署用于关键系统的人工智能时采取与我国核心价值观相一致的方法的重要性。本框架旨在补充和推进白宫《自愿承诺》和《人工智能权利法案蓝图》、OMB M-24-10号《人工智能备忘录》、人工智能安全研究所的工作以及国土安全部《关键基础设施所有者和运营者安全和安保指南》等文件中确立的人工智能安全和安保最佳实践。
1.加强基础安全实践的协调统一。人工智能能力的最新进展导致人工智能安全和安保指南、拟议标准和原则激增。但是,除非各实体能够就如何操作这些资源达成一致,否则它们就有可能变得过时。本框架借鉴了既有指南以及整个人工智能生态系统中利益相关者的见解,提供了一个责任分担和独立的模式,旨在被采纳、实施和更新,以跟上不断变化的技术。具体来说,本框架应与政府发布的其他指南一起使用,为企业政策、实体间协议、人工智能开发技术标准以及法规或监管行动提供参考,这些将最终管理人工智能如何开发和部署到美国关键基础设施的重要方面。此外,鉴于美国的领导力和创新在全球的影响力,美国实体广泛采用本框架将有助于形成国际规范和标准。这种在全国乃至全球范围内的协调统一对于创新驱动力至关重要,而创新驱动力将决定人工智能在未来数年内加强和建设关键基础设施的复原力的力量。
2.改进关键服务的规划和交付。石油管道或空中交通系统等关键系统的运行和安全保障需要多个流程的精心协调,包括高级规划、实时监控和精密预测等。这些流程中的每一个都能从人工智能中获益匪浅,无论是在单独执行方面,还是在共同协调方面。虽然这些系统的所有者和运营者必须始终慎重考虑在重要系统中采用新兴技术的风险,但关键基础设施实体历来都是研究、试验和部署新技术以服务美国公众的领导者。如今,人工智能和生成式人工智能的最新进展为领导力和创新带来了新的机遇,同时也明确了评估风险并为消费者提供重要保护的必要性。通过在管理关键基础设施构建或采购其人工智能系统的政策和流程中实施本框架的相关内容,所有者和运营商可以帮助塑造不断增长的人工智能安全和安保领域,并示范和推进人工智能对社会的积极影响。
3.提升整个人工智能生态系统的信任度和透明度。在任何复杂的生态系统中,信任和透明度都是相辅相成的,人工智能也不例外。对于技术提供商(包括云计算和计算基础设施提供商以及人工智能开发商)来说,提供透明度对于建立客户信任和信心至关重要;此外,他们分享的信息应该对目标受众有意义,并根据适用的风险水平进行调整。在某些高风险情况下,技术提供商还应能够保证人工智能系统以可靠的方式运行。实体之间强有力的透明做法可使下游部署者(如关键基础设施实体)解决并消除那些直接或间接与关键系统中的人工智能互动的消费者的担忧。因此,本框架将信任和透明度视为共同责任,根据实体的角色及其在人工智能生态系统中的位置,采取不同的形式。通过承担这些共同和单独的责任,实体可以帮助推动关键的采购决策,实现有意义的信息交流,支持可信的第三方参与,并促进整个生态系统的协作和共识。
4.推进关键基础设施的人工智能安全成果研究。当今的人工智能研究界正在迅速扩大,以涵盖和跟上日益先进的人工智能模型的新功能和风险的开发和测试。进一步的研究和开发应有助于关键基础设施操作和部署人工智能用例,包括那些没有利用最先进人工智能模型的用例,并管理在特定情况下应用人工智能所产生的风险。本框架呼吁所有实体支持和推动将人工智能用于关键服务(从能源管理到医疗保健)的研究,以促进更好地了解人工智能在这些领域的潜在用例,以及人工智能模型架构与现实世界结果之间的关系。此外,此类研究还有助于为制定有效的、基于风险的人工智能监管提供信息,这有赖于对效益、危害和缓解措施的具体理解。
5.尊重公民权利。人工智能在关键基础设施中的应用及其相应的成本和效益将因具体应用、部门背景和用例以及许多其他因素而异。然而,对隐私、公民权利和公民自由的考虑是基础性的,必须贯穿所有人工智能系统。因此,本框架将保障公民权利、识别不同影响和减轻伤害作为支持关键基础设施中人工智能开发和部署的整个人工智能生态系统的共同责任。
推荐阅读
文章来源:天极智库