2024年11月6日,英国政府发布的一份新闻稿介绍称,英国正提供一个平台,以帮助企业评估并减轻随着人工智能(AI)使用日益广泛而带来的相关风险。该人工智能安全保障平台是一个“一站式”指导和资源中心,旨在为企业提供工具,以便在开发和使用AI产品和服务时进行自身的影响评估和评价。该平台还包括用于评估机器学习算法是否存在偏见,并确保透明度和个人隐私保护的工具。许多生成式AI模型在符合欧盟法律关于偏见和安全性的基准方面一直面临挑战。英国政府正为全国企业推出有针对性的支持措施,以确保它们能够安全、可信赖地开发和部署AI,从而推动经济增长和提高生产力。新闻稿还提出进一步的支持措施将包括为中小企业(SMEs)提供自我评估工具,以在其组织中实施负责任的AI管理实践,并在开发和使用AI系统时做出更明智的决策。
英国科学、创新和技术国务秘书彼得·凯尔(Peter Kyle)在新闻稿中强调了负责任使用AI系统的重要性。他表示:“AI在改善公共服务、提高生产力和重建经济方面具有巨大潜力,但为了充分利用这一潜力,我们需要建立对这些日益融入我们日常生活的系统的信任。”新闻稿称,由政府支持的英国AI安全研究所最近推出了一个系统性AI安全资助计划,为来自学术界、产业界和民间社会的研究人员提供最高达20万英镑的资金支持。AI安全确保了AI系统按预期运行,进而增强公众对这项技术的信任,特别是要确保AI系统的公平性、透明性和对个人隐私的保护。
除了国内努力外,英国人工智能安全研究所(AI Safety Institute)还与新加坡签署了一份合作备忘录,以加强在负责任AI开发方面的国际合作。该协议旨在加强研究工作,并为AI安全制定共同的政策和标准,新闻稿指出。
新加坡数字发展与信息部长约瑟芬·提奥(Josephine Teo)在新闻稿中表示:“特别值得一提的是,我们共同支持国际AI安全研究所网络(AISI)。通过加强我们各自AISI的能力,我们力求提升AI安全性,以便我们的民众和企业能够放心地利用AI,并从其广泛应用中受益。”
目前,约有524家公司构成了英国AI领域的这一细分市场,雇佣了超过1.2万人,并创造了超过10亿英镑的产值。这些企业为各类组织提供安全开发和使用AI所需的工具,随着AI在英国企业和组织中的广泛应用,这一需求日益增加。新闻稿中提到,一份新的报告预测,到2035年,英国的AI保证市场将增长六倍,达到65亿英镑以上。AI技术的运用是英国政府改革国家公共服务和整体经济计划的核心,与此同时,确保公众对这些最终将推动改革的创新技术保持信任也至关重要。
与此同时,在美国,由于白宫规定私人部门的AI创新要像军事技术一样受到保护,科技公司在AI开发方面的国际合作伙伴关系受到限制。
英国AI安全研究所继续与国际合作伙伴紧密合作,包括支持本月晚些时候在旧金山举行的国际AI安全研究所网络(International Network of AI Safety Institutes)成员首次会议。为进一步扩大其全球影响力,AI安全研究所今日宣布与新加坡建立新的AI安全合作关系。该协议由彼得·凯尔和新加坡数字发展与信息部部长约瑟芬·提欧(Josephine Teo)今日下午在伦敦签署,双方研究所将密切合作,共同推动研究,并制定一套共同的政策、标准和指导原则。
新加坡数字发展与信息部部长约瑟芬·提欧表示:
“我们致力于实现新加坡及全球范围内‘AI为公众谋福祉’的愿景。与重要合作伙伴英国签署这份合作备忘录(MoC),是在现有共同利益领域的基础上,拓展AI领域的新机遇。特别重要的是,我们共同支持国际AI安全研究所网络(AISI)。通过加强各AI安全研究所的能力,我们力求提升AI的安全性,让我们的民众和企业能够信心满满地利用AI,并从其广泛应用中受益。”
这将推动AI安全的发展,并加强在全球范围内负责任地开发和部署先进AI模型的共同方法。这一合作伙伴关系建立在去年11月AI安全峰会上两国作出的承诺,以及国际AI安全研究所网络在研究、标准和测试方面协调工作的雄心之上。
AI安全研究所所长伊恩·霍加斯(Ian Hogarth)表示:
“有效的AI安全方法需要全球合作。这就是为什么我们如此重视国际AI安全研究所网络,同时也在加强我们自己的研究合作伙伴关系。与新加坡的协议是我们两国长期合作愿景的第一步,旨在共同推进AI安全科学,支持最佳实践和规范,以促进AI系统的安全开发和负责任使用。”
这些公告是在科学国务秘书于《金融时报》未来AI峰会开幕日发表的讲话中提出的,该峰会汇集了政府、企业和科技领袖,共同探讨企业在投资AI的同时如何应对这项技术的潜在风险。
与此同时,AI开发商Anthropic警告称,政府只有18个月的时间来实施有效监管,以防止风险升级。随着布鲁克斯科技政策研究所(Brooks Tech Policy Institute)提出名为“SETO Loop”的新监管框架,以帮助政策制定者应对日益增长的AI治理担忧,对迅速监管的呼声愈发强烈。
Anthropic呼吁迅速制定AI监管
人工智能公司Anthropic正敦促各国政府在未来18个月内实施有针对性的监管,并警告称,随着AI能力的迅速提升,主动预防风险的窗口正在关闭。
该公司在一份政策文件中指出:“拖延可能导致最糟糕的结果:既阻碍进步的拙劣设计、应急式监管,又无法有效预防风险。”
据该公司报告,AI能力取得了显著进步,软件工程任务的性能从2023年10月的Claude 2的1.96%提升至2024年10月的Claude 3.5 Sonnet的49%。其内部的Frontier Red Team发现,当前模型可以协助完成与网络攻击相关的任务。同时,英国AI安全研究所(U.K. AI Safety Institute)的测试显示,一些模型在生物学和化学方面的表现已达到博士水平。
这家AI开发商主张采取三管齐下的监管方法:安全政策的透明度、鼓励更好的安全实践、以及简单且有针对性的规则。该公司指出,自2023年9月起实施的自家“负责任扩展政策”(Responsible Scaling Policy)可作为潜在模型。
虽然联邦立法是理想之选,但Anthropic建议,如果国会行动迟缓,则可能需要州级监管,并引用了加利福尼亚州此前尝试的《前沿人工智能模型安全与创新法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)作为例证。
智库提出新AI监管框架
研究人员开发了一个新的监管人工智能框架,旨在帮助政策制定者应对日益增长的AI监管担忧。
由康奈尔大学(Cornell University)布鲁克斯科技政策研究所开发的这一方法被称为“SETO Loop”,它将AI监管分解为四个关键步骤:确定需要保护的对象、评估现有法规、选择适当的工具以及确定应由哪些组织来执行这些工具。
报告指出:“制定AI监管首先需要确定该技术带来的社会、经济和政治问题。目标应该是防止AI的恶意使用,而不是通过阻止提供服务而导致市场失灵。”
由研究员莎拉·克雷普斯(Sarah Kreps)和阿迪·拉奥(Adi Rao)开发的这一框架出台之际,AI正在改变多个行业。它研究了几个案例研究,包括自主武器系统、面部识别技术以及健康和手术机器人。
报告倡导一种“技术审慎”(technoprudential)的方法,以平衡AI的益处与其风险。它强调了动态监管的必要性,这种监管能够适应快速的技术变化,并在国际、联邦和地方层面进行协调。