深度|加州立法机构通过人工智能法案SB 1047,意味着什么?

文摘   2024-09-01 11:25   辽宁  

图片来源:Unsplash

在科幻电影之外,尚无人工智能系统杀人或被用于大规模网络攻击的先例。然而,一些立法者希望在不良行为者使这种反乌托邦的未来成为现实之前实施保护措施。一项名为 SB 1047 的加州法案试图在人工智能系统造成现实灾难之前阻止它们的发生。该法案在八月份通过了州参议院,现在等待加州州长加文·纽森的批准或否决。

虽然这似乎是一个我们都能达成共识的目标,但 SB 1047 却引起了硅谷大小企业的愤怒,包括风险投资家、大型科技贸易团体、研究人员和初创公司创始人。目前美国范围内有很多人工智能法案在讨论,但加利福尼亚州的“前沿人工智能模型安全与保障创新法案”已成为最具争议的法案之一。原因如下:

SB 1047 将会做什么?

SB 1047 试图防止大型人工智能模型被用于对人类造成“重大伤害”。

该法案举例说明了“关键危害”,例如不法分子使用人工智能模型制造导致大量伤亡的武器,或指示某人策划一次造成超过 5 亿美元损失的网络攻击(相比之下,CrowdStrike 的故障估计造成的损失超过 50 亿美元)。该法案使开发者——即开发模型的公司——对实施足够的安全协议以防止此类结果负责。

哪些模型和公司受这些规则的约束?

SB 1047 的规则仅适用于世界上最大的 AI 模型:那些训练成本至少为 1 亿美元,并且在训练期间使用 10^26 FLOPS(浮点运算,计算的一种测量方式)。这是一笔巨大的计算量,尽管 OpenAI 首席执行官萨姆·阿尔特曼表示GPT-4 的训练成本大约是这个数。这些门槛可以根据需要提高。

今天,很少有公司开发出足够大的公共 AI 产品来满足这些要求,但像 OpenAI、谷歌和微软这样的科技巨头很快就会做到。AI 模型——本质上是识别和预测数据模式的庞大统计引擎——通常随着规模的扩大而变得更加准确,这一趋势被许多人预期将会继续。马克·扎克伯格最近表示,Meta 的下一代 Llama 将 需要 10 倍的计算能力,这将使其受到 SB 1047 的管辖。

当涉及开源模型及其衍生品时,该法案规定原始开发者负责,除非其他开发者花费额外的 1000 万美元创建原始模型的衍生品。

该法案还要求制定安全协议,以防止对受覆盖的人工智能产品的误用,包括一个“紧急停止”按钮,可以关闭整个人工智能模型。开发者还必须创建测试程序,以应对人工智能模型带来的风险,并每年聘请第三方审计员评估其人工智能安全实践。

结果必须是“合理保证”,即遵循这些协议将防止重大伤害——而不是绝对确定性,这当然是不可能提供的。

谁来执行它,怎么执行?

加利福尼亚州一个新的机构,前沿模型委员会,将负责监督这些规则。每个符合 SB 1047 标准的新公共人工智能模型必须单独认证,并提供其安全协议的书面副本。

边界模型委员会将由九人组成,包括来自人工智能行业、开源社区和学术界的代表,由加利福尼亚州州长和立法机构任命。该委员会将向加利福尼亚州检察长提供关于 SB 1047 潜在违规行为的建议,并向人工智能模型开发者发布安全实践指导。

开发者的首席技术官必须向董事会提交年度认证,评估其人工智能模型的潜在风险、安全协议的有效性,以及公司如何遵守 SB 1047 的描述。与违规通知类似,如果发生“人工智能安全事件”,开发者必须在得知事件后 72 小时内向 FMD 报告。

如果开发者的安全措施被发现不足,SB 1047 允许加利福尼亚州的检察长对开发者提起禁令。这可能意味着开发者必须停止运营或训练其模型。

如果发现某个人工智能模型在灾难事件中被使用,加利福尼亚州的检察长可以起诉该公司。对于一个训练成本为 1 亿美元的模型,首次违规的罚款可能高达 1000 万美元,后续违规的罚款可达 3000 万美元。随着人工智能模型变得越来越昂贵,罚款比例也会相应增加。

最后,该法案为员工提供了举报保护,如果他们试图向加利福尼亚州检察长披露有关不安全的人工智能模型的信息。

支持者怎么说?

加利福尼亚州参议员斯科特·维纳(Scott Wiener)是该法案的作者,代表旧金山,他告诉 TechCrunch,SB 1047 旨在借鉴过去在社交媒体和数据隐私方面的政策失败,并在为时已晚之前保护公民。

“我们有一个与技术相关的历史,就是等到伤害发生后再感到焦虑,”维纳说。“我们不要等到坏事发生。我们应该提前采取行动。”

即使一家公司在德克萨斯州或法国训练了一亿美元的模型,只要它在加利福尼亚州开展业务,就会受到 SB 1047 的约束。维纳表示,国会在过去的 25 年里在技术方面“几乎没有立法”,因此他认为加利福尼亚州有责任在这里树立一个先例。

当被问及他是否与 OpenAI 和 Meta 就 SB 1047 会面时,维纳表示“我们已经与所有大型实验室会面过。”

两位有时被称为“人工智能教父”的 AI 研究人员,杰弗里·辛顿和约书亚·本吉奥,已对这项法案表示支持。这两位属于 AI 社区中一个关注 AI 技术可能导致的危险末日情景的派别。这些“AI 末日论者”在研究界存在已久,SB 1047 可能会将他们所偏好的某些安全措施纳入法律。另一个支持 SB 1047 的团体,人工智能安全中心,在 2023 年 5 月写了一封公开信,呼吁世界将“减轻 AI 导致灭绝的风险”与疫情或核战争同等重视。

“这符合加利福尼亚州和美国整体行业的长期利益,因为一次重大的安全事件可能是进一步发展的最大障碍,”人工智能安全中心主任丹·亨德里克斯在给 TechCrunch 的电子邮件中说道。

最近,Hendrycks 自己的动机被质疑。根据一份新闻稿,他在七月公开启动了一家名为 Gray Swan 的初创公司,旨在“帮助公司评估其 AI 系统的风险”。在受到批评认为 Hendrycks 的初创公司如果法案通过可能会获益,可能成为 SB 1047 要求开发者雇佣的审计员之一后,他剥离了在 Gray Swan 的股权。

“我撤资是为了发出明确的信号,”亨德里克斯在给 TechCrunch 的邮件中说道。“如果亿万富翁风险投资者反对常识 AI 安全想要表明他们的动机是纯粹的,那就让他们效仿。”

在安索普提克公司提出的几项修订被添加到 SB 1047 后,首席执行官达里奥·阿莫代伊发布了一封信件,表示该法案的“好处可能超过其成本。”这并不是一种支持,但这是一个冷淡的支持信号。随后,埃隆·马斯克表示他支持该法案。

反对者怎么说?

越来越多的硅谷人士反对 SB 1047。

亨德里克斯的“亿万富翁风险投资反对派”很可能指的是 a16z,这是一家由马克·安德森和本·霍洛维茨创立的风险投资公司,该公司强烈反对 SB 1047。在八月初,这家风险投资公司的首席法律官贾库马尔·拉马斯瓦米向维纳参议员提交了一封信件,声称该法案“将因其任意和不断变化的门槛而给初创企业带来负担”,对人工智能生态系统产生寒蝉效应。随着人工智能技术的进步,成本将越来越高,这意味着更多的初创企业将超过 1 亿美元的门槛,并将受到 SB 1047 的覆盖;a16z 表示,他们的几家初创企业已经获得了如此多的资金用于训练模型。

费菲·李,常被称为人工智能的教母,在八月初对 SB 1047 打破了沉默,在一篇《财富》专栏中写道,该法案将“损害我们新兴的人工智能生态系统。”虽然李是斯坦福大学备受推崇的人工智能研究先驱,但她据报道在四月创办了一家名为 World Labs 的人工智能初创公司,估值达十亿美元,并得到了 a16z 的支持。

她加入了有影响力的人工智能学者行列,例如斯坦福大学的研究员安德鲁·吴,他在七月的 Y Combinator 活动上称该法案为“对开源的攻击”。开源模型可能会给其创造者带来额外风险,因为与任何开源软件一样,它们更容易被修改并用于任意和潜在恶意的目的。

Meta 的首席人工智能科学家 Yann LeCun 表示,SB 1047 将损害研究工作,并基于一小部分妄想智库推动的“存在风险”的“幻觉”,在 X 上的一篇帖子中提到。Meta 的 Llama LLM是开源LLM的最重要例子之一。

初创公司对这项法案也感到不满。人工智能初创公司 Omniscience 的首席执行官杰里米·尼克森以及位于旧金山的人工智能初创公司中心 AGI House SF 的创始人担心 SB 1047 会摧毁他的生态系统。他认为,应该惩罚那些造成重大伤害的不良行为者,而不是那些公开开发和分发技术的人工智能实验室。

“该法案的核心存在深刻的混乱,LLMs 在其危险能力水平上可以有所不同,”尼克松说。“在我看来,所有模型都有法案所定义的危险能力,这种可能性更大。”

OpenAI 反对 SB 1047,并指出与 AI 模型相关的国家安全措施应在联邦层面进行监管。他们已 支持一项联邦法案,该法案将实现这一目标。

但该法案直接针对的大型科技公司也对 SB 1047 感到恐慌。进步商会——一个代表谷歌、苹果、亚马逊和其他大型科技巨头的贸易组织——发布了一封反对该法案的公开信,称 SB 1047 限制了言论自由,并“将科技创新推向加利福尼亚州之外。”去年,谷歌首席执行官桑达尔·皮查伊和其他科技高管支持了联邦人工智能监管的想法。

美国国会议员罗·卡纳(Ro Khanna),代表硅谷,于八月发布了一份反对 SB 1047 的声明。他表达了对该法案的担忧,认为“该法案将无效,惩罚个体企业家和小型企业,并损害加利福尼亚的创新精神。”此后,发言人南希·佩洛西和美国商会也表示该法案将伤害创新。

硅谷通常不喜欢加利福尼亚州像这样制定广泛的科技监管。在 2019 年,大型科技公司 在另一个州的隐私法案——加利福尼亚消费者隐私法案面临改变科技格局的威胁时,也采取了类似的策略。硅谷 对该法案进行了游说,在法案生效前几个月,亚马逊创始人杰夫·贝索斯和其他 50 位高管 写了一封公开信,呼吁制定联邦隐私法案。

接下来会发生什么?

SB 1047 目前在加利福尼亚州州长加文·纽森的办公桌上,他最终将决定是否在八月底之前签署该法案。维纳表示他尚未与纽森就该法案进行交谈,也不知道他的立场。

该法案不会立即生效,因为边境模型委员会计划在 2026 年成立。此外,如果法案通过,它很可能在那之前面临法律挑战,可能来自一些现在对此发声的相同团体。

更正:这个故事最初提到了 SB 1047 关于谁对微调模型负责的先前草稿。目前,SB 1047 规定,衍生模型的开发者只有在其培训费用是原始模型开发者的三倍时,才对该模型负责。

本文翻译自:TechCrunch, California’s legislature just passed AI bill SB 1047; here’s why some hope the governor won’t sign it, https://techcrunch.com/2024/08/30/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/
编译:ChatGPT

-----------END-----------

🚀 我们正在招募新一期的实习生
🚀 我们正在寻找有创造力的00后创业者

关于Z Potentials

Z Potentials
我们与Z Potentials同频共振
 最新文章