普林斯顿大学:限制AI访问将带来负面影响。LeCun:开源终将胜利!

旅行   2024-10-16 00:00   北京  

人工智能真的需要上锁吗?

普林斯顿大学的研究人员最近发出警告:限制对AI模型内部结构的访问可能弊大于利

在10月10日发表于《科学》杂志的一篇文章中,普林斯顿大学计算机科学教授Arvind Narayanan和研究生Sayash Kapoor与其他顶尖大学的研究人员一起,深入探讨了限制AI模型访问可能带来的负面影响:

  • 扼杀创新:限制工程师改进和调整模型的能力。

  • 增加不透明性:模型运作变得更加神秘莫测。

  • 权力集中:技术控制权集中在少数个人和公司手中。

Arvind Narayanan教授

研究团队并非对AI滥用的风险视而不见。

他们详细讨论了AI在虚假信息传播、黑客攻击、生物恐怖主义和生成虚假图像等领域的潜在威胁。但他们认为,与其限制访问,不如采取更有效的方法来应对这些风险

以AI生成钓鱼邮件为例,研究人员指出:

钓鱼攻击的关键瓶颈通常不是邮件文本,而是下游的安全措施:现代操作系统、浏览器和电子邮件服务实施了多层保护来防范此类恶意软件。

这意味着,加强防御比限制AI访问更为有效

近年来,AI的迅速崛起确实引发了监管呼声。白宫和欧盟都在考虑对AI技术进行规范。

争议的焦点在于像GPT-4和Llama 2这样的基础模型的构建代码和数据。这些模型可以被用来撰写报告、创作图形和执行其他任务。

模型的发布方式主要分为三类:

  • 开放模型:完全公开供公众检查

  • 封闭模型:仅对设计者开放

  • 混合模型:部分保密,部分公开

虽然这种区分看似技术性,但对监管至关重要。研究人员表示,大多数对AI模型的担忧都与模型可能被恶意利用有关。限制对模型的访问是一种防范滥用的选择,监管者可以要求开发者阻止外部访问,或者让开发者对模型被他人滥用负法律责任。

然而,研究人员发现,现有证据并不表明开放模型比封闭模型或通过标准研究技术(如在线搜索)获得的信息风险更大。他们在今年早些时候的国际机器学习会议上发表的一篇文章中得出结论:限制对模型的访问并不一定能限制滥用的风险

这部分是因为即使是封闭模型也可能被破解,部分是因为恶意行为者可能已经通过搜索引擎在互联网上获得了相关信息。

研究人员强调:

正确描述开放基础模型的独特风险需要关注边际风险:相对于封闭基础模型或预先存在的技术(如搜索引擎),开放基础模型在多大程度上增加了风险。

这并不意味着我们应该完全开放所有模型。在某些领域,封闭模型可能确实是最佳解决方案。但研究人员认为,监管者需要仔细考虑限制访问是否真的是防止伤害的最佳方式

他们总结道:

对于许多威胁向量,现有的边际风险证据是有限的。这并不意味着开放基础模型在这些向量上不构成风险,而是需要更严格的分析来证实政策干预的合理性。

普林斯顿大学计算机科学系

这项研究为我们提供了一个全新的视角:在AI监管中,开放可能比封闭更有利于安全。它挑战了我们对AI安全的传统认知,提醒我们在制定政策时需要更加谨慎和全面的考虑。

如何在创新与安全之间找到平衡,将是一个持续的挑战。Yann LeCun(@ylecun) 对该研究表示支持:

开源AI胜利!

这一观点得到了不少人的赞同。

Vincent Karaboulad(@VKaraboulad)评论点赞:

你对开源AI的推动是我一直感谢你的一件事🙏

Abhay Rao 则戏称:

你又在黑OpenAI 了!

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章