人工智能武器应否决定生死?
硅谷的激烈辩论
硅谷科技公司与政策制定者
如何应对自主武器的挑战
AI与致命武器的抉择
在9月底的TechCrunch会议上,Shield AI的联合创始人布兰登·曾(Brandon Tseng)坚决表示,美国不会允许完全自主的武器,即不会允许由AI算法最终决定杀伤某个目标。
他强调:“国会不会允许这一点,没有人想要这个结果。”
然而,几天后,Anduril联合创始人帕尔默·拉奇(Palmer Luckey)在一次演讲中对自主武器表现出开放态度,质疑完全反对自主武器的立场。
他指出,某些现有武器已经在无差别攻击中展示了其危险性,自主AI武器或许能避免类似问题。
虽然拉奇的发言引发了讨论,但Anduril公司随后澄清,拉奇并不主张机器人应自行决定攻击目标,而是担忧“恶意行为者使用不良AI”带来的风险。
硅谷的分歧与谨慎
硅谷的科技公司在涉及致命武器时,往往倾向于保持谨慎态度。
拉奇的联合创始人特雷·斯蒂芬斯(Trae Stephens)曾强调:“我们开发的技术是为了帮助人类做出正确的决策,确保关键的决策中始终有一方负责。”他表示,关键在于确保人类对决定的监督,而非每次都必须由人类直接操作武器。
这种谨慎态度反映出硅谷内部对AI武器的分歧。
有人担心过度保守的立场会使美国在技术竞争中落后于其他国家,而另一部分人则主张严格控制AI武器的自主性,以避免道德与责任上的灰色地带。
在技术竞争中,保持平衡尤为重要,既不能过于保守,也不能忽视责任。
政府政策的模糊性
美国政府在自主武器问题上的立场也不十分明确。
目前,美国军方没有采购完全自主的武器,虽然像地雷和导弹这样的武器可以部分自主操作,但这与能够自主识别并攻击目标的AI武器不同。
美国发布了AI军用安全准则,要求高级军方官员批准任何新的自主武器系统,但这些准则是自愿执行的,且并未明确禁止开发或销售自主武器。
这种模糊态度给企业开发自主武器留出了空间。
去年,Palantir联合创始人乔·隆斯代尔(Joe Lonsdale)在一次智库活动中主张,政策应更具灵活性,以应对不同的战场需求,而非简单化地全面禁止自主武器。
政策应灵活应对,不应仅关注“完全自主或非自主”这一二元对立。
全球竞争与自主武器的未来
尽管一些组织试图推动全球禁止自主武器的协议,但美国并未签署这些协议。
在全球冲突中,AI技术的应用日益重要,尤其是在国家安全与军事领域,自动化武器系统正成为一种竞争优势。部分国家甚至公开呼吁增加武器系统的自动化,以在技术竞争中取得优势。
硅谷和美国的主要担忧是,其他国家可能率先部署完全自主的武器,从而迫使美国在这一领域不得不迅速跟进。
在国际场合,一些国家的代表已经表示,他们在自主武器问题上的优先事项与许多国家不同。
全球竞争推动各国重新评估AI武器的战略意义,尤其是在技术领先的国家中。
未来战争的规则如何制定?
在当前的技术环境下,硅谷公司正努力引导政策的制定方向,帮助政策制定者更好地理解AI武器的潜力。
Anduril和Palantir等公司正在积极推动有关自主武器的讨论,并试图确保美国在这一领域的竞争力。
如何平衡AI武器的技术优势与道德责任,成为未来军事发展的关键问题。