人工智能武器应否决定生死?硅谷科技公司与政策制定者的伦理博弈。

文摘   2024-10-12 21:00   日本  

人工智能武器应否决定生死?

硅谷的激烈辩论

硅谷科技公司与政策制定者

如何应对自主武器的挑战

摘要:硅谷科技公司正就人工智能(AI)武器是否应有权自主决定使用武力展开激烈辩论。尽管许多人强调应保留人类对关键决策的控制,但也有声音提出,面对国际对手可能率先采用全自主武器,美国应采取更加灵活的政策。



AI与致命武器的抉择

在9月底的TechCrunch会议上,Shield AI的联合创始人布兰登·曾(Brandon Tseng)坚决表示,美国不会允许完全自主的武器,即不会允许由AI算法最终决定杀伤某个目标。

他强调:“国会不会允许这一点,没有人想要这个结果。” 

然而,几天后,Anduril联合创始人帕尔默·拉奇(Palmer Luckey)在一次演讲中对自主武器表现出开放态度,质疑完全反对自主武器的立场。

他指出,某些现有武器已经在无差别攻击中展示了其危险性,自主AI武器或许能避免类似问题。

现有的武器系统在特定情况下已经自动执行任务,自主AI武器有可能改进这些系统的局限。

虽然拉奇的发言引发了讨论,但Anduril公司随后澄清,拉奇并不主张机器人应自行决定攻击目标,而是担忧“恶意行为者使用不良AI”带来的风险。




硅谷的分歧与谨慎

硅谷的科技公司在涉及致命武器时,往往倾向于保持谨慎态度。

拉奇的联合创始人特雷·斯蒂芬斯(Trae Stephens)曾强调:“我们开发的技术是为了帮助人类做出正确的决策,确保关键的决策中始终有一方负责。”他表示,关键在于确保人类对决定的监督,而非每次都必须由人类直接操作武器。

这种谨慎态度反映出硅谷内部对AI武器的分歧。

有人担心过度保守的立场会使美国在技术竞争中落后于其他国家,而另一部分人则主张严格控制AI武器的自主性,以避免道德与责任上的灰色地带。

在技术竞争中,保持平衡尤为重要,既不能过于保守,也不能忽视责任。




政府政策的模糊性

美国政府在自主武器问题上的立场也不十分明确。

目前,美国军方没有采购完全自主的武器,虽然像地雷和导弹这样的武器可以部分自主操作,但这与能够自主识别并攻击目标的AI武器不同。

美国发布了AI军用安全准则,要求高级军方官员批准任何新的自主武器系统,但这些准则是自愿执行的,且并未明确禁止开发或销售自主武器。

这种模糊态度给企业开发自主武器留出了空间。

去年,Palantir联合创始人乔·隆斯代尔(Joe Lonsdale)在一次智库活动中主张,政策应更具灵活性,以应对不同的战场需求,而非简单化地全面禁止自主武器。

政策应灵活应对,不应仅关注“完全自主或非自主”这一二元对立。




全球竞争与自主武器的未来

尽管一些组织试图推动全球禁止自主武器的协议,但美国并未签署这些协议。

在全球冲突中,AI技术的应用日益重要,尤其是在国家安全与军事领域,自动化武器系统正成为一种竞争优势。部分国家甚至公开呼吁增加武器系统的自动化,以在技术竞争中取得优势。

硅谷和美国的主要担忧是,其他国家可能率先部署完全自主的武器,从而迫使美国在这一领域不得不迅速跟进。

在国际场合,一些国家的代表已经表示,他们在自主武器问题上的优先事项与许多国家不同。

全球竞争推动各国重新评估AI武器的战略意义,尤其是在技术领先的国家中。


未来战争的规则如何制定?

在当前的技术环境下,硅谷公司正努力引导政策的制定方向,帮助政策制定者更好地理解AI武器的潜力。

Anduril和Palantir等公司正在积极推动有关自主武器的讨论,并试图确保美国在这一领域的竞争力。

如何平衡AI武器的技术优势与道德责任,成为未来军事发展的关键问题。


快客硬核AI
“速递AI前沿,解读智能科技”
 最新文章