研究进展:军事人工智能AI治理 | Nature Electronics

文摘   2024-11-30 22:30   北京  

在军事行动中,人工智能artificial intelligence (AI) 正在彻底改变现代战争——这一发展需要强大的治理框架,以降低风险。2024年9月9日至10日,在韩国首尔举行的军事领域负责任人工智能Responsible AI in the Military Domain (REAIM)会议上,军事人工智能治理取得了显著进展。会议由韩国、荷兰、新加坡、肯尼亚和英国共同主办,包括美国、德国、法国和日本在内的61个国家批准了“行动法案” 1。中国派出了一名政府代表参加峰会,但并不支持该文件。会议结束后,又增加了两个国家,使目前的支持国家达到63个。


这一行动法案提供了全面框架,解决了军事背景人工智能应用的全方位问题。然而,将这些高级别原则,转化为可采取行动的科学和技术措施,还面临着相当大的挑战,需要全球科学界,给予紧急关注。


1、在现代战争中,人工智能的作用

目前,在军事行动中,人工智能AI扮演的角色,强调了军事领域人工智能REAIM行动法案的紧迫性,以及全面治理的必要性。传统三军体系——陆军、海军和空军——已经扩展到五军体系,其中包括太空和网络领域,人工智能,将不同的军种连接起来。


在传统军事部门,人工智能通过任务规划、目标识别和威胁评估,以增强决策、优化后勤和提高战斗力。在太空中,人工智能用于处理大量的卫星数据,这对于空间态势感知和探测潜在威胁,至关重要。在网络空间中,人工智能可增强防御和进攻能力,更快地检测和响应网络威胁,同时还可识别系统中的漏洞。人工智能,还促进了自主和半自主系统的发展,包括无人机和无人驾驶车辆,正在重塑侦察、作战和后勤支援行动2。


2、军事人工智能AI治理

一些倡议试图解决围绕军事人工智能的道德、人道主义和安全问题。2009年,成立了国际机器人武器控制委员会International Committee for Robot Arms Control (ICRAC; https://www.icrac.net);2013年发起《阻止杀手机器人运动Campaign to Stop Killer Robots》 (https://www.stopkillerrobots.org/stop-killer-robots)引起了学术界和公众,开始关注自主武器的伦理问题。这些民间社会倡议强调,必须采取先发制人的措施,防止开发和部署致命自主武器系统。


在2014年,正式外交努力获得了势头,当时《联合国特定常规武器公约》 United Nations Convention on Certain Conventional Weapons (CCW)3,开始通过非正式专家会议,解决致命性自主武器系统问题。2016年,第五次审查会议决定成立致命性自主武器系统政府专家组Group of Governmental Experts (GGE)4,该专家组于2017年,举行了第一次会议。尽管进行了广泛的讨论,但由于不同国家利益和快速发展技术的复杂性,关于约束性法规的共识,仍然难以达成。


2023年2月,在海牙举行REAIM峰会提出了“ 2023行动呼吁” 5,强调了军事领域负责任人工智能的必要性,并为REAIM法案奠定了基础。在同一届REAIM 2023峰会上,美国负责军备控制的副国务卿邦妮·詹金斯(Bonnie Jenkins),最初提出了美国自己的“关于负责任地,在军事上使用人工智能和自主的政治宣言”。经过进一步修订,最终版本于2023年11月公布,概述了十项原则,以确保根据国际法负责任和合乎道德地使用军事人工智能能力6。虽然该宣言补充了REAIM更广泛的目标,但为各国提供了更具体的业务准则。2024年3月,美国主办了执行《宣言》的首次全体会议,得到了54个国家的认可7。这些发展反映了,国际社会对军事人工智能治理,需要采取具体行动的共识日益增强,但也凸显了将原则转化为实践的复杂挑战。


3 行动法案Blueprint for Action

REAIM法案声称,军事领域的人工智能应用,应以维护和不破坏国际和平、安全和稳定的方式进行开发、部署和使用。既承认人工智能的潜在好处(如增强态势感知和精确度)也承认人工智能的风险,包括因设计缺陷或误用而产生的意外后果。还强调了政策关注高影响力应用的必要性,如人工智能武器和决策支持系统。


此外,REAIM法案确认,人工智能应用必须遵守国际法,包括国际人道主义法。强调了人类责任和问责的重要性,说明这些责任和问责不能转移到机器上,并呼吁人类适当参与人工智能在军事领域的部署和使用。法案促进制定严格的测试、验证程序和强有力的监督机制等措施,并强调国际合作和能力建设的重要性,特别是对发展中国家的重要性。


然而,这种全面方法,需要重新评估人工智能治理,如何与现有的军备控制条约和安全协定交叉,从而带来新的科学和技术挑战。REAIM法案的更广泛范围,也反映出,不仅迫切需要管理自主武器,还需要管理所有可能影响军事行动和国际安全的人工智能技术。


4、科学挑战

军事人工智能的挑战应对,需要在几个关键领域进行重点研究和国际合作。关键挑战之一是,确保在战斗情况时,以机器速度运行的人工智能系统,有意义的人类控制。传统人类决策过程,并不适合人工智能驱动战争的快节奏。研究必须专注于开发自适应界面,根据认知负荷和情境紧迫性动态调整信息流。


另一个关键问题是,人工智能集成到核战指挥和控制系统中。这些系统所要求的绝对可靠性,不会给错误留下任何余地,而人工智能的引入,会产生多层复杂性和潜在的脆弱性。扩展形式验证方法以包含复杂AI算法是必要的。这需要在所有可能的情况下,开发人工智能行为的可证明保证。这些努力,对于维持战略稳定和防止因人工智能误解而导致的意外升级,是至关重要。


军事行动中,对可解释人工智能的需求,在透明度和行动安全之间引入了微妙平衡。军事决策通常涉及机密信息,但国际问责制要求人工智能决策过程,具有一定程度的透明度。开发特定领域的解释方法,在不损伤敏感细节的情况下,提供有意义的见解,是非常必要的。


在这一努力中,科学界可发挥关键作用。随着人工智能不断重塑战争本质,对负责任的创新和治理,将决定这些技术是增强全球安全,还是加剧现有威胁。当人类站在人工智能军备控制的黎明破晓时,很明显,只有通过严格的科学调查、道德考量和国际团结,才能应对军事人工智能带来的复杂挑战,并确保有助于建立一个更安全、更有保障的世界8。


参考文献
1. REAIM Blueprint for Action https://go.nature.com/3YoZb8m (REAIM, 2024).
2. Adam, D. Nature 629, 521–523 (2024).
3. The Convention on Certain Conventional Weapons (CCW). UNODA https://go.nature.com/3YkNNu9 (1980).
4. Group of Governmental Experts (GGE) on Lethal Autonomous Weapons Systems (LAWS). UNODA https://go.nature.com/3UoDouY (2017).
5. REAIM 2023 Call to Action https://go.nature.com/48aupTR(REAIM, 2023).
6. Bureau of Arms Control, Deterrence, and Stability. Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy. US Department of State https://go.nature.com/486eupA (2023).
7. Ofice of the Spokesperson. Inaugural Plenary Meeting for the Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy. US Department of State https://go.nature.com/3YpRn6v (2024).
8. Russell, S. Nature 614, 620–623 (2023).


文献链接

Jon, W. Scientific challenges in governing military AI. Nat Electron 7, 936–937 (2024). 

https://doi.org/10.1038/s41928-024-01275-0

https://www.nature.com/articles/s41928-024-01275-0

本文译自Nature。

来源:今日新材料

声明:仅代表译者观点,如有不科学之处,请在下方留言指正!


MOFs帮助环境
推送MOFs基环境功能材料在环境污染控制领域的研究进展。
 最新文章