《分布式战争:重构关于自主武器、人为控制和目标定位中的法律合规性》300页

学术   2024-11-12 08:03   北京  

专知智能防务
 2024年11月12日 07:59  听全文
军事技术在当代目标选择实践中发挥着重要作用。过去,技术影响了战争,未来,技术可能会成为军事武库中更加不可或缺的部分。目前,世界各国政府都在追求各种各样的技术。
可以说,在过去十年中,三个相辅相成的因素导致了人工智能领域的突破,而这三个因素又可能导致全世界对智能和自主技术的兴趣:廉价的计算、新颖的算法和大量(训练)数据使得以前只属于科幻小说和学术理论范畴的基于人工智能的新服务成为可能。换句话说,当前人们对这些技术的热情得益于大数据的可用性,大数据为大幅改进机器学习方法(人工智能的一种方法)和算法提供了训练材料,而机器学习方法和算法又依赖于更强大的计算机能力。
这种技术进步可以用各种突破来说明。国际象棋、国际跳棋、围棋和《危险!危险!》等游戏就是人工智能能力不断提升的最常见例子。跳棋在 1994 年被机器打败,三年后,IBM 的 “深蓝 ”击败了国际象棋世界冠军加里-卡斯帕罗夫。计算机版围棋(被认为是比国际象棋复杂得多的游戏)和 IBM 的沃森(Watson)对战《危险!》(潜在问题的范围更广)也紧随其后,从人类对手手中胜出。人工智能领域,尤其是学习领域取得的这些和其他巨大成就,正被广泛应用于各行各业,如医疗保健(如医疗诊断)、交通(自动驾驶)、金融(如股票价格预测)和执法(如预测性治安)。这些通常在民用领域开发的技术在军事领域也发挥了重要作用。早在六十年代,美国就开发出了 “爱国者 ”地对空导弹系统,该系统可自主执行搜索、探测、评估、跟踪、交战和杀伤评估功能,以抵御特定区域的快速移动和高机动性威胁。最近,美国国防部与谷歌公司共同开发了一种机器学习工具,用于自动处理无人机拍摄的画面,以支持 “打败-ISIS ”行动;美国陆军正在开发一种先进的自动瞄准和杀伤系统(ATLAS),旨在为地面车辆提供获取、识别和攻击目标的能力。从全球对智能和自主技术的投资(最突出的是中国和美国)可以看出,人工智能将继续存在,并将继续在民用和军用领域进行整合。
在所有这些活动中,人们对智能和自主技术的未来产生了各种各样的想象。其中一种特别突出的看法--经常出现在媒体上,也反映在政治辩论中--是一种离散的机器,通常是一个具有类似人类的外形和意识的单一实体,它有伤害人类的倾向,甚至会使人类彻底灭绝。
虽然国际上对武器化智能和自主技术的争论相对较新,但几十年来这类武器一直是军事武库的一部分。例如前面提到的爱国者导弹系统,该系统开发于六十年代,八十年代投入使用,还有类似的系统,如用于防御舰船的美国 “法兰克斯 ”近防武器系统和以色列的 “铁穹 ”系统;所有这些系统都能自主执行搜索、探测、评估、跟踪、交战和杀伤评估功能,以防御舰船或地面区域受到快速移动和高度机动的威胁。这些早期的人工智能系统有时被称为自动化系统,是典型的基于规则的系统,计算机程序只需遵循一套预定义的指令,就能知道在特定情况下应如何行动。尽管这类技术已被证明(并将继续被证明)对军队非常有价值,但智能和自主技术领域的最新进展可能使系统更加复杂,应用范围更加广泛。
因此,智能和自主技术不仅仅与武器系统相关。无论如何,《特定常规武器公约》主持下的外交努力继续关注自主武器。经过六年的审议,各国正面临越来越大的压力,要求在全球层面取得切实成果,如政治宣言(由德国和法国提议)、具有法律约束力的文书(得到 28 个国家和 “制止杀手机器人运动 ”的支持)或其他形式的全球治理(如印度大使兼 2017 年和 2018 年《特定常规武器公约》会议主席阿曼迪普-吉尔建议的分布式技术治理)。由于与会者似乎一致认为所有武器系统都应受到某种形式的人类参与,因此他们提出了各种概念来体现这一目标,如 “有意义的人类控制”、“适当程度的人类判断 ”和 “充分的人类参与”。特别是 “有意义的人为控制 ”这一概念,立即获得了广泛的支持,但也付出了人们所熟悉的法律-政治代价:没有人知道这一概念在实践中究竟意味着什么。
本论文的下一章介绍了指导本研究的过程。本研究的资料来源多种多样,但在很大程度上是基于在联合国和北约社区(包括一些特定的美国和荷兰背景)内进行的实地调查,这些社区参与了当代目标瞄准行动的规划、执行和评估。第 2 章讲述了是如何进入并研究这些实践的。将至少深入介绍是如何进入五角大楼并成为一名 “合格的目标瞄准者 ”的、这一特殊权限的优势和局限性、是如何定位自己的,以及更广泛地说,本研究中应用的方法和视角。
本论文第 3 章对自主武器的讨论--主要是在联合国《特定常规武器公约》的支持下进行的--进行了研究。作为开篇章节之一,它为进一步讨论奠定了基础。虽然合乎逻辑的第一步可能是介绍自主武器的定义,但本章采用了不同的方法。相反,它探讨了定义上的争议以及似乎使这方面的讨论复杂化的各种潜在因素。似乎正在形成一种共同的语言来描述自主武器,但对其中的术语却没有共同的理解。这大大增加了《特定常规武器公约》内外的辩论的复杂性,并使提出一个可能在有关各方之间达成一致的定义的任何尝试都徒劳无功。除了争议之外,本章还探讨了一些 “新出现的共同点”。然而,弥漫在这些争论中的语言不确定性使好不容易达成的一致变成了空洞的,或至少是弱化的共识主张。在这场辩论中引入的任何定义或共识主张似乎都会在参与者之间产生不同的解释。这就提出了一个问题(将在以下章节中讨论):这些主张究竟意味着什么?
这些共识主张之一涉及法律的适用和解释,特别是针对目标的法律。律师和《特定常规武器公约》辩论的其他参与者经常一致认为,瞄准法适用于自主武器,但这在实践中的实际意义仍不清楚。第 4 章将展示传统法律方法的局限性,在这种方法中,通常讨论的是与自主武器相关的规则。首先,将仔细研究关于自主武器本身合法性的讨论、关于根据现有瞄准法合法使用自主武器的主张以及关于现有法律责任框架的争论。然后,在本章的第二部分,将继续探讨本研究对当前辩论的主要贡献:这些规则在当代军事实践中的实际执行。本章最后一部分以及第 5 章和第 6 章所采用的视角不是将目标定位法和法律责任框架视为一套规则,而是将法律视为 “给定”,重点关注这些规则如何在实践中操作(即转化为具体行动)。本章最后一部分将通过审查当代目标设定中的责任实践,说明以实践为导向的方法的价值,这种方法侧重于组织层面的军事行为和决策。
第 5 章的主要目的是仔细研究第二种共识主张:为确保合法使用自主武器,某种形式的人类参与是必要的。虽然 “有意义的人为控制 ”这一概念是自主武器辩论中最流行的主题之一,但似乎没有人清楚地了解这一概念在实践中的实际含义。第 5 章针对这一空白,详细介绍了目前组织人类控制的操作环境。与其争论有关人类控制的抽象理论,不如加深对实践背景的理解,这一点似乎尤为重要。第 5 章将通过两个详细的案例研究以及对军事理论和实践中控制权的考察,说明军事决策中控制权的分布性质;这种行为在过去几十年中影响了行动,并继续成为当代目标设定的标准。如果要将这一概念作为评估智能和自主技术的有用视角,并确保在当代和未来的行动中符合法律规定,那么这一视角--目前在有关人类控制的辩论中缺乏的视角--可能是必要的。
虽然第 4 章和第 5 章都对行动背景进行了介绍,但还没有对组织层面的法律实施和人为控制进行全面分析。在此背景下,第 6 章的目的是对目标设定过程进行全面而详细的评估,考虑:(1) 哪些主要任务由谁执行(以充实人力控制的分布式性质);(2) 法律,特别是目标设定法,在这些阶段是如何运作(在实践中执行)的。在法律讨论中,通过提及法律顾问的作用来讨论法律的作用是很常见的。事实上,军人在遇到有关法律的问题时,往往会向律师寻求建议。但法律并不仅仅是通过法律咨询引入目标设定过程的。本章的分析将通过北约和美国目标设定实践中的真实案例,对军事组织如何利用程序、结构、准则、方法、人员和技术在一定程度上促进各级决策遵守法律提供新的见解。了解如何在军事行为和决策中实施人为控制和目标定位法,将有望在整个作战范围内更好地遵守法律--即使或特别是在引入日益智能和自主技术的情况下。
最后,基于第 6 章中确定的控制和法律实施的分布式性质,第 7 章强调--除其他方面外--需要改变对自主武器的描述。通过摒弃以技术为中心的观念,将 “自主武器 ”作为一个孤立的分析对象,转而在人类与技术可能合作的背景下审视人类与技术之间的关系,可能会产生新的问题。在最后一章,将通过一些不详尽的示例来说明,当采用这种方法时,可能会产生哪些问题,从而也会考虑那些不太 “显眼 ”的非武器化军事技术,例如,决定决策者了解作战环境所需的信息、计算武器效果、预测和建议行动方案以及标记和标注潜在目标的技术。在目标选择过程中,这些技术--特别是那些集成在目标开发早期阶段和规划阶段的技术--将不可避免地影响该周期后期阶段的目标选择决策,包括使用武力的决策。最后一章将说明这些技术如何在军事行为和决策中改变人的控制和守法行为--既带来好处也带来风险--并以此论证进一步研究这类技术变革潜力的必要性。
专知便捷查看

点击左下角“阅读原文”或复制以下网址查阅

https://www.zhuanzhi.ai/vip/0817b4b3ff9285b7db9ce7c00ecbc858


  • 欢迎微信扫一扫加专知助手,咨询服务报告资料整理定制


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
素材来源官方媒体/网络新闻





人机与认知实验室
人机交互与认知工程实验室 联系方式:twhlw@163.com
 最新文章