【人工智能与导弹专题】现代战争中的人工智能和军备控制-1.6万字

文摘   2024-11-10 10:28   贵州  

戈迪·乌瓦·奥西门,Oluwamurewa Newo奥卢瓦克米·莫罗拉·富拉尼

这项工作评估了人工智能 (AI) 对现代战争的影响。人工智能导致了一场新的军备竞赛,这影响了 21 世纪超级大国之间的军事动态。该研究旨在从道德、国际人道主义法和军备控制的角度评估人工智能武器的传播。本研究使用了二手数据,并采用探索性和描述性研究设计以及数据综合的主题分析。采用技术决定论和后果论理论来观察技术进步对武器的影响以及这些武器的道德后果,以在战斗场景中保护人权。研究发现,人工智能导致了超级大国之间的新一轮军备竞赛,有必要倡导军备控制措施,以促进国际和平与安全。还详细介绍了人工智能与武器扩散之间的交集,以及它如何影响和平与安全动态。最后,该研究重申了制定实质性国际人道法和针对致命和自主武器的军备控制努力的必要性。

人工智能 (AI) 的出现导致了由 AI 提供支持的人类努力不同领域的新技术的发展。目前,用于 AI 的公共和私人资金都显著增加。越来越多的国家正在制定自己的国家 AI 战略和计划,并为未来制定具体目标。人工智能系统的潜在好处是广泛的,特别是当应用于战略研究和现代战争时(Erdem & Özbek,引文2023).

人工智能与安全研究的相关性涉及多个维度,从假新闻的传播到监控技术和导弹防御系统。国防部队旨在利用各种 AI 应用程序,因为他们负责该领域多个维度的进步,例如科学探索、人道主义援助工作、医疗后送服务和军事护送。人工智能在国防和安全领域的应用是当今人工智能发展中最敏感和高风险的领域之一。某些方面,例如将人工智能用于非暴力防御目的,例如一般数据分析、网络防御、情报收集、监视和侦察、预测性维护和物流,同样存在争议(艾哈迈德,引文2019;Blasch 等人,引文2019;Erdem & Özbek,引文2023).

人工智能与现代战争相关,包括能够自主飞行的无人机 (UAV) 到人工智能驱动的网络武器和具有高级导航能力的无人地面车辆 (UGV) 的开发。将人工智能集成到军事系统中已经显著改变了战争的性质(Rolly 等人,引文2022).自主系统集成了人工智能和现代火炮以及其他军事设备,其中包括一系列致命和非致命的小工具。

这些武器可以在太空、陆地、空中甚至水的不同条件下工作,无需人工干预即可执行从监视和监控到定向攻击的各种活动。这项新技术与监测和战略研究相关,因为它可以根据收集的数据测试可能的行动方案,并通过优化和验证算法处理信息,并以类似于人类的方式选择行动。(卡明斯,引文2017;福尔纳西尔,引文2021).

自主系统和自动化武器具有不同的功能,而自主武器是人工智能驱动的武器,旨在独立工作并在没有人工干预的情况下执行任务。自动化武器由人类远程控制,包括导弹和无人机,它们完全由人类从远程位置提供动力(Erdem & Özbek,引文2023).虽然远程控制允许人工监督,但 AI 系统可能会表现出不可预测的行为或不完全理解的错误。这种不可预测性需要额外的监管措施。有必要进行适当的军备控制,以限制这些武器的使用,并确保国际法典得到维护,人权在所有情况下都得到充分保护(Daudu 等人,引文2023;Erdem & Özbek,引文2023).

本研究考察了人工智能在现代战争中的发生率,指出了军备控制的必要性,并重申了国际人道法在该主题上的作用,这项工作旨在观察有关现代战争中人工智能和军备控制的文献趋势,而不是提供系统的文献综述。为了实现这一目标,该研究采用了二次研究方法,该方法涉及对先前研究的主题分析,并根据其内容与所观察到现象的分析的相关性来选择被评估的文献。研究设计遵循描述性和探索性方法来收集和分析有关相关变量的数据。该研究分为引言、概念回顾、理论框架、文献综述,主题评估了研究结果以及结论和建议。

人工智能

人工智能是使计算机能够执行人类通常执行的任务的尝试。它指的是计算机执行通常需要人类智力的任务的能力(Bode & Huelss,引文2022).AI 是指可以执行被认为只有人类才能执行的复杂任务的代码和算法。为 AI 提供支持的算法使用不同的模型,例如深度学习、自然语言处理、计算机视觉、智能自动化、神经网络、数据、传感器等,以看似人类的精度执行任务。人工智能可以应用于不同的努力领域,并正在迅速改变人类处理事务的方式(Erdem & Özbek,引文2023).Atashbar (引文2023) 解释说,AI 旨在通过机器学习 (ML) 在现实生活中使用计算机系统来重现人类认知,机器学习 (ML) 采用计算机算法来发现见解、协助决策过程并提高性能。AI 和 ML 协同工作,创建数字系统,负责执行过去被认为仅在人类认知范围内的活动。

军控概念

军备控制可以被描述为各方为限制可能在冲突局势中使用的武器而达成的协议。Erdem & Özbek (引文2023)将其视为根据国际协议的要求在数量和质量方面限制某些武器。军备控制与裁军不同;前者涉及限制生产和部署武器,而后者则涉及废除武器。

弗雷 (引文1988)指出,军备控制是限制国际上使用的武器水平的一种零碎的方法。这可以通过减少一个地区的武器数量、降低所用武器的质量和数量、限制使用这些武器执行的方法和操作以及对选定的攻击目标进行克制来实现。军备控制是必要的,因为它降低了战争的可能性,限制了战争造成的痛苦和损害,节省了资源并限制了与武器相关的支出,并且它是冲突管理的重要组成部分,因为它允许敌对各方之间进行对话和谈判。国际人道法指导军备控制的实施,因为《日内瓦公约》的不同条款详细规定了不应在战斗中使用的特定武器,以及在战斗情况下应如何使用某些武器。军备控制可以通过各种方法建立,例如具有法律约束力的条约、源自国家实践的习惯国际法或不具有法律约束力的文书。有效的军备控制也可以通过没有明确说明但会导致国家之间相互克制的隐性协议来实现。

战争的概念

战争是指两个或两个以上的敌对方通过炮火进行敌对行动的激烈武装冲突。简单地说,就是战争的行为。克劳塞维茨普遍将战争定义为通过其他方式进行政治交往的延续。它正在利用侵略、敌意和硬实力来实现政策目标的目的。纵观历史,由于革命性的发现和对技术的创新使用,战争发生了重大变化。这些进步和启示导致了军事原则、作战战略和组织结构的重大转变,最终改变了军事努力的性质和实施(Panwar,引文2017).

传统战争包括有组织的军队在国家间冲突期间参与战斗,国家是军事参与的主要资助者。现代战争在行为者和行为方面更具活力。就行为者而言,国家内部冲突现在以内战的形式变得更加普遍;此外,国家与交战国之间还存在非国家行为者、恐怖组织、有组织犯罪集团等形式的冲突。在行为方面,冷战改变了对战争的陈旧理解,即敌对双方从未进行过肉体战争。这是两个派系之间的意识形态战争。游击战的出现也导致了一种非常规的战争方式。与传统战争相比,现代战争的目标也不同。以前,两支军队会积极地相互对抗,受害者只是战斗员;现在,平民和其他非战斗人员已成为现代战争的牺牲品,尽管这与国际人道法直接而明显地相悖(Miyata,引文2021).

理论框架 – 技术决定论和结果论

技术决定论是一个理论框架,它将技术定位为社会变革和发展的主要驱动力(钱德勒,引文1995).根据这一理论,技术创新可以塑造人类行为、文化、政治和经济,通常影响历史事件的轨迹。技术决定论强调技术的自主性和决定性性质,认为它的发展遵循其内部逻辑和轨迹,通常与社会或文化因素无关(Fischer,引文1992).该理论出现在 19 世纪末和 20 世纪初,并由马歇尔·麦克卢汉 (Marshall McLuhan) 和托尔斯坦·凡勃伦 (Thorstein Veblen) 等思想家传播。引文2023).

技术决定论的核心假设之一是技术自主发展,独立于人类影响或社会条件。它通常被视为社会必须适应的不可阻挡的力量,而不是可以被社会行为控制或重大影响的东西(Goguen,引文2001).另一个假设是技术是社会变革的主要驱动力,掩盖了政治、经济或文化等其他因素。技术决定论者经常指出技术导致重大社会转变的历史例子,例如印刷机的发明、识字术的传播以及改变经济和社会结构的宗教改革或工业革命。它强调技术在推动历史和社会变革中的首要地位。它假设技术按照其逻辑发展,并且它的采用会导致社会结构和价值观的不可避免的变化(Mark,引文2022).

该理论因其对技术的决定论观点以及忽视对技术发展和采用的社会、文化和政治影响而受到批评(Feenberg,引文1999).批评者认为,技术是由社会价值观、权力动态和制度结构塑造的,这表明对技术与社会之间的关系有更细致的理解(Williams & Edge,引文1996).尽管受到批评,但技术决定论为人工智能对战争和军备控制的影响提供了宝贵的见解,强调了技术对社会和国际关系的影响。然而,政策制定者有权优先考虑或取消对用于军事目的的人工智能投资的优先级,这凸显了在技术势头建立之前做出战略决策的重要性。这种观点强调了人类能动性在塑造技术进步中的关键作用。因此,与技术决定论一起,决策和政策制定也发挥着同样关键的作用。人类决策(即在编程等中)所扮演的角色是允许我们建议为和平的利益而采用规范/限制/框架这些(人类)决策的法律规则的要素。

技术决定论为人工智能和军备控制在现代战争中如何交叉提供了有价值的视角。它表明,人工智能等军事技术的进步可以极大地影响战略互动、冲突解决和军备控制努力(达福,引文2015).随着 AI 能力的发展,它们通过影响军事战略、战术和决策过程来塑造战争的性质,反之亦然;无论是在战争还是其他领域,获得支持和资助的 AI 类型都由决策过程决定。技术进步与资助技术的政治决策之间的这种错综复杂的关系是必不可少的,也是不可避免的。技术决定论和在战争中使用先进武器会产生后果,这就是刺激使用结果论的原因,即第二种理论。

后果主义是一个哲学框架,它根据行动的结果来评估行动,将它们分为对、错或中立。它由三个关键部分支持:定义什么使后果证明行动的合理性,建立确定道德地位的标准,并指定这些标准的适用范围(Jamieson & Elliot,引文2009).后果主义是一种道德学说,它认为行为的道德性是基于其结果的。虽然它缺乏对善与恶的明确定义,但它强调了维护社会原则的重要性,尤其是人权。它促进遵守当地和国际法律,以保护国内和全球范围内的人权(Caws,引文1995;肖引文2014).

尽管国家拥有自卫的合法权利,但即使在采取极端行动维护国家利益的情况下,优先考虑包括平民和战斗员在内的所有人的福祉也至关重要(Daudu 等人,引文2024).技术决定论的概念有助于理解技术的进步,特别是人工智能,如何在武器扩散的增加中发挥作用。虽然技术决定论是一个重要因素,但决策过程在这一领域也起着至关重要的作用。布什和奥巴马政府过去的选择以及中国的战略凸显了政策的重要性。美国和中国都严重依赖人工智能来确保国家安全,增强战斗网络并在现代战争中保持领先地位。

然而,后果论承认积极和消极的结果。AI 武器可以改善监控和情报收集并减少伤亡,但它们也可用于定向攻击和非法杀戮。这些理论促使人们评估人工智能在现代战争中的战略影响及其对全球稳定的影响,以及有关国际法和人权保护的道德考虑。

本文节选自文中的一部分,原文及全文翻译均上传知识星球:

还有以下技术文件,已上传知识星球:

近期上传资料如下:

【智慧兵棋推演专题】美国在人工智能兵棋推演的使用介绍--21份技术资料,超50万字的干货

提高空中和导弹防御(AMD)系统在人类与人工智能之间的信任-182页论文+145页技术论文

工智能用于防空和导弹防御安全风险评估的技术报告-162页

基于代理的模型对马赛克战争的建模技术介绍-涉及180页资料共计13万字的干货

【人工智能与杀伤链专题】以机器速度做出决策:将 AI 引入命令链-含30份技术资料-共406页-超100万字干货

【反无人机蜂群专题】关于在战斗中对小型无人机蜂群防御和手段-涉及28份资料-超100万字

海军兵棋推演战斗管理辅助工具中的博弈论和规范分析-2022最新84页论文

多域作战中的风险感知-美国陆军55页报告

游荡弹药和不可预测性:武器系统的自主性和对人类控制的挑战-72页

技术报告基于人工智能(AI)的空中和导弹防御(AMD):以结果为导向的辅助决策-145页

近日推出反无人机专题-含关于在战斗中对小型无人机蜂群防御和手段-涉及28份资料-超100万字

本文节选自原文的一部分内容,原文进入知识星球下载:

软件工程技术交流
本公众号用于分享软件设计/软件工程化管理/CMMI/GJB5000等技术知识,将分享关于嵌入式软件设计/编码/测试等技术知识,同时分享软件工程的管理经验。
 最新文章