驾驭人机协同作战团队

科技   2024-11-23 13:57   北京  
许多美国最高军事指挥官预测,掌握人类与能力日益增强的人工智能算法和自主机器之间的协同作战,将为未来的作战人员提供至关重要的优势。空军参谋长表示,“掌握人机协同的军队将在未来战争中占据关键优势”。同样,陆军未来司令部司令认为,人机结合将导致军事行动的巨大演变,甚至可能是一场革命。
关于人机协同的讨论大多集中在使用机器取代人类作战上。未来的陆军条令希望通过使用自主机器执行危险的侦察任务或突破行动,避免用 “鲜血换取第一次交战”。探索如何使用协同作战飞机的作战人员经常将其用作诱饵、干扰器、主动发射器,以及其他在高度竞争环境中可能会失去的任务。同样,海军对无人舰艇和飞机的期望往往涉及在对抗性环境中运送补给品或反水雷行动等高风险活动。这些概念试图通过使用无所畏惧、不知疲倦的机器来取代人类,从而将人类从战场上最危险的地方移除。
虽然降低美国军人在战斗中面临的风险始终是一个值得追求的目标,但仅仅用机器人代替人类执行同样的任务并不会给未来战争带来革命性的变化。相反,如果军事领导人希望在战场上取得巨大进步,那么人机协同就必须学会如何有效利用其成员的互补技能。
为实现这一目标,军队的人机协同方式应在三个方面做出改变。首先,训练人机协同中人的工作应侧重于本能大脑而非推理大脑。试图让人工智能算法解释它们是如何推理的结果是人机协同效率低下。相反,利用人们与生俱来的无意识识别行为模式的能力似乎能取得更好的效果。其次,军方应确保人工智能开发人员不会为了提高模型的准确性而简单地挑选最低的果实。相反,他们应该在人机协同中开发技能互补而非重复的产品。最后,应避免被人工智能的炒作冲昏头脑。尽管人工智能研究人员取得了令人惊叹的进步,但战争从根本上说是人类的活动,只有人类才能掌握大量的隐性知识。人类仍然是人机协同中最重要的组成部分。

团队的必要性

由于机器智能的工作原理与生物智能的基础大相径庭,人类和机器为人机联合团队带来了不同的优势和劣势。当这些差异得到优化组合时,人机协同就会超越其各部分的总和--在完成指定任务时,人类和机器的表现都会更出色。
遗憾的是,在如何与人工智能和自主机器在联合团队中互动方面,人类的本能往往会将其引入歧途。这些误差导致人机协同在完成任务时的表现不如没有人类参与的人工智能算法--团队的表现不如各部分的总和。如果无效的协作技术导致人机团队在执行军事任务时同样表现不佳,这将陷入两难境地。国防领导层将不得不在允许人工智能在没有人类监督的情况下行动,或将作战优势拱手让给对该技术没有同样道德保留的对手之间做出选择。因此,克服这些挑战并教会人类如何利用人机团队中的互补技能组合,对于确保人类操作员在使用人工智能增强工具时能够有效选择和控制结果,从而确保在未来军事冲突中以合乎道德和负责任的方式使用人工智能至关重要。
了解人类和机器智能的不同优势为成功整合人类与智能机器奠定了基础。在需要分析和记忆海量数据的任务、需要高度准确性的重复性任务或需要超人反应速度的任务上,机器的表现往往优于人类。例如,为玩电脑战略游戏而优化的人工智能通过协调成千上万个广泛分散的单位的活动来实现单一的战略目的,从而战胜人类对手。在这些游戏中,人工智能可以真正大规模地 “分兵进军,联合作战”,这是任何单个人脑都无法理解或应对的。
相比之下,在需要隐性知识和上下文的任务中,或者在人类的感官和推理仍然优于传感器和算法的任务中,人类往往比机器智能更具优势。例如,人工智能也许能通过分析图像确定敌方一营车辆的位置,但它并不了解这些车辆为什么被部署在那个位置,也不知道它们的指挥官最有可能让它们完成什么任务。对于机器来说,大战略将是一个更大的谜团--今天的人工智能算法可以计算出可以打败对手,但它们永远不会理解应该打败哪些潜在对手以及为什么。战争本质上是人类的活动--因此,战争的进行充满了人类的隐性知识和背景,而这些是任何数据集都无法完全捕捉到的。

当前的工作

许多调查如何组建有效人机团队的国防研究计划都侧重于通过开发能够解释其输出背后推理的人工智能算法,来理解和增强人类对机器智能的信任。美国国防部高级研究计划局的 XAI 计划所解释的那样:机器学习的进步......有望生产出能够自主感知、学习、决策和行动的人工智能系统。但是,它们无法向人类用户解释自己的决定和行动。这一点对国防尤为重要,因为国防面临的挑战需要开发更智能、自主和共生的系统。如果用户要理解、适当信任和有效管理这些人工智能伙伴,可解释人工智能将是至关重要的。许多人工智能军事应用的生死攸关似乎更要求军人理解和信任人工智能应用所采取的任何行动背后的推理。
遗憾的是,实验研究一再证明,为人工智能添加解释会增加人类听从人工智能 “判断 ”的可能性,而不会提高团队的准确性。这一结果似乎是由两个因素造成的。首先,人类通常默认其他人说的是真话--如果他们没有发现欺骗的迹象,他们就会倾向于相信队友提供的信息是正确的。由于人工智能从来不会表现出典型的人类欺骗迹象,因此当一个过去被证明是可靠的人工智能解释它是如何得出答案时,大多数人类都会不自觉地认为接受这个结果或建议是安全的。其次,人工智能的解释只向人类提供了人工智能如何得出其决定的信息,并没有提供任何关于应该如何得出正确答案的信息。如果人类不知道如何确定正确答案,那么阅读人工智能解释的主要效果将是增强他们的信念,即人工智能已经严格地应用于该问题。另一方面,如果人类已经知道如何确定正确答案,那么人工智能的任何解释都是多余的--人类已经知道答案是对是错。

更好的方法

与其依赖可解释人工智能来提供有效的人机协同,国防部门应该考虑两种替代方法。一种很有前景的方法是帮助人类建立有效的心智模式,以指导他们与机器同行的互动。有效的心智模式通常在人类团队中发挥着类似的作用--当你与队友长期合作时,你会对他们的优缺点有深刻的了解,并本能地知道如何与他们合作。在现实条件下与机器智能体反复互动,同样可以培养出高效的人机团队。将人工智能原型融入军事演习和训练中(制定安全协议,如人与机器人车辆之间的最小安全距离,或限制人工智能控制设备的复杂性),可以帮助人机团队中的人类元素学习如何与机器 “队友 ”合作。推迟这种学习直到人工智能工具显示出更大的成熟度,有可能会落后于拥有更丰富实战经验的潜在对手。
此外,当国防部门打算让人工智能模型协助人类而不是取代人类时,它需要确保这些人工智能拥有与人类队友互补的技能组合。有时,最容易教人工智能完成的任务是人类已经完成得很好的任务。例如,如果设计一个人工智能模型来识别简易爆炸装置,最简单的任务就是训练它识别伪装不严密的此类装置的图像。然而,对于人机团队来说,最大的价值可能是教会模型识别只有通过对多种传感器类型进行复杂分析才能探测到的简易爆炸装置。即使这第二个人工智能模型在训练集中能检测到的装置比例远小于为识别最简单情况而优化的人工智能模型,但如果它检测到的所有装置都是人类无法检测到的,那么第二个模型对团队就会更有用。国防部门应确保用于评判人工智能模型的指标能够衡量人机联合团队所需的技能,而不仅仅是孤立地评判人工智能模型的性能。
最后,国防部门应确保人类在任何人机团队中都是主导伙伴。人机团队的优势在于能够利用其成员的互补技能来实现优于人类或机器的性能。在这种合作关系中,人类将保持主导地位,因为他们为团队带来的知识和背景能带来最大的价值。战争是人类不可避免的活动。人工智能算法可以学习如何以最佳方式实现目标,但只有人类才能理解哪些目标是最需要实现的,以及这些目标为何重要。只有人类才能理解为什么发动战争--因此,在战争中,人类仍将是任何人机团队中最重要的组成部分。
本文来源:专知智能防务

 关注公众号了解更多

会员申请 请在公众号内回复“个人会员”或“单位会员


 欢迎关注中国指挥与控制学会媒体矩阵

CICC官方抖音

CICC头条号

CICC微博号

CICC官方网站

CICC官方微信公众号

《指挥与控制学报》官网

国际无人系统大会官网

中国指挥控制大会官网

全国兵棋推演大赛

全国空中智能博弈大赛

搜狐号              

一点号              


中国指挥与控制学会
中国指挥与控制学会是中国科协、国家民政部批准成立的国家一级学会,是由我国从事指挥与控制科学技术领域的单位和科技工作者自愿结成的学术性、全国性社团组织。学会办事机构挂靠中国兵器工业集团公司。
 最新文章