医道社:传承和发展民间中医
来源:海外网站 作者:Nick Farrell
版权归原作者所有,如有违规、侵权请联系我们删除!
温馨提示:文中所涉及到各类药方、验方等仅供专业医疗人士
参考学习,不能作为处方,
请勿盲目试药,本平台不承担由此产生的任何责任!
👆关注不迷路,更多实用健康长寿和中医药科普
当智能耗尽时,机器人接管了一切
加沙冲突可能会作为 AI 在战争中的首次广泛使用而载入史册。
在 2023 年 10 月 7 日哈马斯发动残酷袭击之后,以色列国防军 (IDF) 利用与该激进组织有关的家庭住址、隧道和关键基础设施数据库,对加沙发动了无情的轰炸行动。
然而,据《华盛顿邮报》报道,随着冲突的肆虐和目标银行的减少,以色列国防军转向了一种名为 Habsora(或“福音”)的高级人工智能工具,以迅速生成更多目标。
这种 AI 驱动的方法使军队能够快速维持其行动。
邮报称,在过去十年中,以色列国防军一直在尝试将不同的人工智能工具整合到其运营中。
了解以色列国防军做法的人,包括在冲突中服役的士兵,断言军队已经大大增加了可接受的平民伤亡人数,这种转变在某种程度上归因于目标生成的自动化。
这促进了对大量目标的快速识别,包括参与 10 月 7 日袭击的低级武装分子。
以色列国防军在给《邮报》的一份声明中声称,人工智能工具实际上减少了附带损害,提高了人工主导过程的准确性。它强调 AI 系统不会做出自主决策。
“大数据处理”系统的每项建议都需要得到高级管理人员的批准,然后才能由高级管理人员添加到目标银行。
另一种名为 Lavender 的 AI 工具使用百分比分数来估计巴勒斯坦人成为激进分子的可能性。该系统使 IDF 能够快速产生大量潜在的人类目标。
然而,要求使用两份人类衍生情报来验证 Lavender 预测的规则在战争开始时被简化为一条。
在某些情况下,在加沙师内部,没有接受过技术训练的士兵在没有事先检查 Lavender 的预测的情况下就攻击了人类目标。
卡内基国际和平研究院 (Carnegie Endowment) 研究人工智能在战争中的使用的高级研究员史蒂文·费尔德斯坦 (Steven Feldstein) 表示,这些系统的准确性和加速速度导致了大量尸体数量。
“人工智能在现代战争中的道德影响需要紧急审查和强有力的保障措施,”费尔德斯坦说。