4
杰奎琳老师说各部门对部队使用人工智能存在不同意见
胡佛研究所(Hoover Institution)研究员杰奎琳·施耐德(Jacquelyn Schneider)于2024年9月29日说,
根据一份新的备忘录,陆军希望其领导人向普通士兵宣传,同意士兵使用生成性人工智能。。
部队可能已经依赖它来写备忘录,提出建议,最重要的是,完成评估,以及其他耗时的行政任务。
随着人工智能席卷美国和世界各地的互联网和消费技术,指挥官和高级领导人应该鼓励在适当的情况下使用Gen AI工具,这些工具提供了独特而令人兴奋的机会,指挥官需要了解他们的部队如何使用这些工具。
人工智能曾经是科幻小说的领域,所谓的生成式人工智能继续发展,新的程序如ChatGPT如雨后春笋般出现,它不仅能够产生图片,还能够使用命令或请求产生文字和视频。
国防部对人工智能技术进行了大量投资,人工智能技术在未来的冲突中可能至关重要。但军方一直在纠结一个问题,即军队应该在多大程度上使用商业人工智能工具,如谷歌Gemini、Dall-E和ChatGPT。
杰奎琳·施耐德老师说,军方似乎在采用这项技术方面走在了前面。
该老师主要研究技术和国家安全。
生成式人工智能可以用于军事演习和规划复杂的任务。在乌克兰,人工智能已经被用于战场,成为硅谷对自主武器的一种技术热潮。
当涉及到军事时,人工智能会带来一些网络安全风险。数据部队输入教授这些工具,并成为人工智能词汇的一部分。
但是对于普通人来说,它的用途可能更加平凡和实用——写电子邮件、备忘录和评估。许多用于管理目的的非机密信息,不会构成安全威胁。
然而,太空部队在9月份暂停了人工智能工具的使用,实说仍然需要评估安全风险。
在此之前,海军首席信息官简·拉斯本(Jane Rathbun)在给海军陆战队的一份备忘录中表示,生成式人工智能存在“固有的安全漏洞”,并补充说它们“需要谨慎对待”
五角大楼和各军种,现在似乎在生成式人工智能的使用上,出现了分歧。
有两个想法同时是正确的:这些工具带来了网络安全风险,公众快速而广泛的采用意味着它们会一直存在下去。
2023年,五角大楼成立了利马特遣部队,对生成式人工智能评估风险。
“我们使用生成式人工智能的变革力量,我们的重点仍然是坚定不移地确保国家安全,最大限度地降低风险,并负责任地整合这些技术,”国防部副部长凯瑟琳·希克斯去年宣布成立特别工作组时表示。
陆军尚未为人工智能的使用制定明确的政策和护栏,这一过程可能仍需数年时间,还需要遵循五角大楼人工智能特别工作组的指导。随着人工智能的不断发展,开发护栏可能会变得更加复杂。
施耐德说:“看看极限是什么会很有趣,有哪些任务使用生成式人工智能仍然太冒险?他们认为界限在哪里?”
杰奎琳·施耐德(Jacquelyn Schneider)的联系方式是,
jacquelyn.schneider@stanford.edu
https://www.linkedin.com/in/jacquelyn-schneider-623961129#:~:text=Jacquelyn%20Schneider%20is%20a%20Hoover%20Fellow
++++++++++++++