2024年8月,美国兰德公司(Rand)发布报告《展望2045:研究未来20年全球趋势的影响》。报告的核心目标是识别和评估那些将对未来安全和经济产生重大影响的全球趋势,并为国防部等政府部门发出警报,使其能够更清楚地认识到最突出的问题,以便更好地预见和适应未来几十年内最紧迫问题的威胁。元战略编译报告中“技术趋势”的主要内容,以期为读者了解未来20年全球技术进步带来的影响提供参考。
一
背景
要展望未来,首先必须了解全球现状,这既是向未来演进的起点,也是了解现实可实现目标的制约因素的媒介。因此,兰德公司深入研究了当前各种展望未来的文本资料。初步观察的结果是,自兰德公司《展望2035年》报告发表以来的十年间,各机构对新兴技术、颠覆性技术或突破性技术的预测和分析激增。同样,围绕社会、地缘政治、经济和环境驱动因素进行的情景规划,如今已成为世界经济论坛(WEF)、联合国(UN)和国际货币基金组织(IMF)等全球性组织的主要工作,同时还有大量的行业报告和学术报告。
在对不同报告进行的广泛分析中,兰德公司注意到,围绕安全和经济的全球竞争在深度和广度上都在不断增长。随着社会价值观与信息过载的碰撞,公民社会正在受到挑战。社交媒体平台上的意见由于回音室效应自行运作其治理,而不是遵守国际标准。考虑到前沿技术(如人工智能)可能带来的生存威胁,人类的生命可能存在危险,然而,仍有机会减轻其中的一些风险。当国防部门决定更多地利用前沿技术的优势时,兰德公司认为存在可加以利用的抵消负面影响的机会。
此外,随着网络犯罪率的持续增长以及国家行为者正在试图破坏对手的关键基础设施,各国必须考虑新的方式来击败这些行为者以及他们在网络领域进行的行动。事实上,人们可能过于信任技术,因此,现在必须将我们重新定位到不信任技术的立场上,以保护宝贵的个人信息、真相、关键基础设施和国家机构,以维护现有的生活水平。为了协助政府,兰德公司建议国防部门考虑制定一种与这些不良行为者“持续接触”的战略,使他们在恶意活动中越来越受到限制或约束。
二
前沿技术的两面性
兰德公司在2014年发布的《展望2035年》报告中提出了一个时间表,展现了九个相互重叠、以各自速度发展的新兴技术领域将在2025年左右汇聚在一起,产生一些“很有趣的应用”。世界正在走向数字化,并开始应对所产生的海量数据,为了捕捉这一现象以及其他技术融合所带来的现象,出现了前沿技术这一概念。正如世界知识产权组织所指出的,所有前沿技术都是由加速数字化所推动的,依赖于数据,并经常产生数据。
2017年,经济合作与发展组织(OECD)坚持认为,处于全球发展前沿的技术应得到重点考虑。此后,联合国将其扩展至描述那些将“重塑工业和通信,为全球挑战提供急需的解决方案,并有可能取代现有流程”的技术。尽管该宣言指出了紧迫性,但直到现在,我们才看到前沿技术出现在重大科学突破和现实世界实施的交汇点上。这些技术正在改变我们的生活,它们是解决我们面临的一些最紧迫的全球性问题的关键之一。
当今的前沿技术包括:数字技术:元宇宙、物联网、区块链、人工智能、大数据、量子计算;物理技术:自动驾驶、三维打印、纳米技术、机器人和无人机、电动汽车、风能和太阳能光伏电池、超材料、精确导航和计时;生物技术:生物打印、有机体、基因工程、人体增强和脑机接口、沼气、生物质和生物燃料。
除了对这些前沿技术的直接应用之外,前沿技术改变我们生活最有说服力的方式是对这些技术的普及。多年来,3D打印机在业余爱好者、小型企业和研究人员中的普及一直支撑并推动着其发展。直到现在,随着速度、规模、效率、成本降低和可持续性等方面的最新进展,工业应用市场的增长速度才有所加快。2022年末,ChatGPT在五天内的用户数量就超过了100万,这显示了大众对人工智能和其他此类技术的渴求。在那之后,人们对人工智能所能实现的目标也有了更多的假设。数据、对数据的依赖以及随后产生的更多数据是确保人工智能实用性的一个基本方面。更具体地说,就是训练人工智能所依据的数据、这些数据的最新程度以及应用这些数据的背景。鉴于这些依赖关系,我们不难理解人们对人工智能可能加剧现有问题(如不平等、歧视、偏见和种族主义)的担忧。事实上,已经有许多例子表明,数据中固有的偏见只会在应用人工智能时才暴露出来。
为了利用人工智能,越来越需要实现知识民主化(democratise knowledge)。2024年的一篇期刊文章将这一过程描述为包括“显性知识表征的开发和应用”,使这些知识不再是各科学子领域专家的精英领域,而是“多学科团队、各种生物医学研究计划以及现在的机器学习”都可以获取的领域。不过,这样做也可能推动科学民主化。对于医学研究人员来说,可能不再需要特定的学术资格来获取生物或化学方法,但对于那些心怀更邪恶目的的人来说,可能也是如此。正如兰德公司在2024年的一次小组讨论中所描述的那样、以前精湛的技术知识可能被坏人利用。生物武器是一个相关例子,从历史上看,其障碍就是信息和知识。随着大流行病的爆发,人们不再需要太多的专用工具或昂贵的成套设备就可能达到毁灭性的效果。人工智能可以缩小知识差距,同样的故事也会在人工智能和化学武器、核武器、网络武器中重演。
因此,我们不难看出,人工智能为获取专业知识提供了便利,可能会导致新旧大规模杀伤性武器的去中心化。当然,这也预示着人工智能的发展和应用将继续不受监管或制约。目前,这一领域前沿技术的开发仍然掌握在少数几家有能力投资开发的公司手中,这些公司和领先的研究机构正在呼吁政府进行监管和干预。这在某种意义上是积极的,但在另一方面也令人担忧,这些公司最了解人工智能的力量,但也最了解其风险。
三
前沿技术在军事应用的挑战
前沿技术的使用概念化是基础,其他仍有待确定的因素可能会阻碍其被使用。例如,在作战中采用完全自主的系统仍有待实现,包括那些装备致命性武器的遥控系统现在已经在作战中进行了测试。可以理解的是,致命性自主武器系统仍然面临重大的文化、法律和伦理关切的挑战。几乎在所有未来的作战概念中都提到了自主武器系统的应用,并将其作为抵消兵力规模缩小的一种手段。即使是目前可用的技术已经代表了一种比传统能力更便宜的替代方案,但这些技术仍未被主流使用。
理解是什么阻碍了这些自主武器系统的使用,这不仅仅涉及技术成熟度的考虑,实际上需要进行详细的检查,以确定这些障碍可能是什么,以及如何克服这些障碍。此外,为了发展作战专业知识,促进军事组织对前沿技术的信任至关重要,领导支持以及满足对新的、非传统技能组合的需求也十分重要。在短期内,这些因素可能有助于军事组织解决在技能保留和担心工作被取代方面的问题,但如果要应对超出传统作战结构的更大范围的意外情况,这些因素至关重要。这意味着不仅要更快地将技术交到作战人员手中,而且要确保他们知道如何使用这些技术。现实的作战演习和实验有助于经验学习,这对于任何能力的大规模使用都是必要的,它为作战必要性提供了一个有用且安全的替代方案。
四
前沿技术的信任危机
随着前沿技术的不断普及,个人已自愿与物联网相连接,社会也普遍融入了数字世界或网络空间。当个人为了随时随地访问无数应用程序或方便地进行个人管理而轻易放弃个人信息时,社会可能不仅过于相信技术会给出正确的答案,也过于相信人类会正确对待这些信息。
不幸的是,越来越多的网络犯罪和恶意活动涉及窃取个人信息、金钱和知识产权,这表明社会给予技术过多的信任。个人、企业以及政府都成为了各种网络攻击的目标和受害者,这些攻击利用了不良的数字习惯或零日漏洞(zero-day vulnerabilities),应用了更复杂的社交网络钓鱼攻击或用恶意软件使网络饱和。
鉴于网络犯罪涉及越来越多且不断演变的各种活动,并且不受边界和国界限制地进行,网络犯罪对个人构成的威胁正在累积,心理和社会不安很可能以不同方式威胁国家安全。此外,兰德公司最近探究了网络暴力极端主义和恶意行为者(包括国家行为者和代理人以及非国家行为者和网络犯罪分子)相关的未来网络操作环境的特征,两者之间的联系在于它们也会对国家安全造成威胁,并涉及网络领域,特别是其中对技术的利用,这种利用因人类的易错性而加剧。
更令人担忧的是,错误信息在社会中的迅速传播和接受,其中最常见的是通过社交媒体传播,这正在国家机构内部制造紧张局势,可能会削弱一个国家在危机时期的应对能力。正如兰德公司应对真相衰退计划中的几份报告所述,这种真相衰退在气候变化、国际移民和流行病应对措施等各种问题上都有体现。如果不是由网络上的错误信息或虚假信息或数据本身固有的上述偏见所导致,那么日益加剧的社会两极分化可能更是有意为之的外国势力影响,并且同样会破坏国内稳定和韧性,产生进一步的社会、心理和认知影响。
恶意行为者越来越寻求利用社会纽带,这种纽带使人们和社区能够跨越文化、种族、宗教或意识形态差异进行合作和相互信任。尽管使用涉及安全和情报机构的高级技术的更复杂攻击(尤其是作为战争前兆的攻击)可能是最令人担忧的,但这类有针对性的攻击目前数量相对较少。此外,攻击者相对容易在社交媒体平台上使用简单、现成的技术来开展类似的攻击行动。从长远来看,这类攻击行动对国家的累积影响可能与更有针对性的攻击一样具有破坏性。
当人工智能成为不良行为者工具箱中的常用工具时,相关威胁将呈指数级增长。利用人工智能跨越多个不同平台和存储库链接数据的能力将有可能在全球范围内实现并且能够追踪和监控个人。一些人已经担心,如果这些不良行为者将人工智能与元宇宙相结合时,可能会开启一个新的心理和情感操纵时代。
最终,“真相之战”不仅将包括辨别虚假信息或错误信息,还将包括识别谁和什么是真实的。在此背景下,随着人们越来越依赖虚拟系统来为自己做更多的事情、做决定和思考,社会可能正进入一个智能黑暗时代。随着技术的发展和人们与之互动的增加,人们可能会从虚拟游客转变为终身虚拟世界的原住民。社会孤立和对机器人或机器的依赖不仅会影响智力和情商,还可能同样影响社交能力和实践能力。
毫无疑问,机器和技术的使用确实将继续提高安全性和生产力,同时将对人类和环境的危害降至最低。长期以来,机器人和自主系统一直因其在承担枯燥或危险工作中的作用而受到推崇,以替代人类从事地下矿井、石油钻井平台的海上基础设施维护或医疗保健等领域的工作,在战场上也是如此。然而,越来越依赖机器来进行各种日常实际活动(如自动驾驶)可能会降低并削弱人类广泛的认知技能、多感官感知和运动能力。再加上批判性思维能力的丧失(鉴于错误信息和虚假信息的泛滥),从长远来看,这可能从根本上削弱心理、情感、心理和身体的韧性。随着人工智能的引入,这种情况只会更加严重。谷歌、ChatGPT之类的工具可以让人们随时获取大量信息,但过度依赖此类应用程序可能会削弱人类连接想法、分析论点和解决复杂问题的能力。事实上,这些人工智能助手还不具备任何智能的最关键能力:描述和预测的能力(讲清楚现状、过去和未来的情况),以及解释的能力(讲清楚非现状以及可能和不可能的情况)。
免责声明:本文转自元战略。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
技经观察丨美国人工智能军事应用战略布局及在“印太地区”的落实
转自丨元战略
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er