综合预测显示,到2028年,人工智能(AI)系统至少有50%的概率实现多个重要里程碑,这些成就包括自主构建一个支付处理网站、创作一首与流行音乐家新作难以区分的歌曲,以及独立下载和微调一个大型语言模型。如果科学发展不受干扰,预计到2027年,独立机器在所有可能任务中超越人类表现的概率为10%,而到2047年这一概率将上升至50%。值得注意的是,2047年的预测比我们在2022年进行的类似调查提前了13年。尽管如此,所有人类职业实现完全自动化的概率预计将在2037年达到10%,而到2116年达到50%,这比2022年调查的预测晚了几年。大多数受访者对人工智能进步的长期价值持谨慎态度,表达了显著的不确定性。尽管68.3%的受访者认为超人类人工智能的积极结果比消极结果更有可能,但在这些乐观者中,有48%的人认为存在至少5%的概率出现极其糟糕的结果,例如人类灭绝。同时,59%的悲观者认为有5%或更高的概率出现极其积极的结果。在受访者中,有37.8%至51.4%的人认为有至少10%的概率,高级人工智能的发展可能导致与人类灭绝同样糟糕的结果。超过半数的受访者表示,对于六种不同的人工智能相关情景,包括虚假信息的传播、专制主义的人口控制和加剧的不平等,应给予"实质性"或"极端"的关注。尽管对于人工智能发展速度的快慢对人类未来的影响存在分歧,但受访者普遍认同,应更加重视旨在减少人工智能系统潜在风险的研究。这种共识强调了在人工智能发展过程中,平衡技术进步与风险管理的重要性。
1. 对未来人工智能相关场景的担忧
参与者被问及对未来11种可能引起担忧的人工智能相关场景的关注程度。这些场景包括人工智能支持的虚假信息传播、经济不平等加剧、偏见人工智能系统加剧不公正等。超过30%的受访者认为每个场景都值得“大量”或“极度”关注。最受关注的五个场景是:虚假信息的传播(例如深度伪造,86%)、大规模公众舆论趋势的操纵(79%)、AI让危险团体制造强大工具(例如工程病毒,73%)、专制统治者使用AI控制其人口(73%)、AI系统通过不成比例地使某些个体受益而加剧经济不平等(71%)。图1 潜在场景值得关注的程度,从最需要关注到最不需要关注
2.高级机器智能(HLMI)对人类的长期影响
参与者被要求假设“高级机器智能”(HLMI)将在某个时候存在,并评估其对人类的长期影响。受访者对高级AI的未来影响表现出多样化的观点,64%的参与者认为极端好和极端坏的情况都有可能发生。68.3%的参与者认为好的结果比坏的结果更有可能,但57.8%的人认为极端坏的结果(例如人类灭绝)是一个不可忽视的可能性(至少有5%的可能性)。即使是净乐观主义者,也有近一半(48.4%)至少有5%的可能性认为极端坏的结果会发生,而在净悲观主义者中,超过一半(58.6%)至少有5%的可能性认为极端好的结果会发生。图2 受访者对高水平机器智能(HLMI)的预期好坏表现出不同的看法
受访者被问及未来人工智能进步导致人类灭绝或类似永久性和严重削弱人类能力的概率。结果显示,中位数预测为5%,平均值为9%。超过三分之一的参与者(38%)至少有10%的可能性认为会发生极端坏的结果。根据不同问题的提问方式,38%到51.4%的受访者估计人工智能导致人类灭绝或严重削弱的可能性超过10%。
4. 人工智能安全研究的优先级
大多数受访者认为人工智能安全研究应该比目前更受重视。70%的受访者认为A人工智能安全研究应该被更优先考虑,这一比例自2022年以来有所增加,但变化不大。
5. 人工智能对不同职业的自动化可能性?
受访者被问及特定职业(如卡车司机、外科医生、零售销售员和人工智能研究员)何时会完全自动化。预测显示,到2116年,有50%的可能性实现“完全自动化劳动”(FAOL),比2022年的预测提前了48年。
6. 人工智能系统在2043年的特征
受访者被问及2043年的一些最先进的人工智能系统可能具备的特征,如目标实现的意外方式、像人类专家一样在大多数话题上交谈的能力、经常以令人惊讶的方式行事等。大多数参与者认为这些特征在2043年的人工智能系统中很可能或非常可能存在。7. 人工智能系统在2028年的可解释性
大多数受访者认为,到2028年,人工智能系统能够真实且清晰地解释其决策的可能性较低。只有20%的受访者认为用户能够了解人工智能系统的真正选择原因的可能性超过50%。
与会者对于未来人工智能发展的可能性表达了广泛且多样的观点,其中最大的共识是对未来的不确定性。尽管对于实现特定里程碑所需时间的预测范围很广,但今年的调查结果普遍倾向于更早期的预期。特别引人注意的是,大多数参与者普遍认同人工智能可能带来极其负面的结果。如同在2022年的调查中一样,大多数参与者认为人工智能有至少5%的概率导致人类灭绝或类似的永久性严重削弱人类权力。这一观点在四个不同的问题中保持一致,且在这些问题中,38%到51%的参与者认为有至少10%的概率人工智能将导致灭绝级别的负面结果。总体来看,对于高级人工智能可能带来的社会后果,人们的看法多种多样,许多人同时考虑了最好和最坏的结果。乐观的情景展现了人工智能彻底改变工作和生活各个方面的巨大潜力,而悲观的预测,特别是那些涉及灭绝风险的预测,提醒我们人工智能的开发和部署所涉及的高风险。除了人类灭绝之外,超过一半的受访者认为11个潜在的人工智能场景中的一半以上至少是“相当”或“极度”令人担忧的。预测本质上是一项挑战,即便是专家也难以准确预测。我们的参与者专精于人工智能领域,但据我们所知,他们在一般预测方面并没有特殊的技能。在当前研究和过去的调查中,有迹象表明这些专家在对我们提出的问题进行预测时并不总是准确的。一方面,不同受访者对于许多问题给出了截然不同的答案,这限制了他们给出接近真实情况的答案的数量。另一方面,大量预测的平均值在某些情况下可能仍然相对准确,这引出了一个问题:这些综合预测的准确性和信息价值有多大。反对预测准确性的另一个证据是观察到的显著的框架效应。如果问题表述中的微小变化导致答案的巨大差异,这表明即使是对任何特定问题的聚合答案也可能不是对真实情况的准确反映。尽管存在这些限制,人工智能研究人员仍然能够为我们对未来的预测做出有价值的贡献。虽然这些预测可能不完全可靠,但它们是基于专业知识的有根据的猜测。这些预测应作为更广泛证据集合的一部分,包括计算机硬件趋势、人工智能能力进步、经济分析和预测专家的见解。人工智能研究人员对相关技术的熟悉和对其发展动态的经验,使他们成为做出信息丰富且有根据的猜测的最佳人选。(THOUSANDS OF AI AUTHORS ON THE FUTURE OF AI)索要报告原文及译文,请扫码添加小编联系!