A16Z的联合创始人Marc Andreessen,发布了一篇对于AI的未来发展充满乐观的文章——《Why AI Will Save the World》,Elon Musk则讽刺了一句“AI还需要多少年将人类全部杀死 ?”,这顿时引起了我的好奇,《Why AI Will Save the World》这篇文章事实上在试图澄清人类对AI的普遍恐慌,并划分了两类人群对AI发展的不同态度,并讨论了五个关于AI的风险性话题,例如:AI会造成大规模社会失业、AI是否会毁掉社会等,不过比较值得关注的,是Marc Andreessen批判了马克思关于资产阶级通过机器剥夺社会财富的观点。
事实上我并不认可Marc Andreessen的观点,其观点更像是资本家为了将AI技术包装成为一个商品快速推向消费社会的一种试图正当化技术资本特权的一种辩解。
Anyway,这不影响我们对于AI技术发展的一切可能性的探讨,因此翻译了《Why AI Will Save the World》这一文章,希望中文网络能够多一些对AI未来发展的探讨。
为什么人工智能会拯救世界
幸运的是,我在这里带来一个好消息:人工智能不会摧毁世界,事实上可能会拯救世界。
首先,对于人工智能是什么的简要描述:人工智能是将数学和软件代码应用于教导计算机如何以类似人类的方式理解、综合和生成知识的过程。人工智能就像任何其他的计算机程序一样——它运行、接收输入、处理数据并生成输出。
人工智能的输出在许多领域都非常有用,包括编码、医学、法律和创意艺术等。它是由人们拥有和控制的,就像任何其他技术一样。
对于人工智能不是什么的简短描述:它不是杀手软件和机器人,它们会突然活跃起来并决定屠杀人类或以其他方式毁灭一切,就像电影中所看到的那样。
更加简洁的描述人工智能的方式是:使我们关心的一切变得更好的方法。
为什么人工智能可以使我们关心的一切变得更好。
社会科学经过多年研究和成千上万的研究得出的最为验证的核心结论是,人类智能使生活的各个方面的结果变得更好。
更聪明的人在几乎所有领域的活动中都能取得更好的结果:学术成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、管理复杂任务、领导能力、创业成功、解决冲突、阅读理解、财务决策、理解他人观点、创意艺术、育儿成果以及生活满意度。
此外,人类智能是我们几千年来用来创造我们今天所生活的世界的杠杆:科学、技术、数学、物理学、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理、道德。
如果没有在所有这些领域应用智能,我们仍然会生活在泥屋中,艰难地进行维持生计的农耕。
相反,我们利用智能在过去的4000年里将我们的生活水平提高了大约10,000倍。
人工智能为我们提供的机会是深刻增强人类智能,使所有这些智能产生的结果(以及其他许多结果,从创造新药物到解决气候变化到太空技术)都能从现在开始变得更好,远远超越现有水平。
人工智能对人类智能的增强已经开始了——以各种形式的计算机控制系统的形式,人工智能已经存在于我们周围,现在随着像ChatGPT这样的大型语言模型的出现迅速升级,并将在此基础上迅速加速——如果我们允许的话。
在我们的人工智能新时代中:
每个孩子都将拥有一个无限耐心、无限同情、无限知识和无限帮助的人工智能导师。 每个人都将拥有一个无限耐心、无限同情、无限知识和无限帮助的人工智能助手/教练/导师/训练师/顾问/治疗师。 这个人工智能助手将在生活的各个机遇和挑战中陪伴着每个人,最大化每个人的结果。 每个科学家都将拥有一个可以极大扩展他们科学研究和成就范围的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生、照顾者都将在自己的领域拥有同样的助手。 每个领导者——CEO、政府官员、非营利组织主席、运动教练、教师——都将拥有同样的助手。 领导者在他们领导的人群中做出更好决策的放大效应是巨大的,因此这种智能增强可能是最重要的。 经济中的生产力增长将大幅加速,推动经济增长,创造新的产业、新的工作岗位和工资增长,从而实现全球物质繁荣的新时代。 科学突破、新技术和新药物将大幅扩展,因为人工智能帮助我们进一步解码自然规律,并将其应用于我们的利益。 创意艺术将进入一个黄金时代,因为通过人工智能增强,艺术家、音乐家、作家和电影制作人能够以比以往更快、更大规模地实现他们的创意。 我甚至认为人工智能将改善战争,当战争不可避免时,通过大幅降低战时死亡率。每场战争都以在巨大压力和极其有限信息下由非常有限的人类领导者做出的可怕决策为特点。 现在,军事指挥官和政治领导者将拥有人工智能顾问,帮助他们做出更好的战略和战术决策,最大限度地减少风险、错误和不必要的流血。 简而言之,今天人们用自然智能做的任何事情,通过人工智能都可以做得更好,我们将能够应对以前无法解决的新挑战,从治愈所有疾病到实现星际旅行。 这不仅仅涉及智能!人工智能最被低估的品质也许是它能赋予人类情感。人工智能艺术赋予那些本来缺乏技术技能的人们自由创作和分享他们的艺术创意的能力。与富有同理心的人工智能朋友交谈确实能提高他们处理逆境的能力。而人工智能医疗聊天机器人已经比他们的人类同行更具同理心。无限耐心和同情心的人工智能不会使世界变得更加冷酷和机械化,而是会使世界变得更温暖、更美好。
这里的赌注是巨大的。机遇是深远的。人工智能很可能是我们文明创造的最重要、最好的东西,至少与电力和微芯片不相上下,甚至可能超越它们。
人工智能的发展和普及——远非我们应该害怕的风险——是我们对自己、对我们的孩子和对未来的道义义务。
我们应该生活在一个更美好的人工智能世界中,而现在我们可以做到。
那么为什么会出现恐慌?
与这种积极的观点形成对比的是,目前关于人工智能的公众讨论充斥着歇斯底里的恐惧和偏执。
我们听到的声音声称人工智能将以各种方式杀死我们所有人,毁掉我们的社会,夺走我们所有的工作,导致严重的不平等,并使坏人做出可怕的事情。
是什么解释了这种从近乎乌托邦到可怕的反乌托邦的潜在结果的差异呢?
从历史上看,每一个重要的新技术,从电灯到汽车,从收音机到互联网,都引发了一场道德恐慌——一种社会传染,让人们相信新技术将摧毁世界、或社会、或两者兼有。悲观主义者档案馆的可爱人们记录了这些几十年来由技术驱动的道德恐慌,他们的历史使这种模式变得非常清晰。事实证明,这次的恐慌甚至不是对人工智能的首次恐慌。
当然,许多新技术确实导致了不好的结果——通常是那些在其他方面对我们福祉有巨大益处的技术。因此,仅仅因为存在道德恐慌并不意味着没有值得关注的问题。
但是道德恐慌本质上是非理性的,它将可能是合理关切的事情夸大成一种歇斯底里的程度,讽刺的是,这反而使我们更难以应对真正严重的问题。
现在我们对人工智能确实出现了一场全面的道德恐慌。
这场道德恐慌已经被各种行为者作为一种激励力量,要求采取政策行动——制定新的人工智能限制、规定和法律。这些行为者对人工智能的危险发表了极具戏剧性的公开声明,他们在滋养和进一步煽动道德恐慌,同时宣称自己是无私捍卫公众利益的英雄。
但他们真的如此吗?他们是对还是错?
人工智能的洗礼者与走私者
经济学家们观察到这类改革运动中的一种长期模式。这些运动中的行为者可分为两类——“洗礼者”和“走私者”,这是基于上世纪20年代美国禁酒令的历史例子。
“洗礼者”是真正的社会改革者,他们在情感上(虽然不一定是理性上)深信新的限制、规定和法律是为了防止社会灾难而必要的。对于禁酒令来说,这些行为者通常是虔诚的基督徒,他们认为酒精正在破坏社会的道德结构。对于人工智能风险来说,这些行为者深信人工智能会带来一种或另一种存在风险——无论如何追问,他们是真心相信的。 “走私者”是自私自利的机会主义者,他们在新的限制、规定和法律的实施中将从中获利,这些规定、规定和法律将使他们免受竞争对手的冲击。对于禁酒令来说,这些人是那些在合法酒精销售被禁止时通过非法手段向美国人出售酒精而发了一笔横财的人。对于人工智能风险来说,这些人是那些如果竖立起规范壁垒,形成一个得到政府祝福的人工智能供应商垄断集团,从而使新创企业和开源竞争受到保护,他们能够赚更多钱的首席执行官——这是“太大以失败”银行的软件版本。
一个愤世嫉俗的人会认为,一些表面上的洗礼者实际上也是走私者——特别是那些受到大学、智库、活动团体和媒体机构的报酬,以攻击人工智能的人。如果你是为了制造人工智能恐慌而获得薪水或获得资助的人......你很可能是一个走私者。
走私者的问题在于他们总是获胜。
洗礼者是天真的理想主义者,走私者是愤世嫉俗的操作者,所以这类改革运动的结果往往是走私者得到了他们想要的——监管垄断、免受竞争的冲击,垄断集团的形成——而浸礼派则不禁思考他们为了社会改进而努力的方向出了什么问题。
我们刚刚经历了一个惊人的例子——2008年全球金融危机后的银行业改革。洗礼者告诉我们,我们需要新的法律和规定来拆分“太大以失败”的银行,以防止再次发生这样的危机。
于是,国会通过了2010年的多德-弗兰克法案,该法案被宣传为满足洗礼者的目标,但实际上被大银行利用。结果是,2008年“太大以失败”的银行现在变得更加庞大。
因此,实际上,即使洗礼者是真诚的,即使洗礼者是正确的,他们也被狡猾和贪婪的走私者利用来谋取个人利益。
这正是当前人工智能监管推动中所发生的事情。
然而,仅仅确定行为者并质疑他们的动机是不够的。我们应该就洗礼者和走私者的论点进行客观评估。
1 人工智能会杀死我们所有人吗?
第一个也是最早的人工智能末日论风险是人工智能会决定真正地灭绝人类。
对我们自己创造的技术会崛起并摧毁我们的恐惧深深编码在我们的文化中。
古希腊人在普罗米修斯神话中表达了这种恐惧——普罗米修斯将破坏性的火焰力量和更一般的技术(“技艺”)带给了人类,为此普罗米修斯被众神永久折磨。
后来,玛丽·雪莱在她的小说《弗兰肯斯坦》或《现代普罗米修斯》中给了我们现代人自己的版本,在小说中,我们开发了永生的技术,然后这个技术起来试图摧毁我们。当然,没有人工智能恐慌的报纸报道是完整的,而没有詹姆斯·卡梅隆的《终结者》电影中那个闪烁着红眼的杀人机器人的静止图像。
这个神话被认为是为了激励我们认真考虑新技术的潜在风险——毕竟,火焰确实可以用来焚烧整个城市。
但正如火焰也是现代文明的基石,用来使我们在寒冷而敌对的世界中保持温暖和安全,这个神话忽略了大多数新技术的巨大好处,实际上激起了破坏性的情绪而非理性分析。仅仅因为古代人类对此感到恐慌,并不意味着我们必须也这样做;我们可以应用理性。
在我看来,认为人工智能会决定真正地灭绝人类是一个深刻的范畴错误。人工智能不是一个经过数十亿年进化的生命体,参与适者生存的竞争,就像动物和我们一样。它是数学 - 代码 - 由人们构建、拥有、使用和控制的计算机。
认为人工智能会在某个时刻发展出自己的思维,并决定它有自己的动机,以致于试图杀死我们,这是一种迷信的挥手。
简而言之,人工智能没有意愿,没有目标,它不想杀死你,因为它不是活着的。人工智能是一种机器 - 它不会比你的烤面包机更有生命。
现在,显然,有些人坚信杀人机器人的存在 - 洗礼者 - 他们因为他们的可怕警告而获得了突然爆炸性的媒体报道,其中一些人声称已经研究这个主题数十年,并说他们现在因为所学到的东西而感到恐惧。
其中一些真正的信徒甚至是这项技术的创新者。这些人主张对人工智能实施各种奇怪和极端的限制,从禁止人工智能的发展,一直到对数据中心进行军事空袭和核战争。他们认为,因为像我这样的人无法排除人工智能未来可能带来灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡来防止潜在的生存风险。
我的回应是,他们的立场是非科学的 - 可以进行哪些可测试的假设?什么会证伪这个假设?我们如何知道何时进入危险区域?这些问题主要没有得到回答,除了“你无法证明它不会发生!”实际上,这些洗礼者的立场是如此非科学和极端 - 关于数学和代码的阴谋论 - 并且已经呼吁使用实体暴力,以至于我将做一件我通常不会做的事情,并质疑他们的动机。
具体而言,我认为有三件事正在发生:
首先,回想一下,约翰·冯·诺伊曼对罗伯特·奥本海默有关他在创建核武器方面的角色的著名忧虑作出了回应 - 这帮助结束了第二次世界大战并防止了第三次世界大战 - 他说:“有些人承认罪行是为了声称犯了这个罪。”怎样以最引人注目的方式为自己的工作的重要性声张,而又不显得过于自吹自擂?
这解释了那些实际上正在构建和资助人工智能的洗礼者在言行上的不一致 - 观察他们的行动,而不是他们的言辞。(在与奥本海默会面后,杜鲁门对他更加严厉:“不要让那个啼哭的人再进来。”)
其次,一些洗礼者实际上是走私者。存在一整个职业领域,专门从事“人工智能安全专家”、“人工智能伦理学家”、“人工智能风险研究员”。他们被雇佣来宣扬崩溃论,他们的言论应该得到适当的处理。
第三,加利福尼亚州因我们众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。尽管并非所有,但其中许多邪教是无害的,甚至可能为那些感到疏离的人提供了一个家园。
但有些确实非常危险,邪教在跨越导致暴力和死亡的界限上往往非常困难。
而现实情况是,大湾区的每个人都很清楚,但可能在湾区以外的地方并不为人所知,即“人工智能风险”已经演变成一种邪教,突然进入了全球媒体关注和公众对话的视野。这个邪教不仅吸引了一些边缘人物,还吸引了一些行业专家和相当数量的富有捐助者 - 包括最近的山姆·班克曼-弗里德。它发展出了一整套邪教行为和信仰。
正因为这个邪教的存在,才会有一些听起来极端的人工智能风险的崩溃论者 - 并不是因为他们实际上拥有使他们的极端主义合乎逻辑的秘密知识,而是因为他们自己激起了狂热,并且真的是……极端到了极点。
事实证明,这种类型的邪教并不新鲜 - 在西方有着悠久的末世信仰传统,它孕育了末世邪教。人工智能风险邪教具有所有末世邪教的特征。以下是维基百科上的描述,我稍作补充:
“末世信仰是一群人或运动(人工智能风险的崩溃论者)相信社会将经历一次基本转变(人工智能的到来),之后所有事物都将改变(人工智能乌托邦、反乌托邦或世界末日)的信念。
只有戏剧性的事件(人工智能禁令、对数据中心的空袭、对未受监管的人工智能进行核打击)被视为能够改变世界(预防人工智能)的力量,而这种改变被期待由一群虔诚和专注的人来实现或幸存下来。
在大多数末世信仰的场景中,灾难或即将到来的战斗(人工智能末日或其预防)之后将会是一个新的、纯净的世界(人工智能禁令),在这个世界中,信徒们将会得到回报(或至少承认他们一直是正确的)。”
2 AI会毁掉我们的社会吗?
3 AI是否会夺走我们所有的工作
4 AI会导致严重的不平等吗?
第一步,制造[昂贵的]跑车; 第二步,利用这笔钱制造一辆经济实惠的车; 第三步,利用这笔钱再制造一辆更经济实惠的车。
5 AI会导致坏人做坏事吗?
不全力和迅速推进人工智能的实际风险
我们要做什么 ?
大型人工智能公司应被允许以尽可能快且积极的方式构建人工智能,但不得实施监管捕获,不得建立因错误的人工智能风险声称而与市场竞争隔离的政府保护垄断组织。这将最大限度地发挥这些公司令人惊叹的能力在技术和社会层面上的回报,它们是现代资本主义的珍宝。 初创的人工智能公司应被允许以尽可能快且积极的方式构建人工智能。它们既不会面对政府授予大公司的保护,也不会得到政府的援助。它们只需被允许进行竞争。如果初创公司无法成功,它们的存在也将不断激励大公司做出最好的表现 – 无论如何,我们的经济和社会都是赢家。 开源人工智能应被允许自由传播和与大型人工智能公司以及初创公司竞争。对于开源,不应设立任何监管障碍。 即使开源无法击败公司,其广泛的可用性对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生来说是一个福音,并确保人工智能能够惠及所有能从中受益的人,无论他们是谁或他们拥有多少财富。 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作,应积极参与潜在风险领域,利用人工智能来最大限度地提升社会的防御能力。 这不仅限于人工智能相关风险,还包括更普遍的问题,如营养不良、疾病和气候问题。人工智能可以成为解决问题的极其强大的工具,我们应该将其视为如此。 为了防止中国实现全球人工智能主导地位,我们应充分发挥私营部门、科研机构和政府的全部力量,共同推动美国和西方的人工智能在全球范围内占据绝对主导地位,包括最终在中国内部也如此。 我们胜利,他们失败。
传奇与英雄