斯蒂格勒 vs 凯文·凯利(斯蒂格勒读书会第 1 期)
📆 2022 年 4 月 1 日(五)19:00 ~ 22:00
▼ 扫码参与腾讯会议
或者输入会议号 804-697-240
文 | 凯文·凯利(Kevin Kelly)
常被称为“KK”,《连线》杂志(Wired)第一任主编,曾任《全球评论》(Whole Earth Review)主编、出版人。他的这篇《超人 AI 的神话》遭到了斯蒂格勒撰文(《人类世中的人工愚蠢和人工智能》)批判。
我听说,在未来,计算机化的(computerized)AI 会变得比我们聪明得多,会夺走所有工作和资源,而人类则会灭绝。这是真的吗?这是我最经常被问到的问题,不管我在哪里发表关于 AI 的演讲。提问的人都是认真的;他们的担心部分源自一些专家自问的同样的问题。这些人就是今天在世的最聪明的一些人,比如斯蒂芬·霍金、伊隆·马斯克、马克斯·泰格马克(Max Tegmark)、萨姆·哈里斯(Sam Harris)和比尔·盖茨,而且他们相信这个情景(scenario)很可能成真。最近在一个为讨论这些 AI 的议题而召开的会议上,9 位 AI 专家认为,超人智能的出现不可避免,而且不远了。然而,这种情景隐藏着 5 个假设,深究之下都没有证据作为凭借。这些说法未来可能正确,但还没有证据。超人智能的产生假设了:- 我们会把 AI 变成通用(general purpose)智能,就像我们自己的智能一样。
- 一旦超级智能得到了爆炸式增长,它就能解决我们大部分的问题。
与这种正统观念不同,但我以为 5 种异见有证据更多:- 智能不是单一的维度,所以“比人类聪明”是毫无意义的概念。
- 人类没有通用的心智(minds),AI 也不会有。
如果对超人 AI 来接管世界的预期是基于没有证据基础的 5 个假设,那么这就更像宗教信仰——一个神话。对于所有这 5 个对立的假设,我都扩展了我的证据,并且证明,超人 AI 的确是神话。关于 AI 最普遍的错误概念,始于关于自然智能的普遍的错误概念:智能是单一的维度。大多数技术人员倾向于像尼克·波斯特罗姆在《超级智能》中那样,以刻板、单维的线性图表来图示智能的增长幅度。一端是低智能,比如说小动物的智能,一端是高智能,比如说天才的智能,就像不同智能是显示为分贝的一种声级(sound level)。当然,很容易想象其延伸,以至于智能的响度继续增长,最终超越我们自己的高智能,生成一种超级响的智能——吼!远远超过我们,甚至可能超标了。这个模型在拓扑上相当于一架阶梯,所以智能的每个梯级都比前一个高了一级。较低等的动物位于我们下面更低的梯级上,而智能水平更高的 AI 将不可避免地踩在我们头上那更高的梯级上。这什么时候发生的那些时间尺度并不重要,重要的是排序——对增长中的智能进行度量(metric)。这个模型的问题在于它是神话式的,就像进化阶梯。达尔文之前对自然世界的观点假设了存在物的一架阶梯,让较低等的动物居于人类之下的梯级上。即使是在达尔文以后,一个非常普遍的观念是进化“阶梯”,其中鱼进化成爬行动物,然后上一台阶,进化成哺乳动物,再往上进化为灵长类动物,最后往上进化成人类,每次都比前者进化了一点(当然也更聪明)。所以,智能的阶梯与实存(existence)的阶梯是平行的。但两个模式都提供了一种从头到脚都不科学的观点。物种的自然进化的一个更准确的图表,是一个向外辐射的圆盘,就像上图那样,由德克萨斯大学的大卫·希里斯首先基于 DNA 模型而设计。这种深层系谱学的圆(mandala)始于最原始的那些生命形式之中,随着时间而向外分枝。时间向外运动,于是今天活在地球上的最为晚近的生命物种形成了这个圆环的圆周周长。这幅图强调了一个难以领会的进化的根本事实:今天活着的每个物种都是同等地进化而来的。人类存在于这个外环上,和蟑螂、蛤、蕨类、狐狸和细菌在一起。这些物种中的每一个都历经了 30 亿年成功繁衍的一条不断的链条,而这意味着今天的细菌、蟑螂都和人类一样是高度进化的。没有什么阶梯。同样,也没有智能的阶梯。智能不是单一的维度,而是多个认知的类型、模式所组成的一个综合体,每个综合体都是一个连续体(continuum)。可以做个很简单的任务,来测量动物智能。如果智能是单一的维度,我们应该能够把一只鹦鹉、一头海豚、一匹马、一只松鼠、一只章鱼、一头蓝鲸、一只猫和一只大猩猩的智能,按照正确的升序排成一列。但目前,我们对于这一列还没有科学证据。一个原因可能是动物智能之间没有差异,但我们也看不出来。动物学在动物如何思考这一点上,充满了值得注意的差异。但也许它们都有既相同、又相关的“通用智能”(general intelligence)?有可能,但我们没法衡量,也没有这一智能的单一度量。相反,我们对许多不同类的认知却有许多不同度量。智能的可能性空间:比如理查德·道金斯的算法创造的那些有可能的形式所组成的渲染图。比起单一的分贝线,智能更准确的模型是去绘制出智能的可能性空间(possibility space),就像理查德·道金斯写的一个算法所创造的那些有可能的形式来组成的上面这个渲染图。智能是一个组合式的(combinatorial)连续体。多个节点在一些高维度上创建了有高度多样性的复合体,每个节点都是一个连续体。有些智能可能非常复杂,有许多子节点。其他智能可能更简单,但更极端,躲在空间的某个角落。这些我们称为智能的复合体可能会被当成交响乐来思考,而交响乐是包含了许多类乐器的。这些复合体不仅在响度上,而且在音调、旋律、音色、节奏等方面也是各异的。我们可以把它们看成生态系统。而在这个意义上,思考的不同的组成性节点是相互依赖、共同创造的。因为我们在解决以前解决不了的问题,所以我们想说这种认知是比我们的认知更“聪明的”,但事实上,那只是与我们的认知不同。用马文·明斯基的话说,人类心智是各个心智结成的一些社会。我们在思考的那些生态系统中运作。我们身上包含了多重认知,来进行许多类的思考:演绎、归纳、符号推理、情商、空间逻辑、短期记忆和长期记忆。我们肚子里的整个神经系统也是一类有其自身认知模式的大脑。我们并不只是用我们的大脑思考,而是用我们全身思考的。认知的这些套件(suites)在个体之间、在物种之间都是各异的。一只松鼠能在几年里记住几千个橡子的确切位置,这是一项完爆人类心智的壮举。所以在这类认知中,松鼠超过了人类。这个超能力与其他一些模式捆绑在一起,才产生了松鼠的心智,而其他这些模式比起我们的来,就会显得笨笨的。在动物王国,关于认知方面,还有许多其他特定的壮举都是优于人类的,而且也是捆绑在不同系统中的。AI 也一样。在某些维度上,AI 已超过了人类。你的计算器是个数学天才;谷歌的记忆力在某个维度上已超越了我们自己的记忆。我们正在把 AI 设计得擅长于特定模式。其中一些模式是我们可以做的,但它们可以做得更好,比如概率、数学。另一些则是我们完全做不到的那类思考——记住 60 亿个网页上的每个单词,这是任何搜索引擎都能做到的壮举。未来,我们将发明全新的一些认知模式,这些模式不存在于我们身上,或者生物学上的任何地方。当我们发明人工飞行的时候,我们受到了飞行的种种生物模式的启发,首要的是就扇动翅膀的模式。但我们发明的飞行,即用螺栓固定在一片宽阔的固定翼上的螺旋桨,却是我们的生物界闻所未闻的一种新飞行模式。这是一种陌异的(alien)飞行。同样,我们将发明一些在自然中不存在的、全新的思考模式。在许多情况下,它们将是做特定工作的一些又新又“小的”、狭义的特定模式,可能是一类只在统计、概率上有用的推理模式。在其他情况下,新的心智将是一些复杂类型的认知,可以被我们用来解决我们的智能自身解决不了的问题。商业、科学中一些最困难的问题可能需要两步的解决方案。第一步:发明一种新的思考模式,与我们的心智一起工作。第二步:把两者结合起来解决问题。因为我们正在解决之前解决不了的问题,我们可以把这种认知称为“比我们更聪明”的认知,但实际上它与我们的有所差异。思考上的种种不同,正是 AI 的好处。我认为 AI 的一个有用的模型(model)就是把 AI 看成陌异的智能(或者看成一些人工的陌异者)。它的“陌异性”将是它的头号资产。同时,我们将把各式各样的这些认知模式整合到更复杂、更复合的(complex)的关于心智的那些社会中。其中一些复合体会比我们更复合,而因为它们将能解决我们解决不了的问题,有些人就会称之为超人(superhuman)。但我们不会称谷歌是一个超人 AI,尽管它的记忆超越了我们,因为有很多事我们可以做得比它好。这些 AI 的复合体肯定能在许多维度上超过我们,但没有一个实体能做到干什么都比我们好。这和人类的种种身体力量是相似的。工业革命已经有 200 年之久了,虽然所有机器作为一个等级,可以战胜一个人类个体的身体成就(跑步速度、举重、精确切割等),但没有一台机器能在普通人所做的每件事上战胜他。即便一个 AI 之中的各个心智所结成的社会将变得越来越复合,这种复合程度(complexity)目前也是难以科学地衡量的。关于复合程度,我们没有很好的操作性的度量来判断一根黄瓜是不是比一家波音 747 更复合,或者它们的复合程度如何不同。这也是为什么我们没有很好地度量聪明(smartness)的方法的原因之一。要弄清心智 A 是否比心智 B 更复合,会变得很难,而出于同样的理由,要宣称心智 A 是否比心智 B 更聪明,也是如此。我们很快就会意识到,“聪明”不是单一的维度,而我们真正关心的是智能运行起来的许多其他方式——我们尚未发现的所有其他认知的节点。对人类智能的第 2 个错误概念:我们相信我们有一个通用智能。这个被不断重复的信仰,影响了 AI 研究人员通常所宣称的一个目标,就是创造一个通用人工智能(AGI)。然而,如果我们把智能看成是在提供一个很大的可能性空间,那么就没有通用状态。并不是说人类智能处于什么核心位置,然后其他专门化智能绕着它转。相反,人类智能是智能的一种非常非常特定的类型,它已经进化了数百万年,使我们这个物种得以存活在这个星球上。如果映射到在所有可能的智能所组成的空间中,人类这一类的智能只会困在哪个边边角角里,就像我们的世界被困在浩瀚银河的边缘一样。我们当然可以想象、甚至发明一类瑞士军刀式的思考。它差不多能做一堆事情,但都做得不太好。AI 们将遵循所有做出来或生出来的东西都同样必须遵循的工程上的格言:你没法优化每个维度。你只能有所取舍。你不能让一个多功能的通用单位比功能特定的单位表现得更好。一个“万能”的宏大心智无法把什么能做得像专业化的能动者(agents)那么好。因为我们相信我们人类的心智是通用的,我们于是倾向于相信,认知并不遵循工程师的取舍,而且有可能建立一种智能来最大化所有思考模式。但对此,我没看到证据。我们只是还没有发明足够多样的心智来看整个空间(目前为止,我们还倾向于把众多的动物心智轻描淡写为一个单一类型,只是在单一维度上有着可变的幅度)3
对最大化通用思考的这个信仰,部分来自通用运算(universal computation)的概念。1950 年,这一猜测在形式上被描述为邱奇-图灵论题,并陈述说所有达到一定阈值的运算都相等(equivalent )。因此,所有运算都有个通用的核心,不管运算发生在一台各部分都快的机器里,还是各部分都慢的机器里,或者甚至是在一个生物大脑中,都是同一个逻辑过程。也就是说,你应该能够在任何能做“通用”运算的机器上模拟任何运算过程(思考)。奇点派就靠这一原则来期望我们能设计出硅质大脑来容纳人类心智,期望我们可以造出像人一样思考的人工心智,而且更聪明。我们应该对这种希望保持怀疑,因为它靠的是对邱奇-图灵论题的误解。该理论的出发点是:“考虑到无限的磁带(记忆)和时间,所有运算都相等。”问题是,在现实中,没有计算机拥有无限的记忆或时间。当你运转在真实世界中的时候,真实时间会产生一个巨大的差异,而且往往是生死之差。是的,如果你忽视时间,所有思考都相等。是的,你可以在任何你想得到的矩阵中模拟人类这一类的思考,只要你忽视时间或存储和记忆的那些真实发生的约束。然而,如果你把时间纳入进来,那么你就要以一种重大的方式来重新陈述一下原则:在大相径庭的平台上运行的两个运算系统,在真实时间中是不相等的。可以这样再一次重申:要拥有同等的(equivalent )思考模式,唯一方法是在那些同等的基质上运行这些模式。你在运行你的运算时基于的物质材料,尤其是当运算变得更加复合的时候,会极大地影响本可以在真实时间中干得很好的那类认知。我将进一步扩展这一点来作出断言:要得到一个很像人的思考过程,唯一方法就是在很像人的湿组织(tissue)上进行运算。这也意味着,在干躁的硅上运行的、庞大的复合 AI 将产生巨大、复合的、不像人的心智。如果有可能用人一样的成熟神经元来建造湿的人工大脑,我的预测是,人工大脑的想法会更类似我们的想法。这种湿的大脑的好处与我们制作基质的相似度成正比。但创造湿件(wetware)的成本巨大,而且这个湿组织越接近人脑的组织,直接造人就越合算。毕竟,造人是我们花 9 个月就可以做的事情。不仅如此,如上所述,我们是用我们的全身思考,而不仅仅是用我们的心智。我们有大量数据表明我们肚子的神经系统在指导我们的“理性”决策过程,并且能预测和学习。我们对整个人体系统所做的建模越多,我们就越接近再造出人体。在一个差异很大的身体上(在干的硅而不是湿的碳上)运行的智能,思考也会不同。我不认为这是个故障,而是个特征。就像我在第二点中指出的那样,与人思考地不同,正是 AI 的头号资产。这也是把 AI 称为“比人类聪明”会产生误导的另一个原因。
4
超人智能这个观念,尤其是这种智能会持续地提升自身这个看法,其核心就是在本质上相信智能有种无限的层级(scale)。对此,我找不到证据。又一次,把智能误解为单一的维度也会有助于这一信仰,但我们应该将其理解成信仰。就目前科学所知的来说,宇宙中没有任何其他物理维度是无限的。温度不是无限的——只有有限的冷和有限的热。只有有限的时空。有限的速度。也许数学上的数轴是无限的,但所有其他物理属性都是有限的。道理显而易见:理性本身是有限的,而不是无限的。所以问题来了:智能的极限在哪里?我们倾向于相信,界限远远超越了我们、远“高于”我们,就像我们“高于”一只蚂蚁。撇开单一维度这个反复出现的问题,我们有什么证据来证明极限不在我们这里?为什么不是我们到了最大化?或者,也许极限离我们只有很短的距离?为什么我们相信智能是可以永远地持续扩张的东西?一种更好的思考方式是把我们的智能看成有可能的百万种智能中的一种。所以,既然认知、运算的每个维度都有个极限,那么如果有数百个维度,就会有无数的心智多样性,却没有一个心智在任何维度上是无限的。当我们建立起或者遇到这些无数的心智多样性时,我们可能自然而然地会把一些心智看成是超过了我们的。在我的新书《必然》中,我概述了心智多样性中一些在某个程度上优于我们的心智。以下是一个不完整的列表:- 一种像人类心智的心智,不过回答更快(能想到的最简单的 AI 心智);
- 一种缓慢的心智,主要基于巨大的存储和记忆,笨笨的,但(心智范围)极为宽广;
- 一种全球性的超级心智,由数百万傻傻的心智合作而构成;
- 一种蜂群(hive)心智,由许多很聪明的心智组成,但它们却没有意识到这个心智或者说它们自身就是一个蜂群;
- 一种博格人式的(borg)超级心智,由许多很聪明的心智构成,它们很清楚自身形成了一个统一体;
- 被训练来致力于加强你个人的心智的一种心智,但对其他他者都没用;
- 一种能创造更伟大的心智、却没有足够的自我意识去想象出来的心智;
- 能够成功地创造过一个更伟大的心智的一种心智,但无法进一步创造了;
- 能创造更伟大的心智的一种心智,而其创造的心智可以创造出尚未存在的更伟大的心智,依次循环;
- 一种能读取源代码的心智,这样它就可以常规性地打乱自己的进程;
- 一种不带情绪的超级逻辑(superlogic)心智;
- 一种需要很久才能发展的心智,直到成熟前都需要一个保护者的心智;
- 一种能自我克隆并与其克隆体保持一个单位(remaining in unit)的心智;
- 一种具有不朽性的心智,能从一个平台迁移到另一个平台;
- 一种纳米级心智(nanomind),尽可能出现的最小的(尺寸和能量剖面 [energy profile] 上)有自我意识的心智;
- 一种永不抹除或忘记任何事情的心智,包括错误、虚假的信息;
- 一种半机器半动物的共生体(symbiont)心智;
今天,一些人可能会把这些实体称为“超人 AI”,但这些心智的十足的多样性、陌异性就将引我们驶向有关智能、聪明的新词汇和新洞见。其次,超人 AI 的信徒们设想智能会在指数级上增长(按照某种不明的单一度量),这可能是因为他们还设想智能已经在指数级上增长了。然而,目前为止,不管怎么衡量智能,证明智能在指数级上增长的证据为零。我说的在指数级上增长,是指每隔某个定期的时间段,AI 的力量会加倍。对此的证据在哪儿?我哪都找不到。如果现在没有,为什么我们还设想这会很快发生呢?在指数曲线上扩张的唯一的东西是对 AI 的投入,是致力于产生聪明或智能的那些资源。但产出表现并没有一种摩尔定律式的上升。每 3 年,甚至每 10 年,AI 们都不会变得加倍聪明。
我问了很多 AI 专家要智能表现在指数级上增益的证据,但大家都同意,我们没有给智能的度量,再说了,事情也不是这么搞的。当我问雷·库兹韦尔(Ray Kurzweil)——指数级(增长)的巫师本人的时候,就像他对我写道的那样,指数级增长的 AI 的证据就是 AI 不是爆炸式增长,而是逐层增长的。他说:“需要在运算以及算法的复合度上都有指数级的提升,才能把额外的每个层次加到这个等级上......所以,我们可以期望去线性地增加层次,因为需要在指数级上更多的复合性来加上额外的每一层,而且,我们确实在干这件事的能力上取得了指数级的进步。如果要和大脑新皮质能做的事相提并论,我们也没差那么多层次,所以我的 2029 年之约看起来还不错。”雷似乎在说,不是 AI 的力量在指数级上增长,而是生产 AI 的努力在指数级上爆炸式增长,同时,产出只是一次上升一个层次。这与智能在爆炸式发展这个假设几乎完全相反。未来某个时候,这可能会变化,但 AI 现在显然不会在指数级上增长。因此,当我们想象一场“智能的爆发”时,我们不应该把它想象成一种井喷式的繁荣,而是新的多样性的一种散射的剥落。应该成寒武纪大爆发,而不是核爆。加速技术的结果很可能不是超人,而是异人(extra-human)。在我们的经验外,但不一定“高于”我们的经验。5
关于超级 AI 要接管世界的另一个没受到挑战的信仰,是近乎无限的超级智能可以迅速解决我们悬而未决的重大问题,但这几乎没有证据。对智能的爆发的许多支持者期望这会产生一场进步的爆发。我称这个神秘的信仰为“思考主义”(thinkism)。这种谬论认为进步在未来的各个层次只会因为缺乏思考力或智能而受阻。(我也注意到思考是神奇的灵丹妙药这个信仰——一切都要靠许多爱思考的人)让我们拿治疗癌症或延长寿命的例子来看看。这些都是独自思考解决不了的问题。多少思考主义也不会发现细胞如何衰老、端粒如何脱落。没有智能只是阅读当今世上所有已知的科学文献、然后沉思之,就能知道人体如何运作,哪怕是超级好的智能。也没有超级 AI 能够只是思考所有今昔的核裂变实验,然后在一天内搞出能用的核聚变来。在不知道事物如何运作与知道它们如何运作之间,需要的远不只是思考。现实世界中有大量实验,每一项都产出了相互矛盾的大量数据,需要进一步实验才能形成正确有效的假设。只是思考潜在的数据,不会产出正确的数据。思考(智能)只是科学的一部分,也许只是一小部分。举例来说,我们没有适当的足够数据来接近对死亡问题的解决。在与活的有机体合作的情况下,大多数这些实验都是按日历时间走的。细胞那缓慢的新陈代谢没法被加速。他们需要数年、数月,或者至少数天,才有结果。如果我们想知道亚原子粒子发生了什么,我们不能只是思考它们。我们必须建造非常庞大、非常复合、非常棘手的物理结构来查明究竟。即便最聪明的物理学家,比现在的聪明 1000 倍,但没有对撞机,他们也不会知道什么新东西。毫无疑问,超级 AI 会加速科学进程。我们可以对原子或细胞进行计算机模拟,我们也可以调整许多因素来加速模拟,但两个问题限制了模拟在获得即时进展上的效用。首先,模拟、模型只能比它们的研究对象更快,因为模拟、模型省去了一些东西。这是模型或模拟的本性。同样值得注意的是:对这些模型的测试、审核和验证也不得不按照日历时间进行,以匹配其研究对象的速率。毕竟,对实地调查的真值所作的测试是没法加速的。一次模拟中的这些简化版对于风选最有前途的路径很有用,这样,简化版就可以加速进展了。但现实中没有过多这一说;一切真实的东西都会导致某个程度上的差异;这也是现实的一个定义。随着模型、模拟被越来越多的细节所充实,模型、模拟就达到了一个极限——现实比对其 100% 的完全模拟运行得还快。这是现实的另一个定义:当前所有细节和自由度的最快版本。如果你能把一个细胞中的所有分子和人体中的所有细胞都建模出来,这个模拟运行得不会像人体一样快的。不管你怎么思考它,你还是需要花时间做实验,无论是在真实系统还是在模拟系统中。为了发挥作用,AI 不得不在世界上被具体化,而这个世界往往会设定 AI 创新的步伐。不执行实验,不建立原型,不失败,不投入现实,一个智能可以有思想,但不会有结果。所谓的“比人类聪明的”AI 出现那一分钟、那一小时、那一天乃至那一年里,都不会马上就有一些发现。当然,这一发现的速率会被 AI 的进展而显著地加速,部分原因是有点陌异的(alien-ish)AI 会问一些人问不出的问题,但即使是一个(比起我们)强大得多的智能也不意味着马上就有进步了。要解决问题,需要的远不只是智能。不仅癌症、长寿是只靠智能解决不了的问题,而且智能本身也是如此。奇点派常见的修辞格是,一旦你让 AI“比人类聪明”,那么,它突然就会狠狠思考了,还会发明“比它自己聪明”的 AI,而后者会更狠地思考,发明更聪明的 AI,直到它的力量大爆发,变得像神一样。我们没有证据证明,仅仅思考智能就足以创造智能的新层次。这种思考主义是一种信仰。我们有很多证据证明,除了大量智能,我们还需要实验、数据、试验与错误、怪异的一连串问题,以及各种各样的东西,后者超越了聪明而得以发明出新类型的成功的心智。我要总结说,我对这些断言的看法没准是错的。我们还处在早期阶段。我们可能会发现智能的一个普遍的度量,我们可能会发现智能在各个方向上都是无限的。因为我们对什么是智能知之甚少(更不用说意识了),某种 AI 奇点的可能性还是大于零的。我想,所有证据都证明,这样的情形是极不可能发生的,但可能性的确大于零。所以,虽然我对它的概率有不同意见,但我同意那些担心超人 AI 的聪明人和开放 AI(OpenAI)所持的那些更远大的目标:我们应该设计友好的 AI,弄明白如何逐步往里面灌注与我们的价值相匹配的、自我再造的价值。尽管我认为超人 AI 是一个在遥远未来有可能的存在性的威胁(也是值得考虑的),但我认为它的不可能(基于我们迄今的证据)不应该成为我们的科学、政策和发展的指导。一颗小行星撞击地球会是灾难性的。其概率也大于零(所以我们应该支持 B612 基金会),但我们不应该让小行星撞击的可能性统领我们在气候变化、太空旅行、甚至城市规划上的努力。同样,迄今的证据暗示,种种 AI 很有可能不是超人的,而是成百上千异于人的(extra-human)、思考方式上的新物种,与人类差异最大,其中没有一个 AI 是通用的,没有一个能马上成神,一刹那就能解决重大问题。相反,有的是有限的智能组成的一个星系,可以在不熟悉的维度上工作,并且在许多维度上超过我们的思考,而且还可以适时地与我们一起工作来解决现存的问题,但这些智能也会创造新的问题。我理解一尊超人 AI 的神那美丽的诱惑。就像新的超人。但就像超人一样,这是个神话形象。在宇宙的某个地方,可能会有超人,但可能性不不。然而,神话可以派上用场,一旦被创造出来,它们就挥之不去了。关于超人的想法永远不会消失。关于超人 AI 的奇点(Singularity)这个想法,既然已经诞生了,也就永远会挥之不去了。但我们应该认识到,在目前,这是个宗教性的想法,而不是个科学的想法。如果我们审视迄今关于智能的证据,不管人工的证据还是自然界的证据,我们只能总结说,我们对神话般的一尊超人 AI 的神所作的推断只不过是神话罢了。二战期间,密克罗尼西亚的许多孤立岛屿首次与外界接触。陌异的神坐在吵闹的鸟里头,飞过他们的天空,在他们的岛上扔下食物和物品,然后再也没回来。岛上的宗教崇拜突然出现,祈祷诸神回来并扔下更多物资。即使是现在,50 年后的今天,许多人还在等待物资回来。超人 AI 到头来可能会成为另一种物资崇拜。一个世纪后,人们可能会这样回顾这段时间:那时信徒们开始期待超人 AI 在任何时候出现,给他们送来价值难以想象的物品。数十年后,他们等着超人 AI 出现,确信它肯定马上就会带着物资到达。然而,非超人的 AI 已经在那里了,真的有了。我们不断重新定义它,增加它的难度,而这将把它禁锢在未来,但在陌异的智能的更广的意义上,在各式的聪明、智能、认知、推理、学习和意识所组成的一个连续光谱的更广的意义上, AI 已经遍布这个星球上了,并将继续传播,继续深入地、多样化地和增强地发展。从没有发明比得上它改变我们世界的力量,而到本世纪末,AI 将触及并重塑我们生命中的一切。尽管如此,超人 AI 的神话,在要么能礼赠给我们带来超级的富足,要么把我们打击成为超级奴隶(或者两者皆有)之间平衡着,而这个神话恐怕还会流传下去——这是一个神话色彩太浓而难以忽视的可能性。
▼ 扫码查看《超人 AI 的神话》(The Myth of a Superhuman AI)中英对照版
贝尔纳尔・斯蒂格勒(Bernard Stiegler,1952~2020)
图源 | 丹尼尔 · 罗斯 @DJRoss70
法国哲学家,出版《技术与时间》三卷本等三十余部著作,于巴黎社会科学高等研究院获博士学位,曾任贡比艾涅技术大学(Université de Technologie de Compiègne)副教授、柏林洪堡大学客座教授、中国美术学院和南京大学的特聘教授,并任教于伦敦大学金匠学院、剑桥大学、瑞士联邦理工学院、吕讷堡大学、洪堡大学、芝加哥西北大学等。
他历任国际哲学学院(Collège international de philosophie)项目负责人、贡比艾涅技术大学“知识、组织、技术系统”研究小组组长、法国视听研究所(Institut National de l’Audiovisuel)副所长、法国声学与音乐协调及研究所(Institut de Recherche et Coordination Acoustique/Musique)所长、蓬皮杜国立艺术文化中心文化发展部部长,并创立创新研究所(Institut de Recherche et d’Innovation,创立于蓬皮杜中心)、工业式技艺(Ars Industrialis)协会(后改组为“通贝里一代人之友”协会)、在线哲学学校药之学院(pharmakon.fr)等组织,自任负责人。
▼ 扫码预习《人类世中的人工愚蠢和人工智能》
(Artificial Stupidity and Artificial Intelligence in the Anthropocene)
吉木
创作者(http://jymoo.today)、新公共艺术研究者、科技史爱好者,阅读经验仅涉及凯文 凯利、尤瓦尔 赫拉利、《枪炮病菌与钢铁》《自私的基因》等科普读物,近期才开始关注德勒兹、斯蒂格勒。
lilin
技术哲学和媒介哲学爱好者,前记者,前古气候研究生(地质学)。曾举办《生殖崇拜、神话、混沌、AI 的未来》《人类世:身体与空间》等工作坊。
▼ 点击“阅读原文”,打开斯蒂格勒中文网
或者在浏览器输入网址:stiegler.care