一、先哲们的不可知论
在人工智能获得了一些瞩目突破以后,出现了一种无限度的技术乐观主义倾向,即认为按照现在人工智能发展的速度,它很快就能超越人类智慧,甚至替代人类成为地球上的新霸主,其中一个重要标志,就是实现了通用人工智能。然而,对于什么是智慧,理性能否完全认识这个宇宙,以及对智慧和理性本身的机理,一些先贤们曾说了一些不那么乐观的话。康德说,人类永远无法认识物自体,因为人类首先要弄明白他们自己的感性和知性是从哪里来的,是怎样工作的。但对能否回答这样的问题,康德是悲观的。他说,“倘若我们想要对感性和知性的来源做出判断,那么我只能眼看这种探索完全超出人类理性的界限而无能为力。”(转引自曾纪军,刘烨,2007,第136页)哈耶克也认为人类对宇宙万物的认识,尤其是对复杂系统的认识是“理性不及”的。他在其《感觉的秩序》一书的结尾说,“完全解释我们知道的外部世界的前提,是完全解释我们的感知和心智是如何运作的。如果后者是不可能的,我们就没有可能提供有关现象世界的完全解释。”(Hayek, 1976, p.194)
有人会说,康德和哈耶克的时代,科学还没有发展到今天这个地步。他们无法预见到现代人工智能的高度发展,所以他们的判断过时了。我的回答是,康德和哈耶克都是不世出的智者,他们的判断不是经验的判断,而是形而上的、哲学的判断。形而上判断的特点,就是能在人类经验所不及的地方给出判断。他们的判断意图给出人类智慧的上限,并警告人类不要错判自己的智慧。可能有人会说,人工智能将会超过人类,人类不能认识的事物,人工智能可以认识。我的回答是,既然是“人工”智能,它一定是人的理性设计的,如果人类不知道达成自己理性的原因,他们怎么能够设计并制造一种智能,超过他们自己都不认识和理解的智能呢?
二、人工智能只是在简单系统单项上成功了
今天取得重大突破的人工智能,都是在单项上实现的。如阿尔法围棋击败李世石,ChatGPT成为大众满意的聊天机器,自动驾驶汽车正式上路,人工智能证明几何问题达到奥数冠军水平,等等。关键是,它们都是单项。机器在单项上超过人类,这早就出现了。汽车比人跑得快,飞机能飞而人不能飞,计算机的计算速度远超人类,……。那么,众多的单项不就合成了全能冠军了吗?关键是,全能的项目是多少?100,1000,10000?按照人类的需要,即使是10000项也是不够的。因为人类的理性不仅要判断他们熟悉的事物,也要判断他们从未见过的事物,他们要应对各种偶发的事情,他们还要思考感官永远无法经验的事物。任何人工智能的单项,都是人类要刻意解决的问题,并且边界清楚,规则明确,变量简单。例如围棋就是如此。那么,100000项应该够了吧?暂且算够了吧。但这100000项综合起来就无法实现。
我们先看一下,人工智能的单项突破是如何实现的。以阿尔法围棋为例。在19×19的围棋盘上,共有361个点。人们可以选择其中任何一个还没有被占据的点下棋。每一步约有250种选择,而平均每局棋起码要下100手以上(米歇尔,2021,第227页),如果算上对方的应着,就有200手以上。如果在一开局就要寻找出最佳着法,最好是把各种可能全试一遍,然后找出结果最好的那一着棋。然而,所有可能选择的数量异常巨大,250的100次方,有6.223E+239种选择;200次方,则目前的计算器给出的答案是“无限”。目前世界上最快的计算机也才每秒2E+16 次。阿尔法围棋也只是采用了蒙特卡洛随机方法才极大减少了每轮试错的数量,并用巨量迭代训练最后发现接近最佳的着法,并赋予其最高权重(米歇尔,2021,第233~234页)。这种方法,我们称为“遍试”。我将之比喻为掰手指头。意思是说,遍试,或掰手指头是任何思维形式的基础;而思考,就是用比掰手指头更巧妙的、试错次数更少的方法发现隐藏在众多选择中的最佳选择。而当计算机能够极大地提高掰手指头的速度后,它可能超越人类思维能力,更快或更“聪明”地发现答案。但在形式上,这显得很“笨拙”。
如果人工智能不是以人类思维的模式,而是以另外一种模式“思考”,并且有可能超越人类,也许就是这种高速遍试方法。它之所以现实,就是因为它异常简单,在技术上容易实现。我们可以假设,宇宙万物的原因以及事物之间的因果关系都是类似于围棋这样的形式,即在数量异常巨大的可能选择中选出一种最佳选择。这种“最佳选择”相当于传统中国儒道两家的“道”的概念。“道者万物之奥”,即道是万物的原因。但它又是不易发现,看不清楚的,“迎之不见其首,随之不见其尾”,“恍兮惚兮”。探寻道,发现道,要尽极大的努力。沃尔夫拉姆在《一种新科学》一书中使用的方法很类似这种方法。他最先设计了一个最简单的元胞自动机模型,只有一维三元二态,一共有256种可能的规则,他通过遍试找出了三种规则是有意义的或有效的,即显示出有规则的图案。这三种规则就类似于“道”,或者围棋中的最佳走法。这说明,在极简单事物中,人们可以使用遍试方法。
三、人工智能做不了复杂事物的全能冠军
然而,当事物变得复杂一点儿,如当元胞自动机变为一维三元三态,则可能的规则就有7625597484987个(Wolfram,2002,第60页)。而进入到二维层次,规则可能性的数量就会进一步增大。仅对二维九元两态的规则限制的种类数量就有4294967296个(Wolfram,第213页)。而人类通常面对的是三维或四维空间,其可能选择的数量更是大得不可想象。如此巨大数量的可能选择,不仅人类的能力远远不足以遍试,就是计算机也是力所不及的。前面说过,目前世界上最快的计算机也才每秒2E+16 次,而遍试围棋的所有可能着法就有6.223E+239种选择以致“无限”。而围棋只是人类发明的极大简化了的游戏,任何在具体事务上所要处理的问题都会有数量大得多的选择方案,因而如果要靠高速遍试方法解决博弈之外的实际事务,恐怕现在的计算机速度难以胜任。例如虽然人工智能在图像、声音和文字识别方面取得了重大进展,但如果将这几个维度的人工智能放在一起,其复杂度并不是这几个维度的简单相加,而是几个维度交互排列组合,使可能选择的数量高出几个数量级。并且现实问题的最终结果也不像博弈的输赢这般确定,而是随自然的或社会的环境变化而变化,最终要由自然选择来决定,给行为策略赋值就非常困难。
更不用说,要作通用人工智能,就是将100000项任务都做到顶尖水平。而不同事物及解决方案都有不同的具体特点,最重要的是对它们的价值判断不一样,就不能用同一个模型,如不能用对植物的价值函数来判断动物的好坏。因而人工智能不能将一个领域的能力转移到其它领域,即所谓“迁移学习”的能力很差。它们也处于不同的维度,如视觉图像识别,声音识别,文字识别有很大不同,把它们放在一起并不是简单捆绑就可以的。因而“通用”人工智能意味着分别对不同事物不同维度信息有着同样高的理解和应对水平,却不能用一个通用模型包打天下。而不同事物可能需要在同一时间统一处理,这是人类经常遇到的情形,如他们在渡河的时候遭逢下雨又遇到野兽来袭,通用人工智能也需要保持足够多的算力以备多种事情同时发生的不时之需;将不同维度的信息综合起来统一识别和处理,则又使可能选择的数量高出几个数量级,因而需要的更为高速的遍试能力。然而,在应对单项任务时,计算机的速度已显捉襟见肘,它对多项合并的问题是更会显得不足。
四、人工智能计算速度的极限是光速
有人会说,计算机的计算速度还会增长。根据摩尔定律,微处理器的性能每隔18个月就提高一倍。但已有迹象表明,摩尔定律在放缓。有人证明,摩尔定律有不可逾越的上限。在微观上,晶体管已经小到原子层次,这是小的极限;在宏观上,按摩尔定律的指数增加,终有一天会超过宇宙所有原子数,超过大的极限。当然在现在,也还有超越摩尔定律的现象,这就是英伟达现象,或称“黄氏定律”——英伟达在8年中将计算速度提高了千倍。主要是通过降低不影响结果的精度,减少不必要的神经元等措施实现的。实际上是采用巧妙方法减少无用多余的计算实现的(半导体行业观察,2023)。并且还实现众多芯片互联集成,将它们的计算力累加一起,共同形成了更大的算力和更快的速度。另外还有量子计算机和生物计算机。似乎人类总有办法克服障碍,不断提高计算机的试错速度。如果长此以往,计算机的速度会越来越快,终有一天会满足通用人工智能的所有需要。
然而,这种看法只是一种低阶看法,是根据以往经验、没有看到极限的看法。就像农场中火鸡的经验一样,主人每天都来喂食,这是它们的一贯经验,但它们不知道,有一天主人不是来喂食的,而是来杀它们的。从上帝视角,摩尔定律或类似的指数增长定律也是在低速情况下才近似成立的所谓“定律”,它会持续增长,但当速度接近极限时,就开始失灵了。我们知道,速度的极限是光速;而计算机运转靠电子的运转,而电子速度的极限也就是光速的极限。从形而上角度看,根据爱因斯坦的质能转换公式E= mc2,即能量等于质量乘以光速的平方,如果速度是无限的,要转换为物质的能量就需要无穷大;时空就被贯通,因而从甲地看到乙地不需要时间,也无所谓过去与未来,因果关系也是瞬时实现的。这都是不可能的;即使可能,无穷大的能量也是无从获取的。因而速度必有上限,这就是光速。物理学家告诉我们,当速度接近光速时,光子开始遇到越来越大的阻力。越是接近速度极限,阻力越大,直到无限大。因而,计算机速度终有上限。
现在,我们可以根据光速这个上限来估计计算机的计算速度上限。假设计算机每计算一次电子跑的距离是1厘米,用300000公里除以1厘米等于30000000000,即3E+10/秒。这是单机的速度,如果采取英伟达的方法或平台集成的方法,也只能是增加有限倍,即使增加1亿倍,也仍只是3E+18/秒。仍会形成对计算速度需求的上限。如果说1厘米太长,计算一次的距离即使是1纳米,也只能提高到3E+25/秒。这与前述围棋遍试所有着法的数量6.223E+239种选择以致“无限”,还差得很远。更何况人类面临的现实问题远比围棋复杂,其遍试所需次数远超围棋。即使用蒙特卡洛方法减少遍试次数,所需迭代次数也接近天文数字。也许人类还会发现一些巧妙且简便的算法,节省大量计算次数,但这需要时间,在任何既定的时间内,最快计算速度都是一个有限的数,节省计算次数就相当于提高速度有限倍,总是有一个上限。另一方面,据一些研究,现在最快的计算机其速度也只是大脑的1/3(科学小全,2023)。这显然只是个粗略的估计。如果我们假设大脑的计算速度已经达到了光速极限,那么,人工智能终究要受到计算速度上限的限制,而无法实现通用人工智能。
虽然人工智能不可能无限制地提高计算速度,但对计算速度的需求却是没有上限的。要实现通用人工智能,对计算的需求则可以趋向无限。有这样一种可能,人工智能被要求完成的任务,初看起来并不太复杂,需要计算的数量看来还可应付,但是随着复杂度的增加,需要遍试的可能选择会按指数级迅速增长。就如同印度国王轻易答应按棋盘每格加倍的方法放米作为奖赏,在第一格放进一粒米,以后每格加倍,结果到第64格时已是天文数字。人工智能被要求解决的问题,看起来似乎并不复杂,但当要求它同时辨认图像、声音、触觉、嗅觉、味觉和文字共同构成的事物,如对春天的感觉,这在人类看来是很一般的事情,其可能的选择已经趋向无限。无论人工智能以后的速度能提高到多快,但终究有限,以有限能力对无限需求,是不可能完成的任务。
五、一个假说:人类已达到宇宙中智慧的极限
如果上述判断成立,则又可以推导出一个重要假说,如果通用人工智能因其光速上限无法实现,即它无法超越人类,则人类就已经是宇宙中达到或接近这一极限的智慧形式。这正是人的有限理性的量化边界。人工智能虽然会在单项上超过人类,但无论是人类还是人工智能,在计算速度必有极限的情况下,当将智能总量综合分布到各种功用上时,每个功用的计算速度就会受到限制,人类只能采用“巧妙”方法来节约遍试的次数。而综合起来看,人类的这种分布智慧资源的模式,要优于人工智能。因而,当我们将人工智能和人类的智慧模式看作是两种互替的或竞争的智慧模式时,人类的模式是将得智慧资源分布于各个单项或方面,从而每一单项看来都不会速度很快,而人工智能是将智慧资源集中用于特定领域,因而采取高速遍试方法却能在单项取得成功。在总体智慧因光速上限有其极限时,它就是稀缺的,也必需合理有效地分配于各个方面。当一个单项过于突出时,其它单项就会相应欠缺。不同的人有不同的侧重,有些人聪慧,有些人优雅,有些人敏捷,有些人深沉。更有些人由于兴趣和职业的原因,在某一单项上有超常发展,却以其它能力低下为代价,这就是他们在某一单项上的优越禀赋会被在另一方面的低能笨拙所平衡。
这就是自然演化所导致的智慧分布结构的调整。也就是说,人类为何演化为今天这般的智慧分布,是自然选择的结果。他们会将对生存最为重要的功用赋予更多的智慧资源,较不重要的赋予较少的智慧资源。究竟赋予多少,形成什么样的格局,一个基本原则是:够用,而不是最快或最好。最终的检验是,生存下来。假设人工智能的计算速度达到了极限,即达到人类的水平,它在各种功用上的分布却是由人类掌握的。它可以将所有计算能力全赋予下围棋,但在其它方面就是零。这只是将人类专业化智能分布推向极致。当它想把这种计算能力分布到其它功用上时,它并不知道应该形成一个什么样的结构。由于人工智能并不是直接面对自然选择的,它就不可能通过自然选择达到一个合理的智能分布。它只是依赖于不同的人类的具体需求而发展,因而不能像人类这样合理地布局智慧,在总体上至少不能像人类这样有效使用有限的智慧。这就不仅在速度极限上,而且在结构上,不能达到人类通常达到的智慧水平。
六、人工智能与人类的分工
可以说,在演化的意义上,人类就是人工智能的“自然”。人工智能要达到什么样的智慧资源分布取决于人类的选择。而人类的选择只是对人类需求的响应。我们可以推想,人类智慧和人工智能在模式上并不相同,它们会在不同方面互有优劣。这为他们之间的合作提供了空间。人们一般会优先选择对他们来说成本较高、在人工智能的实现上成本较低的功用,因而是一种成本收益计算下的经济选择。而不是人类认为自然而然的、自然演化形成的下意识的功能(如看到某图景时迅速抓住其要点,并理解在图景背后的意味和情感,米歇尔,2021),而要人工智能实现这些功能却成本高昂,不很经济。也就是说,在某些领域,人工智能的效率高一些;而在另一些领域,人类的高一些。所以仅从人类的选择而言,他们也不会做出一种“通用”的人工智能,毋宁说要做出一种“互补”的人工智能。从自然选择的角度看,这种人工智能不会使其在没有人类的帮助下生存下来。
在这里,我们将人类智慧和人工智能看作是两种不同的智慧模式。一种是专一的、异常高速的遍试;一种是遍试速度较慢、但能用巧妙方法极大减少遍试次数,却会兼顾满足生存的各个方面的智慧需求;所谓“巧妙方法”是,重要性选择,分类,抽象,化简,直觉或顿悟,形而上的一般化,以及神的概念的创立,等等。两者在一定的程度上可以互替,但由于两者的能量效率不同,互替不可能任意进行。如果将人类个体作为一个智慧单位进行能量效率评判,其能量效率相对较高;因为人类个体相对有限,但如前所述,其所输出的智慧功能却是很大的;而现在人工智能多是以多机大平台为规模的,其能量消耗异常巨大。前者耗费的能源以个人能获取的能源为限,后者耗费的能源则是大规模集中供应的。“人脑仅需约20瓦特即可运行,具有极高的信息处理效率。”(Yin Ava, 2024)而目前人工智能大模型越来越复杂,总体能耗越来越多。虽然单位能耗在下降,但作为一个智慧单位,人工智能的耗能规模要远大于人类个体。“ChatGPT每天的用电量是一个美国家庭的1.7万多倍”(武宗 ,2024)。如果人工智能的这种智慧模式要优于人类,为什么自然选择没有演化出耗能规模更大的人类个体呢?
再进一步,我们不能仅用人工智能作为一个大规模整体与人类个体作比较,而应与整个人类作比较。因为人类的“计算”或认知是以全人类为单位的。如今多达80亿的全球人类居民每时每刻都在“遍试”,不过是以随机的方式。在通讯技术迅捷的今天,任何一个优越的选择产生了好的结果,就会迅速传播开来,被其他人所仿效。并且人们之间是有分工的。而今天的分工实际上是智力的分工,其效果是节约信息和知识的成本,这又极大地提高了人类智慧的能量效率,使人类整体的智慧水平远超出人类个体。实际上,大模型使用的训练材料,正是无数个体不同的智慧反应,由他们之间的互动产生的,而这种智慧个体的规模也许是从自然看来的最佳规模。一个集中式的人工智能只能是以这种众多人类个体为基础的智慧形式。如果没有类似人类个体的规模或分布,大规模集中的人工智能就没有足够的输入材料,也不可能智能。
因而,从智慧的能量效率角度看,人工智能这种能量效率较低的智慧模式不应该也不可能大幅度替代人类智慧。如果替代,从经济学角度看是不经济的,从自然选择角度看也不是“最适应的”。有人会说,人工智能的能耗是外在于人的,只会是对人类智慧的增量。然而人工智能消耗的能量与人类直接间接消耗的能量都是人类生产出来的,它们之间会此消彼长。按照现在人工智能的发展速度,据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%(武宗 ,2024)。而且我们还可以预见,随着计算速度接近光速,单位能耗会陡然上升。这意味着,人工智能消耗的能量在人类生产的总能量中的比重在迅速增加,也会消减其它能耗(包括人类直接消费的)的比重。因而不仅通用人工智能不可能实现,它不能完全替代人类,而且它对人类智慧的补充也是有限度的。以智慧的成本或能量效率衡量,人类与人工智能互有比较优势,这恰为他们之间的分工提供了空间。因而一个两者之间分工的社会比两者独自发展的社会更优。
最后,如果人类智慧达到了宇宙的极限,那么他们没有发展出类似人工智能的智慧模式,似乎不能说是自然演化的忽略。如果人工智能的智慧模式更有效,人类也不妨发展成这个样子。反过来我们应该想到,采取这种智慧模式不可能实现人类生存的目标,从而从自然演化的角度看,人类的智慧模式是最有效的,而人工智能的智慧模式是次于人类的智慧模式的。尽管我们假设人类智慧达到了宇宙的极致,但并不是说人类智慧不会再前进了。只不过前进的路径不是增大脑容量,提高计算速度,而是在众多大脑的互动中,在对以往知识的积累中前进。人工智能的意义在于,它以外在于人类的能源运转自己,以不同于人类智慧模式的模式提供智慧,却因不能自我发现智慧资源的合理布局,以及较低的能量效率,而只能是人类智慧的补充,通过与人类的分工增进智慧效率。因而,通用人工智能是不可能实现的。
参考文献
Hayek, The Sense of Order, The University of Chicago Press, Chicago, 1976.
Wolfram, Stephen, A New Kind of Science, Wolfram Media Inc., 2002.
Yin Ava, “怎样弥合人工智能和人脑智能的差距?”《追问》,2024年9月22日。
半导体行业观察,“英伟达成功的四要素”,《新浪网》,2023年9月8日。
曾纪军,刘烨,《康德的智慧》(电子版),中国电影出版社,2007。
科学小全,“人类大脑能秒杀超级计算机吗?”《科学小全》,2023年10月30日。
米歇尔,梅拉妮,《AI 3.0》,四川科学技术出版社,2021。
武宗,“惊人!大模型成“电老虎”,耗能惊人,科技巨头如何应对?”《以武学打开世界》,2024年3月12日。