来源:中信出版社
作者:周雪光
正文字数 4235 字 |阅读 15 分钟
听/读过赫拉利的前两本畅销书《人类简史》、《未来简史》。如果说黄仁宇的叙事文笔是大历史风格,那么赫拉利的文笔就是“超大历史风格”了。
他的笔触仿佛是电影镜头般,将我们眼前的情景急速拉开推远,用广角镜、长镜头来观看历史进程和芸芸众生,人类历史万年犹如弹指一挥间。
这些书籍属于通识性读物,即基于已有的学术研究知识,旨在进行公共领域传播普及的知识性读物。这本书也是这样的风格。
有趣的是,作者在书中扮演了历史学家与未来学家的双重身份,虽说书中大多内容都已了解,但从“超大历史”角度展现,加上作者的鲜明立场和呼吁,带来了新的思考和想象。
这本书分三个部分:人类网络、非生物网络、计算机政治学。
第一部分主要是从网络角度重新审视人类历史的演变。第一部分用了很大的篇幅和生动的故事,讲了几个直观明了的道理。简单记录一下几个观点。
信息与现实间关系。我们通常想到信息与“事实”对错是非有关。作者提出,信息与现实(reality)不同,信息的主要特征是“联结” — 联结人们、场景、事件等,从而产生共享的信念、群体和叙事……。
文中提出三种信息类型:客观存在(外在物理世界)、主观存在(内在心灵感受)、主体间建构的现实( intersubjective )。
第三种类型是一个社会学概念,即现实并非客观所在,而是来自人们共享意义的构建。想象一下我们周围的各种历史叙事。当人们共享了某种叙事时,这种共享叙事就被建构为人们“现实”社会的一个部分。
联结的渠道:故事与文牍。作者提出,智人的能力在于可以产生精细活的大规模合作,而合作需要有共同的信念。故事叙述对构造信念和群体凝聚力尤为重要。这里的“故事”即是历史上的各种叙事。
也许作者正是从这里学到了技巧,这本书可以说正是通过各种故事来传播有关社会组织方式的信念。
与此相对的是文本所产生的关联。第三章“文件:纸老虎也会咬人”讲述了另外一种联结,即文字书写传播的重要性。书面文件将联结范围极大扩展了,而官僚体制则是这一联结的承担者。官僚制度有其弊病,特别是分类切割导致目光短浅。
在作者看来,神话故事与官僚制度是两种不同的又互为补充的联结方式,历史演变过程在两者间寻找某种平衡。
作者在第四章“自我修正机制” 提出了一个重要观点,即,任何信息生产和加工过程都会产生误差甚至巨大错误。
这让我想起一位美国政治学者(Hammond 1993)的研究工作,他用简单例子说明,在信息处理过程中,即使人们拥有同样的信息,如果在最初的分类有所不同,最终会导致性质截然不同的判断和决策。
这里引出了一个重要的问题,什么样的组织形式有更好的自我修订机制?作者用教会与科学共同体比较说明,后者有着强大的自我修订机制。
早期现代欧洲的筛选机制是连接了大学内外的学者与研究人员后形成的一个横跨欧洲和全世界的信息网络,各种观点思想通过科学研究发现而不断择优去劣,修正错误。这个看法颇有道理。
但我的观察是,学术共同体中也有其自身惯性和习俗,影响其自我修订的节奏,有时(尤其在应对危机时)导致巨大灾难。
进一步的问题是,如果关于组织内部的自我修订机制失灵,怎样的制度环境(用我熟悉的术语来说)才能更好地纠正这些失误,避免产生重大灾难呢?由此引出了这本书的一个重要内容,即,讨论不同的组织形式在信息处理方面的优劣势。
作者以民主制度与极权制度作为两个理想形态加以对比。它们体现了两种不同的信息分布网络:集中式与分布式。前者通过各种组织机制来高度集中和控制信息;而后者的多渠道、多中心自治机制保持了信息的多方向联结和流动,形成了分布式结构。
两者在信息处理中在不同条件下各有优劣势,在学术研究中已有深入的探讨和认识。
从第二部分“非生物网络”开始,作者悄然转变身份,从历史学家身份转变为未来学家,而且,这些未来学的内容和题目在几年后的今天似乎已经是正在进行时了。
在这个背景下阅读这一部分,颇有感触。
第六章“与众不同的计算机”提出,计算机正在成为一种主动行为者,它能够摆脱人类的控制,超越人类的认知,主动塑造社会、历史与文化。
文中的例子惊心动魄:2016-2017年脸书关于罗兴亚人的暴力、仇恨与歧视。公共平台的“算法”“自己做出了主动且致命的决定”推动了仇恨与冲突。
作者提出,智能与意识其实是两回事。智能是实现目标的能力,例如把用户在社交媒体平台上的参与度最大化。计算机不需要意识,也可以通过智能推动政治行为,例如参与假新闻、假人类(bot)的生产过程。
作者列举了一系列AI危害人类的可能性,有一些正在现实社会中浮现,例如,科技可以用于监控、社会信用体系,服务于专制统治。科技可以根据眼球运动的模式来判断一个人是专心还是分心,在意细节还是看重全局,从而影响人们抉择和行为取向。而且,网络可以永无疲劳地持续运行,从而更为全面地操纵人类行为。
作者的几个观点值得思考。
其一、在民主制度与极权制度间,人工智能能让科技力量的天平开始倒向极权制度那一方。AI对于人类的威胁是,人们无法掌控AI。
作者提出,“摆脱算法偏见的难度或许不低于摆脱人类的偏见。在算法经过训练之后,人类想要消除算法的训练痕迹,可得花上大把的时间和精力。” 这个观点令人细思极恐。
在我看来,另一可能性是,在AI的严格控制下,不同时点上agency的弹性丧失,导致制度僵硬从而崩溃。
其二、另一危险是, AI有可能推动世界重新走向分离格局。全球化连接各个角落,是人类社会的进步。但在后全球化时代,我们面临从网到茧的危险。
这本书的最后几章着眼于比较两类社会制度:集权制与分权制(极权社会与民主社会),因为这两个制度处理信息的方式不同。
微信 ID:chunnuanhuakai-cch