管理学上有个彼德定律,比暴龙哥的酸咸菜定律还好用,那就是“每个人都会晋升到自己胜任不了的位子”,只要你工作有表现,在正常的机构中基本上都会不断升职,直到你坐上一个自己胜任不了的位置。由此得出的推论就是,每一个职位最终都将被一个不能胜任其工作的人所占据,那么我们能看到的那些工作和任务,多半都是由尚未达到胜任阶层的员工完成的。
怪不得这个世界乱糟糟的。这个很好解释了“世界是由一个巨大的草台班子组成的”这个现状背后的原因:那些占了位置的人,没有几个是称职的。
其实写书的作者也会出现这个问题,那些作者只要有机会,总会写到自己招架不住的内容。
我觉得尤瓦尔·赫拉利就是这样的例子。
他本身是一个历史学者,主要研究的是中世界历史和近代军事史,之前写《人类简史》《未来简史》《今日简史》三本大史,写得又顺风顺水,文笔流畅,都是宏大叙事,又不得罪人,又畅销,连带着作者也变成了大红人,所以就算他自己不写,出版商也会不断让他写书的。
其实在前面几本书中也能看出来,他到后来关注的主题慢慢倾向AI领域了,成名之后的演讲也基本围绕这个主题,谈得多了,也就会感觉自己很有权威感,现在我手头的《智人之上:从石器时代到AI时代的信息网络简史》这本新书应该就是这个背景下的产物。
赫拉利认为,人类几千年以来的历史,背后都有一个关键,就是信息连接,这里的“信息”,涵义很广泛,包括故事、传说、甲骨文、历史记载、民谣歌曲等等,这些信息经过几千年的口口传播或者转抄传递,有时候有些人这修改一点那修改一点,都会影响历史的轨迹。就像现在中东几方混战的局面,也只是因为历史上同一个信仰对象同一本经书因为不同的人做了删改和解读,就活生生分开发展出了犹太教伊斯兰教基督教这些截然不同的历史轨迹,彼此之间征伐仇杀长达千年,到现在还是势不两立。
作者在信息链接这个角度切入谈历史,就很简单把AI这个话题衔接上了历史,他说以往历史上处理信息的连接、修改、传播的主题都是“人”,而现在与未来,这些工作的主体,已经是AI。
关乎人类命运的最重要的一件事,由AI来做与由人来做,当然会不一样,赫拉利就顺着这个意思,推论出来种种对未来的想象和建议。
思路是有新意的,但也不是特别新,他对信息处理影响历史的解读,也和我之前的观点类似,但是他按这个推理AI及未来,难免有点跳跃,单线考虑问题就算不上严谨的态度,可能是出版社实在催稿催得急了。
人文逻辑与科学逻辑的区别就在这里,实验室做实验,一定要做的是排除变量,才能得出精确的数据,但一个社会科学的作者胡说八道,就没什么禁忌,因为社会研究或者推理是不太可能完全排除变量的,他说的,是一种可能性而已。
书中讲述了很多历史上因为信息处理错误而造成的灾难或者悲剧,比如,郭沫若口中的万岁和“全人类解放者”斯大林,创造了一个需要被清算的名词“富农阶级”,造出这个名词的结果就是,后来残杀了数百万人,这个当然是人类历史上的悲剧,但作者指出,电脑和AI也可能会犯下同样的错误,甚至是系统性错误。
这些在科幻电影中有展现过,AI会错误把某一类人划分到一个概念之下,比如环保卫士机器人就会觉得这个地球上最大的污染源头就是人类,只要把人类消灭掉,就可以真正保护环境了……再比如众所周知的AI人脸识别系统对于白人和亚裔很准确,但对于黑人非常不准,这可能会导致AI无意识的种族歧视?
不过出现斯大林或者张献忠这一类的灾难,和AI有人脸识别的错误,好像没什么真正的参照意义,把这两者强行联系起来,真的是非常强行了。
另外一点,赫拉利研究历史自然是比较专业的,他说凡是有自我修正机制的社会,都比较不容易犯重大错误,不会产生大饥荒。这我当然认同。但他马上又推论出要让AI打造出强大的自我修正机制,因为AI不受控制……这有点不知所云了,按我自己的生活经验观察,一个极权体制下,掌权者引进AI,目的就是要加强控制,要稳固统治,所以这个时候AI的主旨就是要防范别人去修正掌权者,作为一个给政策建议的学者,他建议让AI帮助掌权者自我修正,这种建议是不是有点天真烂漫了?
生活在优渥安定的社会里的白人学者,总是难免有一种莫名其妙的书呆子气。
在AI与未来这个话题上,牵涉到背后伦理和管制,乃至哲学问题,非常复杂,目前能看到的所有著作,包括赫拉利这样的精英分子,感觉都还是在盲人摸象,这个倒没关系,摸得多了自然就能够拼凑出大概的模样,且摸着。
2024.10.14