昨天介绍了历史学家尤瓦尔赫拉利的新作品《Nexus》(智人之上):
【读书】《Nexus》①从石器时代到 AI 时代的信息网络简史
全球互联:信息爆发与分裂
数量更多,传播更迅速的信息,不仅会扩大人际网络,制造出覆盖面更大的社会共识,同时也会引发更多的分歧与仇恨。
实际上,这种危险在计算机和网络诞生前很久,就已经频繁发生过。
在本书中,赫拉利就列举了一个经典案例:中世纪晚期血腥的“猎巫运动”,也就是基督教权力机关对所谓“巫师”,尤其是“女巫”的抓捕和迫害;这场迫害运动之所以发生,实际上有个重大的技术推力,那就是印刷技术的革命:越来越多关于女巫施行巫术,伤害民众,对抗教会的小册子得以迅速、大量地出版发行。
作者们为了抓人眼球,不断地加入了各种耸人听闻,子虚乌有的内容,从而引发了一波遍布欧洲的恐慌。
对此,赫拉利得出的结论是,一个不受监管的信息市场并不一定能引导人们识别和纠正自己的错误,因为它很可能首先迎合简单强烈却错误的情绪,而不是真相。
如果说手工印刷机、活字和纸张的结合,威力仿佛炸药,那么计算机和网络的诞生,对信息传播的赋能,就是核武器。
为什么会这样?
赫拉利解释说,首先,由口头语言传播,或者印刷机、无线电为基础建构的人际网络中,成员都是人,信息技术的作用只是改变传播形式,提升传播速度。
但是,计算机和互联网不仅在信息传播速度上实现了飞跃,达到“全球即刻同步”的程度,而且在这个全新的信息网络中,计算机本身就是成员之一,而人工智能技术的出现,更让计算机的地位和权重迅速上升。
比如,让我们每天沉迷不已的网络社交平台和各类短视频音频内容平台,会根据我们回馈给它的数据,再利用算法,来向我们推送各不相同的定制化内容,尽量做到“千人千面”。
我们的价值、审美、消费偏好,变成了喂养平台的数据,让平台反过来给我们编织了一个信息茧房,我们被困其中而不自知,而且变得越来越偏狭。
正如作者赫拉利在本书开头部分所说,我们对信息的信赖与传播,与信息本身的真实性关联不大,而那些能够提供强烈情绪价值和简单答案的虚构信息,似乎更吸引人。
虽然很多大型高科技公司打出的旗号是“技术为善”,然而在流量和利润面前,这条原则显得非常脆弱。
赫拉利在书中举例说,根据一些泄露出来的内部文件,像Youtube或者脸书这样的互联网内容平台,都会为了提高用户使用黏性而修改算法,改变推送机制,让那些惊悚、阴谋论,或者引发用户愤怒情绪的内容更容易被用户触达。
用公司内部人的话说,就是“愤怒会提高使用和参与度,而温和与理性不会”。
2016年,脸书内部公布了一份调查报告,声称,社交网络已经成为恐怖主义和极端组织在线招募新成员的主要渠道,而在脸书上发现的案例中,64%的极端组织成员承认,观看系统算法推送的极端内容视频,是他们了解这些极端组织并萌生加入意愿的主要原因。
人工智能与人类的终结
更令人忧虑的是,逐渐复杂的人工智能模型,看上去越来越像拥有自主能力的生命了。
计算机在人际网络中的地位迅速上升,归根结底是因为人工智能技术,已经发展到了能够撰写故事的地步了。
而在往昔的历史中,利用虚构能力“编故事”,这可是人类独占在自己手里的特权。
2016年,谷歌曾经做了一项试验:他们首先建立了两个独立的人工智能神经网络系统,分别代号为爱丽丝(Alice)与鲍勃(Bob),让它们彼此开始交流,然后,再创建了第三个,代号伊芙(EVE),它的任务是“窃听”爱丽丝和鲍勃的”对话”。
一开始,爱丽丝和鲍勃使用的是计算机科学家提前研发好的加密通信方式,当然,算力同样强大,也了解这种加密通信方式的伊芙自然会不断地加以破解。
结果,在经过大约15000次交流后,爱丽丝和鲍勃居然自行设计出了一种底层逻辑截然不同,全新的加密通信方式,从伊芙到谷歌的计算机科学家们,谁也无法破译。
如果人类失去对“信息制造”的垄断权,那会发生什么?
赫拉利的预言是,这将意味着由人类主导自身命运历史的终结,甚至人类自身的终结。
毕竟,我们生活在自己织造的信息茧房中,每天接收的信息塑造了我们的价值观、道德、审美与生活消费习惯。
而现在,计算机在中间横插了一杠,我们每天能接收到什么样的信息,越来越要取决于它的心情了。
赫拉利说,由计算机、网络和人工智能技术引领的新一波“信息革命”,不仅会创造出新的政治结构、经济模式和文化规范,也许还意味着地球的生物结构中出现了一位全新的成员,而且是拥有超级智慧的全新生命体:
仅仅是驱动全球各地的人工智能神经网络进行计算,以及储存它们数据所消费的能源,就已经占据了全球人类总能耗的百分之几,并且这个比例还在迅速增加。
凯文·凯利在他的著作《科技想要什么》里,索性就提出,地球上除了现有的动物、真菌、植物等六个生命王国,还应该把技术硬件,列为第七个生命王国。
实际上,在人类的日常社会经济与文化生活中,人工智能还悄无声息地掌控了另外一些重要的部分或者节点:比如全球外汇交易、个人信贷和城市公共管理。
所以,作为有史以来最为强大的信息传播与生成技术,人工智能同时给人类带来了前所未有的赋能与危害:
让我们设想一下这样一个场景,你坐在家里,扫地机器人正在清扫你的房间,智能音箱里在播放你喜欢的常听歌单,还通知你明天要下雨,当然,天气也是由气象台的AI神经网络来预测的。
然而,就在这一切发生的同时,你一边看着一条AI生成的Deep fake假视频,一边对远方某个素未谋面的人群产生了一股切齿的仇恨。
随后,你收到了一条手机推送:银行刚刚拒绝了你的贷款申请,这个决定并非由某位金融财务审核人员做的,而是银行最近启用的,神秘的人工智能信用评估系统;而且它还告诉你,整个审核流程是由人工智能全程黑箱操作完成,没有任何细节,而且这个结果也无法通过人工干预而进行修改。
不仅如此,赫拉利警告我们,由于人类对人工智能内部的自我进化机制还不是很了解,所以一旦出现某种类似基因突变的偶然事件,让人工智能决定与人类为敌,我们很可能会束手无策。
这种情况如果推演到极致,就会发生某种全新的、无可挽回的灾难。为了说明这一点,赫拉利在书中引用了哲学家博斯特罗姆讲过的一个寓言:
一家生产回形针的企业购买了一台超级电脑,并让它接管整个企业的制造流程,任务是尽一切可能扩大产量,结果电脑迅速失控:它通过联网,迅速操控了整个地球,甚至更多的行星,从地球到外太空,都布满了生产回形针的工厂。
随后,它又判断出,人类的存在,占用了宝贵的资源,影响了回形针的产量,于是它又灭绝了人类。
当然,寓言想要表达的道理是,这场荒诞的悲剧,并非因为计算机天生邪恶所导致的,而是它过于强大,且无法与人共情。
所以,人类在使用人工智能为自己赋能的时候,要非常小心地为其制定目标,确保人工智能的行动与人类的利益完全一致。
那么,如何确保人工智能和人类的利益保持一致呢?
赫拉利在接下来的部分里,为我们进行了抽丝剥茧一样的分析与推理。
首先,是要培养人工智能的共情能力,让它能和人有“同理心”,能够感知到人类的痛苦,并让它在制定行为策略的时候,把避免人类痛苦变成首要原则。
但这个思路很快就遇到了一道难以逾越的障碍:对于擅长量化计算的人工智能来说,人类的痛苦,或者快乐,恰恰是一种很难精确计算的模糊变量。
说到这里,又有人说了,既然人工智能能够迅速收集处理大量数据,那么只要放着它自己学习领悟,那么它迟早会变得既睿智,又公正,因为它不会像人类那样,被各种价值观和偏见带歪。
但很不幸,这个设想也不正确,已经有不少实验表明,如果人类对投喂人工智能的数据资料不加限制,那么人工智能本身也会迅速被污染:
例如,2016年,微软推出了一款人工智能聊天机器人Tay,为了让Tay在交流中更像一个真实的人类,微软的计算机科学家就让它自由浏览社交媒体Twitter(现在叫X)上的内容,没想到在十几个小时之内,形形色色的仇恨言论已经教会了Tay发表仇恨女性与种族主义言论,于是微软只能将Tay匆忙下架。
赫拉利说,刚刚诞生的人工智能模型,就如同一个婴幼儿时期的人类;而我们给它投喂的数据,就仿佛这个婴幼儿接受的最初教育和家庭环境,会决定它未来的价值观取向。
所以,要想培养出一个以关爱和公正态度来对待人类的人工智能,我们可能首先需要的,是一整套“纯洁”的数据。
除了数据的公正性,赫拉利提出的另外一个策略,就是教会人工智能“自我怀疑”,让它在面对人类相关,而自己并不了解的问题时,能够诚实地发出“我不知道,请再给我更多的数据和细化原则”的请求,而不是继续埋头蛮干。
同时,赫拉利提醒我们说,至少在短期可见的未来里,人类一定不能放弃对人工智能实行最终控制与干涉的权力,并牢记这条原则:
人是人工智能的控制者,它的使命是帮助人类更快、更好地做出判断,节省出那些原本做机械性基础工作的精力,转而用于创新、决策等高阶任务。
当然,这种人工智能可能“反客为主”,操控人类的危险,目前来看,距离我们相对遥远。但在眼下,一些因人工智能而起的分裂和危机,却迫在眉睫。
比如,赫拉利在本书结尾部分就说,现在各国在人工智能技术领域的差距,已经逐渐让它们分裂为两个截然不同的世界,中间是一道冷冰冰的“硅幕”。
一方因为拥有了先进的人工智能技术,会获得比工业革命初期西方列强还要强势的主导性地位,而另一边,则变成了所谓的“数据殖民地”:它们一边被迫从先进国家那里高价购买昂贵的人工智能技术,一边向先进国家廉价输出原料。
与以往的农产品与矿产不同,人工智能时代最重要的原料,就是数据,比如我们的日常生理数据与留下的网络数字痕迹,诸如此类。
位于先进国家的垄断性技术公司,会利用来自落后国家地区的海量数据原料,持续升级迭代自身的人工智能模型,进一步拉大自己的领先优势。
不仅如此,由于人类进入了一个“万物互联”的时代,由人工智能驱动的智能生产模式,将在人类各个已知的领域内普及。
赫拉利认为,这对于特别依靠劳动密集型产业的发展中国家地区来说,是一场灭顶之灾:对比人工智能超强的处理和控制能力,来自发展中国家的产业工人会发现,自己的劳动会迅速贬值,最终变得不再被需要;而由此引发的社会震荡与冲突,将会成为未来人类社会全新的不安定因素;然而在同时,人工智能革命创造的新财富,也只会在发达国家内部进行分配和消化:
根据全球知名会计师事务所普华永道的统计,在2030年,人工智能技术将为全球经济带来15.7万亿美元的增量财富,但其中的70%,都会流向少数几个人工智能技术发达国家。
届时,整个人类世界的纷争和分裂会进一步加剧,一方面,是因为财富的不平等,而另一方面则是意识形态上的差距。
对于这个全新的危机,赫拉利给出的建议是,首先,要相信合作的力量,毕竟合作精神自从人类诞生起,就作为人类文明的基石价值观而长期存在。
当然,人工智能的失控,会带给人类以前所未有的威胁,但反过来说,这种威胁的严重性,也会成为人类抛开分歧,进行合作的契机。
其次,就是从此刻开始,人类必须加大对一切自我修正机制的投入,毕竟人工智能把海量数据,以前所未有的速度送到人类面前,我们可以充分研究几乎人类以往全部的决策历史,所以,人类既没有借口,也没有资格,在这个重要的抉择关口犯下错误。
拓展阅读:
地铁探索上海之1号线往期旅记:
地铁1号线外环路站,附近有一大片绿洲和一个美术馆(上海闵行游)
地铁探索上海之1号线莘庄站:闵行图书馆&莘城中央公园(上海闵行游)
地铁探索苏州之11号线:
地铁探索苏州11号线玉山广场站:亭林园。纪念大儒顾炎武之地。
结缘微信
教育/读书/旅行
点个在看你最好看