内容简介
这是一本关于自动化的书,它提醒我们自动化对人类的影响,人们心安理得享受技术带来的便利却忽视了,它已经渗透进了生活和工作改变了我们的思维和认知方式。商家在设计程序和应用时,早就把他们的想法埋入了编程和APP中。
卡尔的作品无疑是给我们这个时代灌入了的一剂清醒药。他独特的思考问题角度,犀利甚至略为偏激 的言论再加上丰富的*前沿的科技案例会让人读起来畅快淋漓,且醍醐灌顶,意识到自动化等高科技潜移默化地给我们带来的深刻影响。这位一直在互联网时代火热浪潮里的冷峻观察者将我们带入了深刻的反思。
作者简介
尼古拉斯·卡尔,著名科技作家。出版有《浅薄》、《IT不再重要》、《要紧吗?》等著作,在《纽约时报》、《大西洋月刊》、英国《卫报》、《连线》杂志及其他报刊上经常发表文章。
解读文稿
前言
欢迎每天听本书。今天说的这本书叫《玻璃笼子》,作者叫尼古拉斯·卡尔,他是美国著名的作家和思想家,也是技术、创新和战略研究专家,毕业于哈佛大学,曾经担任《哈佛商业评论》执行主编。
他除了这本书,还有一本很出名的畅销书,叫做《浅薄》,你可能听过,在那本书里他的一个主要观点就是,互联网让我们的思维方式变得越来越浅薄,我们不会再像以前那样深入地去思考问题了。不管你同不同意这个观点,他都提出了一个新颖角度,就是现代科技给我们带来的不仅仅是便利,随之而来的还有很多隐患。
这就是这位作者的写作风格,它总是和我们现在的主流观点唱反调,乍一听他的观点,好像一个进入垂暮之年的老人看现代什么新东西都不顺眼,什么都要抱怨几句,实际上仔细想想他说的也不无道理,任何事情都有两面性,我们在享受现代科技带来便利的同时,是不是也应该仔细审视一下它从我们身上偷走了哪些东西。
现在我们只要手里有手机、电脑,就可以搞定大部分的事情。但是大家也都有这种感觉,如果手机丢了,造成的麻烦也比以前大多了,以前丢了手机更多时候是心疼钱和有用的电话号码,现在手机丢了,起码得先冻结支付宝、微信、网银,然后再把密码重新修改,还得防止别人通过自己的账号去跟亲朋好友诈骗、盗刷自己的银行卡。可以说丢手机不是最可怕的,最可怕的是丢了手机之后的各种信息泄露和后续的麻烦。
你看,我们和手机的关系,其实是一个相互驯化的过程,就像我们的祖先种植小麦一样,表面上看是小麦给我们带来了食物,实际上我们也被小麦给驯养了,我们的祖先从游牧的生活状态变成了农耕的状态,身体也开始变得不适应野外生存,各种生存技能慢慢退化,这是一个相互驯化的过程。
手机也是一样,作者就认为,手机在给我们带来方便的同时,也把我们给圈在了一个玻璃笼子里。这个笼子看上去是透明的,不耽误我们看外面的世界,但其实我们是被死死地卡在里面,根本没办法出来。下面我们就来看看,作者所说的这个玻璃笼子是怎么样的。
第一部分
第一点,作者认为,我们在慢慢地被周围的工具宠坏。
现在可以说很多事情都是自动化帮我们搞定的,扫地可以让机器人做、去陌生的地方可以用导航、自动驾驶的汽车也准备投入量产。由此带来的一个结果就是,我们的工作变得更加机械了,以前可能还需要写写画画的事情,现在就是敲敲键盘,把预先设计好的东西输入到固定的程序就可以了。
作者就说了飞行员技术退步的例子。咱们都知道,选飞行员是特别严格的,身高体重都有标准,不能有关节、骨骼、皮肤、器官上面的任何疾病,还得有健康的心理状态,然后经过严格的、长时间的训练之后,才有资格飞行。
在飞行时,飞行员需要保持高度的精神集中,准确操纵工具和设备,同时在大脑里面迅速做出计算、预测和评估,还得留意各种情况和信号。按道理来说,这么严格的筛选、这么高难度的工作,飞行员的技术应该是很厉害的,但是在2012年欧洲航空安全局对飞行员做出的调查报告显示,95%的飞行员表示自动化会影响他们的手动飞行能力和认知能力,让他们的技能慢慢退化了,有一位资深的机长就说,现在的飞行员已经不需要学习任何技术,只需要按按钮就可以了。
当然,咱们这里也不是说自动化技术是不好的,它对飞行安全其实有很多贡献,比如能帮助飞行员缓解疲劳,还能预警飞行风险,但是这也出现了一种新型的事故。在2009年,美国大陆航空公司一架客机就遇到了飞行事故。在起飞的时候是用手动驾驶,等飞稳以后,就转入到了自动驾驶模式,机长就开始和其他驾驶员聊天,就在快接近终点的时候,飞机的自动驾驶仪失灵了,机长就得开始重新驾驶,但是这时候由于它一连串的错误操作,让飞机彻底失控坠落。
事后,对事故的分析认为,主要的责任就在于飞行员团队缺乏应急反应能力和驾驶员的操作失误。这种事故就是在飞机失灵、需要飞行员马上做出反应的时候,由于之前太依赖自动飞行技术,导致飞行员的敏锐性和反应的准确度降低。每次飞行只需要3分钟的手动操作,其余的时间就盯着设备数据就可以了。这就让一个飞行员变成了一个电脑操作员。有一项针对警戒性的研究发现,让一个人盯着数据显示屏,保持专注的时间很难超过半小时。所以让我们一直监控着仪表盘,或者是自动化设备输出的数据,对我们的注意力本身就是一个挑战。这样就容易导致心理运动技能的退化,就是说飞行员会忘掉一些之前训练时候习得的知识,所以一旦有突发状况,就增大了发生事故的风险。
又比如说 GPS 也让我们的定位能力退化,最有代表性的就是因纽特人。我们都知道,因纽特人生活在北极,除了冰就是雪,做好的标记,可能一晚上就被冰雪覆盖没了。但是他们仍然有着超级厉害的定位能力,他们可以不用地图、指南针,就依靠星星、风向甚至是雪堆的形状就能判断定位。听起来特别逆天吧,这个就是他们在漫长的进化过程中,学会的特殊技能,但学习这个技能是需要跟着年长的老人学习,需要费很长时间才能完全学会的。
但是近些年来,GPS 的引入,让他们的这个技能慢慢地退化了,因为仪器用起来很方便,他们也不用花时间花精力去拜师学艺了,直接拿着设备跟着走就可以。但奇怪的是,随着 GPS 的使用率增加,捕猎事故的数量也增加了。因为猎人对定位特别依赖,又没有学会祖传的定位技术,在北极那种极端天气条件下,导航比较容易结冰、没电,一旦导航仪坏了,就会直接让猎人陷入绝境。还有人预言,照这样的节奏下去,可能再过两代人,因纽特人的这种定位能力就会彻底消失。
那我们来看看导航和纸质地图对我们的影响有什么不一样。有研究就表明,在一段旅行结束之后,用地图的旅行者能够更清晰地回忆起走过的线路,能更完整地回忆起整个地图。因为大脑的海马体里有定位细胞的,这些定位细胞会不断地强化我们的记忆能力,老年痴呆症最初的明显症状就是海马体和内嗅皮质退化。也就是说,如果一直不使用大脑的导航功能,海马体就会开始萎缩,这会大大加大我们患老年痴呆症的可能。
关于定位细胞,《科学》杂志也发表过一个研究,科学家发现大脑对真实的场景和屏幕中的模拟场景,定位细胞的反应是不一样的。他们找了兔子、老鼠这类动物,让它们分别体验两个相似场景,其中一个是真实的场景,一个是电脑中的场景,在真实世界的时候,这些细胞是很活跃的,但是在看电子屏的时候,虽然效果很逼真,但是它们的触觉、味觉、嗅觉、身体的活动并没有被激发,所以虽然看起来这两个场景是相似的,但大脑的活跃程度可有着很大的区别。当我们习惯了电子屏提供的材料,会认为这就是我们真正接触到的东西,这就会让我们的识别能力慢慢地退化。
第二部分
第二点,作者认为,自动化替代了我们的决策能力。
最早我们发明工具,是为了节省体力、提高效率。比如抬东西太累了,我们就发明出来杠杆、滑轮。长途搬运东西、走路太累了,就发明了轮子和汽车,手工制作太慢了就发明了机器,虽然有了这些工具,但我们的关键决策权力还在自己手里。现在自动化可就不一样了,它背后有庞大的数据库和科学的算法,精确度比较高,有时候我们也会觉得,这些技术特别懂我们,于是我们就越来越相信程序做出来的判断,这样就容易在不知不觉中遵守自动化做出的决定。
比如作者给出了一个例子,1995年的时候,有一艘客轮,装了当时最先进的 GPS 系统,起航一个小时以后,这个设备的天线就松掉了,但是并没有完全断开,还能够继续提供数据。走着走着这艘船的船长就觉得不对劲,但是又说不出来哪里不对劲,如果是以前,他会停下来仔细测量一番再走,但是现在数据就摆在眼前,船长偷了一个懒,直接选择相信数据,最后导致这艘船撞上了礁石,造成了一起不必要的海难。这就是过度依赖自动化带来的后果,它会慢慢偷走我们最基本的决策能力。你肯定也听说过不少跟着导航直接开车掉沟里,或是跟着导航直接闯入了机场隔离区的新闻。生活中这样的事情时刻都在发生,导航是个重要工具,但它无终究无法代替我们的判断。
再比如说,现在的医院大部分都是电子病历系统。医生把你的症状、开的什么药、做过的什么检查都记录下来。这样能够很快调出来病人之前的情况,但是美国的医院在用过一段电子病历之后,就发现病人的医药费越来越贵了。因为在检查的过程中,医生只要把病人的情况输入进去,系统就会自动地提供需要检查的项目。本来一个普通的感冒,结果机器就建议病人做一个全方位的身体检查,这也就增加了无效、重复检查的几率。
再比如,很多软件里都有猜你喜欢的功能,像现在的购物网站,都会经常根据你的搜索历史,推荐你可能需要的东西。最极端的就是优衣库的选衣服系统,这个系统可以依靠大量的数据帮你选择,比如根据调查数据,将T恤按风格颜色分类,分别代表不同的心情,比如绿色代表冷静,接着,顾客会戴上能监测脑波的耳机,系统测试他们在观看代表不同心情的视频时的脑部活动。最后系统根据测试结果为顾客选择最符合他们心情的T恤。虽然这些是小事情,但这样其实是帮助你做一个个决定,这种推送看上去是帮我们在筛选更贴近我们喜好的产品,但是我们真正可选择的范围缩小了,因为自动化已经提前帮我们做了决定。
第三部分
第三点,自动化会钝化我们的思维。
前面我们说了,自动化的出现,让我们不再需要直接做很多事情,只要盯着屏幕就可以了,但是我们的学习其实是有“生成效应”的,就是比起别人直接给我们的信息,我们对自己创造的信息记忆更牢固。就比如说自己造的句子,就比书上直接给我们的句子要印象更深刻,我们自己做出来的答案,就比抄别人的记得更牢固。也就是说,我们积极思考并动手完成一项任务的时候,更容易掌握相关知识和技能。这个技能越积累越多,我们的技能库存就越来越大。
之前我们学习的时候,可能是眼睛看、耳朵听、嘴巴里还重复着老师教给我们的知识,手上写了笔记,但是现在有了自动化的介入,很多时候我们只需要用眼睛看就可以了,做笔记也是在电子屏上选中、划线就可以了。这就让我们的感官利用越来越少,用得越少,退化就越严重。这种学习方式,容易让我们失去很多隐性知识,因为思维生成的时候是需要深层次地加工的。
再比如我们的计算能力,现在几乎已经退化得无影无踪了。以前受过基础教育的人,至少都能进行一些简单的心算,而现在再简单的计算都要用计算器。那你可能会说,有计算器当然就得用计算器了,又快又准,难不成还要退回到以前,对先进的工具视而不见吗?
作者不是这个意思,他的意思是说,常规的数学计算能力,可以培养起我们用数学思考的思维方式,它不单纯是计算能力,比如说看到某个事情,如果首先考虑到概率,那就是一种比较高级的思维方式。你如果用计算器,虽然只需按照要求输入数字和运算符号就能得出结果,省时省力,还比用手算的正确率高,但是用计算器输入进去的都是碎片化的数字,相互之间没有整体感,你和数字之间就很难建立起来联系。
第四部分
第四点,自动化还有未解决的道德问题。
咱们说了自动化这么强大的功能,甚至能够代替我们做出决策,但是有一点它们是很难实现的,就是没有它自己的道德判断。一些我们觉得困难的事情,比如说同步翻译、快速匹配、数据分析、批量交易,对它们来说太简单了。但我们觉得很容易做到的事情,比如情绪、情感表达、道德判断,这些对自动化来说,就很难实现了。
比如说现在特别火的自动驾驶,各大制造商也开始研发各种自动驾驶的周边产品。但是在2015年5月美国布鲁金斯学会的无人驾驶研讨会上,有专家就曾提出了这样一个问题:如果无人驾驶汽车为了保护乘客而急刹车,但是急刹车会伤害旁边的路人,那无人驾驶到底应该如何做?然后机器的道德失误,应该去责怪谁呢,到底是生产商、设计者,还是销售商、购买者?
设想一下,如果现在我开着车行驶在路上,路上有一个失控的大卡车往我这边来了,我得赶紧转到旁边一个小胡同里躲避一下,在小胡同里已经停着一辆车了,车上没人,我必须得撞上小车才能保证自己不被大卡车碾压。但是这个时候自动驾驶的防撞系统检测到我要撞到障碍物了,于是就刹车了,我就得重新启动手动驾驶功能继续躲避,或者就得眼看着大卡车朝我冲过来。
我们再把脑洞开得大一点,假如有恐怖分子命令人工智能的机器人伤害无辜的人,那这些机器人到底是应该完全遵循主人的意志,还是应该抗命?
我们说了这么多应该警惕自动化,但是我们又生活在科技飞跃的时代里,不可避免地会用到,总不能回归原始人的生活吧。那到底该怎么办?在这里作者虽然没有给我们具体的做法,但可以从坚持工作、把自动化与人工操作相结合两个方面来保持清醒。
有一个工作悖论实验,跟踪5家公司的100名员工每天的状态,主要是看看他们怎么样度过工作时间和工作后的时间,以及这些活动带给了他们什么样的体验。实验结果出来之后,相比着空闲的阶段,实验人员发现,在工作期间,人们更加高兴,情绪更高。可能咱们觉得这个挺意外的,因为盼着下班、盼着放假基本都是人之常情,按理说大家都会喜欢休息和悠闲,但是为什么在这个时间大家的情绪反而比较低沉呢?这100个人说,虽然工作不是自己最喜欢的事情,但是在工作中,时间是充实的,并且工作有了成果会让人有成就感。休息时间,如果有可以做的事情还好,但是如果一点事情也没有的话,或者是把喜欢的事情做完以后,就会觉得特别无聊。
前面咱们说了如果只依靠自动化就会慢慢丧失掉我们自己的技能,所以在自动化开发和操作的时候,把人的操作也融合进去。比如让自动化软件定时地回到手动操控模式,为了随时接手,让操作员保持警觉;也可以把自动化操控设定在某个范围内,确保重要的、需要决策的任务由人脑来执行。
就比如说波音航空公司和空客公司,它们两家在设计自己飞机的时候就是不一样的策略。空客就是以无人驾驶为终极目标,认为客机造成空难很大一部分是因为驾驶人员的失误所导致的,因为人无完人,所以在空客的程序中,在特定的情况下,计算机可以推翻驾驶员的指令,换句话说,飞机的最终驾驶权是在计算机手里的。波音公司就不一样了,它们奉行“人定胜天”的原则,在设计的时候,一直体现着驾驶员对飞机的决策权。虽然现在看来这两家的安全记录差不多,但是最近以来,美国联邦航空管理局开始鼓励驾驶员更加深入地参与到飞行中,发挥自己本来的作用。
总结
总结一下,这本书可以说是给我们对于技术的乐观打了一针镇静剂,让我们看到过度依赖使用自动化会让我们的技能退化、失去决策能力、钝化我们的思维。但想要完全脱离自动化的生活是不可能也是没必要的,我们需要的是保持清醒,保持清醒的办法主要是坚持自己的工作,把自动化与人工操作相结合。
自动化本身是没错的,但问题在于,我们不知道该在什么时间说“够了”,不知道自动化和人工的界限应该在哪里。计算机给我们造成安全假象时,很容易让我们对自动化产生过度依赖。虽然自动化让我们走进了一个看不见的笼子,但是我们仍然可以在自己喜欢做的事情中找到自己,找到不能被自动化代替的部分。比如说一名作家,他永远不能被文章生成器替代,因为无法表达出他要的意境;一名医生,不能被机器代替,因为病人很微小的症状,都是需要医生去询问、去观察,用丰富的经验去判断的;一位设计师的作品,不能被软件包办,因为每个设计都有自己的特点。
我们缺少的是保持思维的清醒、保持不被自动化推着走的能力,而我们要做的是重新判断,这些技术是增强了我们还是削弱了我们的核心能力,然后做出正确的选择。
全书摘抄
一、我们在慢慢的被周围的工具宠坏
自动化让我们的工作变得更加机械了。
案例1:
2012年欧洲航空安全局对飞行员做出了调查报告显示,95%的飞行员表示自动化会影响他们的手动飞行能力和认知能力,由于之前太依赖自动飞行技术,导致飞行员敏锐性和反应的准确度降低。2009年美国大陆航空公司一架客机就因为机长的操作失误引起了事故。
案例2:
再过两代人,因纽特人的定位能力可能会彻底消失。因纽特人可以不用地图、指南针,仅依靠星星、风向甚至是雪堆的形状就判断定位,GPS的引入让他们的这个技能慢慢地退化了,
并且导航比较容易结冰、没电,捕猎事故的数量也增加了。
案例3:在一段旅行结束之后,用地图的旅行者能够更清晰地回忆起走过的线路,能更完整地回忆起整个地图。大脑的海马体里有定位细胞的,这些定位细胞会不断地强化我们的记忆能力。大脑对真实的场景和屏幕中的模拟场景,定位细胞的反应是不一样的。
二、自动化替代了我们的决策能力
我们越来越相信程序做出来的判断,就容易在不知不觉中遵守自动化做出的决定。
案例1:
1995年,有一艘客轮,装了当时最先进的GPS系统,起航一个小时以后,这个设备的天线松掉了,还能够继续提供错误数据。船长虽然发现了问题,但还是决定相信数据,最后导致这艘船撞上了礁石,造成了一起不必要的海难。
案例2:
美国的医院发现在使用电子病例后,病人的医药费越来越贵了。因为在检查的过程中,医生只要把病人的情况输入进去,系统就会自动地提供需要检查的项目。本来一个普通的感冒,结果机器就建议病人做一个全方位的身体检查,增加了无效、重复检查的几率。
案例3:优衣库的选衣服系统,将T恤按风格颜色分成不同的代表心情,顾客会戴上能监测脑波的耳机,系统测试他们在观看代表不同心情的视频时的脑部活动。最后系统根据测试结果为顾客选择最符合他们心情的T恤。
三、自动化会钝化我们的思维
我们的学习是有“生成效应”的,比起别人直接给我们的信息,我们对自己创造的信息记忆更牢固。自动化使我们的感官利用越来越少,这种学习方式,容易让我们失去很多隐性知识。
案例1:计算器让我们的心算、计算能力退化。
四、自动化还有未解决的道德问题
自动化很难实现道德判断。
案例1:
如果无人驾驶汽车为了保护乘客而急刹车,但是急刹车会伤害旁边的路人,无人驾驶到底应该如何判断?
案例2:
如果现在路上有一个失控的大卡车往我这边来了,我得赶紧转到另外一个小胡同里躲避一下,在小胡同里已经停着一辆车了,车上没人,我必须得撞上小车才能保证自己不被大车碾压。但是这个时候自动驾驶的防撞系统检测到我要撞到障碍物了,于是就刹车了,我就得重新启动手动驾驶功能继续躲避,或者就得眼看着大卡车朝我冲过来。
案例3:
我们再把脑洞开得大一点,假如有恐怖分子命令人工智能的机器人伤害无辜的人,那这些机器人到底是应该完全遵循主人的意志,还是应该抗命?
如何在自动化浪潮中保持清醒?可以从坚持工作、把自动化与人工操作相结合两个方面入手。
案例4:
工作悖论实验。在工作期间,人们更加高兴,情绪更高。虽然工作不是自己最喜欢的事情,但是在工作中,时间是充实的,并且工作有了成果会让人有成就感。在休息时间容易感到无聊。
在自动化开发和操作的时候,把人工操作融合进去。
案例5:
波音航空公司和空客公司,在设计自己的飞机的时候就是不一样的策略。空客的飞机的最终驾驶权是在计算机手里的。波音公司的设计体现着驾驶员对飞机的决策权。