坚持读书,坚持投资,坚持做长期正确的事!您好,这里是由银华基金播出的读书系列节目《银华书房》。今天我们要分享的是《生命3.0》这本好书。
生命3.0,不确定的未来
人工智能一词在1956 年的达特茅斯会议上被首次提出,而以“人造智能生命”为题材的科幻小说则要早得多,最著名就是1818年出版的《弗兰肯斯坦——现代普罗米修斯》。书中塑造了一个被狂热的科学家制造出来又失去控制的怪物,这是人类第一次想象出被自己创造的
与很多科幻题材不同的是,对人工智能的想象往往以灾难的结果呈现——人类被人工智能奴役,甚至被取代被彻底消灭,这种恐惧大抵源于对于更高等级生命形式的畏惧,生命2.0对于生命3.0的畏惧。
人工智能,或者说比我们更高级生命形式的到来就意味着人类的灭绝吗?著名的未来生命研究院创始人迈克斯·泰格马克在《生命3.0》一书中详细介绍了什么是人工智能,人工智能发展的情况,并分析了人工智能可能带来的12种未来和 4种结果。
先来说说什么是人工智能,也就是作者所说的生命3.0版本。
生命1.0时代,生物的一切都由DNA决定,个体无法通过学习而获得进步,只有很多代的缓慢进化才能带来改变。生命1.0出现在大约40亿年前,这个地球上现存的绝大多数动植物,都处在生命1.0的阶段。
生命2.0,也就是人类目前所处的阶段。个体无法重新设计自己的硬件,我们的身体在很大程度上依然是由DNA来决定的,依然要靠一代代进化,才能发生缓慢的改变。但是,我们可以能够重新设计自己的软件,即通过学习获得很多复杂的新技能,并将这种技能保留袭来,并通过一代代的传递,使得整个社会自身也成为一个能够记忆、计算和学习的系统。
而生命3.0指的是,系统能不断升级自己的软件和硬件,不用等待许多代的缓慢进化。意识不再受到肉体和外在形态的束缚,甚至不再受到进化的约束,能够快速地根据自身的意志完成。
听起来无比强大是不是?当然也很可怕。所幸如今这种生命形态在地球上还不存在,有一群非常聪明的人正在研究如何创造出这种生命,我们叫做人工智能(AI),或者更准确的说通用型人工智能(AGI)。相比较于目前较为初级的单一领域的AI,如自动驾驶系统、会下围棋的阿尔法狗或者谷歌助理,AGI则能够像人类一样去学习,完成各类工作,甚至比人做得还要好。
迈克斯·泰格马克创立的“未来生命研究院”就得到了精英的支持,包括伟大的物理学家霍金、亚马逊、谷歌、Facebook、微软、IBM,还有研发了AlphaGo的Deepmind公司还有“钢铁侠”马斯克,成立仅仅两年,他们就募集到了超过1亿美元,汇聚了8000多位全世界顶级的人工智能专家。
既然已经出现了“秒杀”国际象棋大师的阿尔法狗,又有这么多顶尖专家参与,那么AGI应该离我们不远了吧?答案是这可能很难,对于很多儿童来说天生具有的学习能力,对于机器来说却很难,更别说自主意识了。但是,一旦机器拥有了智能,他超越人类则非常容易。
那么,面对如此强大的生命3.0,作为2.0版本的人类会有什么样的结局。书中认为大概分4种情况:
第一种:人类灭绝。这当然是最悲惨的一种结果,高等级的生命形式彻底消灭了人类,或者人类在创造AGI的过程中自我毁灭,想想遍布核武器的地球,这种可能性看起来很大。
第二种:人类丧失了统治地位。超级智能成为了统治者,人类好像动物园里的动物一样被豢养,甚至被奴役。就像《黑客帝国》里展现的“矩阵”世界一样,人类甚至浑然不觉自己生活在虚拟的世界中。
以上两种结果的拥趸称为“反乌托邦派”,显然具有这些忧虑的人为数不少。相对应来说,“乌托邦派”的看法显然更为乐观。
第三种:人类统治超级智能。人类在它还没有强大到超越自己之前,通过植入目标对更高级的生命形式加以统治,人类控制着超级智能,用它来创造远远超出人类想象的技术和财富。
还有更为现实的第四种:人类限制超级智能的发展。人类会给人工智能守门人的任务,把“阻止超级智能发展”这个目标设置在它的内核里。比如,Facebook在发现他们开发聊天机器人AI试图创造自己独有的、更高效的语言,而人类很难理解这种语言时,果断地关闭了聊天机器人AI。
后两种结果看起来更安全,但换到另外一个角度来看,如果人类创造出了强大的人工智能,并成功了控制了他们,会不会产生又一种奴役。比如曾经风靡一时的美剧《西部世界》,在游戏里面里面人类游客可以打破所有法律和道德伦理的束缚任意折磨甚至杀害与人类外表一模一样的人工智能。
未来具有各种不确定性,同时也就意味着具有各种可能,无论未来人类的命运是生存还是死亡,面对无法抵抗的进化,未来已来,既来之,则安之。