人类灭亡的几种可能,人工智能、外星入侵还是小行星撞击?

文摘   2024-11-22 00:07   广东  
关注我的你,是最善良的!

只为苍生说话,用笔杆子道明事态原委、丈量人间温情。






人类灭亡的几种可能





近几年来,气候、病毒、大规模战争、核危机、人工智能、外星生物、小行星撞击等信息频繁进入人们的视野,以目前来看,是否已有大概率能威胁到人类文明的灾难雏形,人类该如何预防?


01
人工智能、外星入侵还是小行星撞击?
有生就有灭,宇宙万物都会有灭亡的一天,甚至包括宇宙本身。那么我们人类又会如何灭亡呢?伟大的理论物理学家史蒂芬·霍金对这个问题总是直言不讳,探讨了人类灭亡的多种可能性,其中谈得最多的是「人工智能」、「人类冲突」和「外星文明」。
在科学界,关于外星人和星际旅行有一个著名的悖论——费米悖论。即如果宇宙中有这么多行星,那么像我们这种程度的文明应该在宇宙中到处都有,
为什么人类至今为止仍然没有发现任何地外生命的迹象,

即使发展到可以实现星际旅行的文明要很长的时间,
按照目前宇宙的年龄来看,我们也不该如此孤独。
为什么银河系有2000到4000亿颗恒星,可观测宇宙中拥有1000到2000亿个星系,人类最强大的望远镜可以观察到180亿光年远的地方,而我们却没有发现任何外星文明的迹象。这不由得让人联想到所有文明都在没发展到能够发现其它文明时就灭亡了。
大过滤器是罗宾汉森教授为了解释费米悖论而提出的。按照过滤器的说法大部分文明在发展到人类目前这个阶段的时候就自己把自己作死了。到目前为止,还没有任何一个文明能通过这道过滤器,所以我们看不到外星人。那人类如果跨不到星际文明就灭绝了,最大的几种可能是什么呢?
1.人工智能
人工智能是目前科学发展的一大重点,

随着技术的逐步发展,
人工智能发展出自我意识只是时间的问题。当人工智能开始思考并不想再受人类操控时就是黑客帝国和终结者类似场景出现的时候。
到时的人工智能会拥有神级的计算能力和人类的思维,人类将无法与之抗衡,到了那个时候很可能就是人类灭亡的时刻。
那么新的问题又来了,大小和太阳类似的行星在银河系中就有200亿颗,在这200亿颗恒星宜居带里又有20%的类地行星,就算这些行星中只有千分之一概率诞生生命,整个银河系也会出现100万个文明。
如果人工智能真的能消灭人类称霸地球,那么宇宙间一定有类似的产生的人工智能消灭了原生物种的例子,他们拥有无限的生命,那样的话,他们应该不断地复制,不断地发展变成星际文明去殖民银河系,现在的银河系应该早就布满人工智能的生物了。而现实却没有,那么很可能是很多文明在他们制造出的人工智能还没有威胁到他们的地步就灭亡了。
霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是「人类历史上最严重的错误」。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说「AI的全面发展将导致人类的终结!」霍金的这个观点不无道理,获得了很多精英人士的支持,其中「现实版钢铁侠」埃隆·马斯克就曾声援称「AI是人类生存最大的威胁!」
霍金对AI的威胁最到位的一句评价是——「人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。」
2.终极核武器
自从人类发明第一颗原子弹以来,核武器就成了人类杀伤力最强的武器,并且还在不断升级中。1945年7月,美国试爆了世界第一枚原子弹,TNT当量2万吨。1945年8月,美军在广岛长崎分别投下两颗TNT当量2万和2.2万吨的原子弹,伤亡超过20万人。随后苏联加入到核武器竞争的大军,美苏两国为了发展核武器可以说是不遗余力。1960年,美国制造了MK-41热核武器,TNT当量2500万吨,爆炸效果相当于1000枚广岛原子弹,并且美国光这一最强型号的核武器就生产了500枚。
苏联不甘示弱,紧随其后,制造出了2枚人类史上威力最强的核武器,沙皇炸弹。在试爆时临时决定将TNT当量减半到6000万吨级,威力相当于3000枚广岛原子弹。最后试爆的蘑菇云高度达到了6万米的高空,相当于7座珠穆朗玛峰加起来的高度,这一次的试爆,使亚欧大陆足足向南移动了7毫米。
但是就是威力如此巨大的沙皇炸弹想要达到人类灭亡的程度也是远远不够的。有科学家计算过,按照沙皇炸弹的爆炸效果,想要达到摧毁人类的地步,至少需要15亿颗沙皇炸弹。人类显然无法提炼出这么多制造核武器所需要的的铀元素。所以人类如果是因为核武器灭亡,一定是发明了威力更高的核武器。人类在发明了原子弹后,觉得威力不够大,于是又做了氢弹。
后来科学家们觉得氢弹爆炸能力强,但是辐射不够高。于是又在氢弹外面涂满了铀238,这样一来就有了裂变聚变再裂变的效果,沙皇炸弹就是如此,是典型的脏弹。那么有没有一种核武器比上述所有的核武器都要强大呢?有。钴弹是一种设想中的终极核武器,假设在中子弹外面裹上一层钴59,在平流层引爆,中子弹爆炸发出的中子打在钴59上变成钴60,钴60在平流层跑遍整个地球大气层,钴60衰变产生的射线会破坏生物DNA,地球生物会在短时间内全部灭亡。钴弹被发明出来的时候,就是人类灭亡的时刻。
霍金认为,就算人工智能没有毁灭人类,人类文明或许会自取灭亡,终结于自身内部的冲突。人类自私、贪婪和无节制的扩张,科技的进步也创造出了可以毁灭人类的武器。「地球上的生命遭遇毁灭性灾难的风险正在不断增加,比如突如其来的全球性核战争、基因工程病毒或者是其它我们还未想象到的危险。」其中,全球性的核战争在人类文明间形成了一种恐怖而诡异的威慑,最让人担忧。
面对这样的威胁,霍金认为太空探索与移民是解决之道。毕竟地球资源有限,将人类的生存空间和资源向外太空延伸确实是延续人类文明的必由之路。然而,短期内这是一个难以实现的目标,霍金对现状不无担忧地表示「在一个政治、社会和环境混乱的世界,人类又该如何维持未来的100年呢?」
3.基因武器
1972年,美国斯坦福大学科研小组首次实现了DNA的重组,从此,遗传工程宣告诞生。这标志着人类已经可以按照自己的意愿去改变生命的形态。遗传工程主要研究的就是人类的染色体,染色体就相当于人类的密码。染色体决定了人类活动的一切。这种人体密码一旦被破译就可以针对性的加入新的元素,就好比一个计算机的程序被修改了一样,实现各种新功能,也可以制造出新的更为强大的人体病毒。
2015年的时候,美国将一种病毒的dna分离之后,与另一种病毒的DNA结合研制出了一种叫热毒素的剧毒,这种剧毒基因万分之一毫克就可以杀死100只猫,如果按照这种量来计算的话,那么只需要20克就可以杀死全球50亿的人口,几乎可以将全部人类灭亡。
基因武器还可以利用人种基因特征上的差异,制作出只对特定遗传型的人种,才具有致病作用的生化武器。南非在上个世纪80年代种族隔离时期,白人执政者曾命令南非科学家进行“黑人炸弹”的研究,就是释放某种病毒,使黑人的体质变弱或死亡,但却不影响白人,这种武器可以说是反人类反道德的。总之一旦超强力的基因病毒研制出来,可能就将是人类的世界末日。
4.小行星撞击
天文学家认为每10万年就会有一次直径大于1公里的小行星撞击地球,小行星也可能是使人类灭亡的一大可能。6500万年前一颗直径10公里的小行星在现今墨西哥的位置撞击了地球,爆炸当量相当于100万亿吨TNT炸药,是广岛原子弹爆炸力的100亿倍,结果就是造成了地球生态大变80%的物种灭亡,以恐龙为代表的大型陆地生物灭绝,小型哺乳动物得以诞生。
但是地球生态没有被完全破坏,反而在几千万年后诞生了像人类这样的生物。就是说如果人类再遇到一次这样规模的小行星撞击,还是有很大的几率能过残存下来。如果要到人类灭亡,那这颗小行星的直径一定要大,大到可以一招致命。如果是一颗直径500公里的小行星撞击地球,那么地球上的大气层将被燃烧殆尽,海洋将完全蒸发,一万米的地层都会被掀翻起来,整个地球会变成一个岩浆覆盖的火球,地球将会带几十亿年前刚刚诞生的样子,毫无疑问那将是地球生物完全灭绝的时刻。那个时候不仅仅是人类的末日,还是地球的末日。
5.外星人入侵
自从1977年,人类发射了携带有太阳系位置和人类地球信息的旅行者一号探测器后,人类就开始向宇宙深处发射各种探测器和无线电信号,虽然这一举动对于整个宇宙来说就像在一座巨大的黑暗森林中发出萤火虫一般的光芒,但不敢保证没有被邪恶种族发现的可能。
虽然很多科学家,比如霍金都曾发出警告,不要主动联系外星人,不要发出任何联络信号。但人类还是倾向于相信宇宙中大部分存在的文明都是善意的,随着人类探测技术的提高不难保证有一天真的有外星文明接受到人类的信号。如果真有外星人来到地球,意味着他们的科学技术领先人类至少上千上万年,如果他们是邪恶的殖民种族,那么消灭人类犹如捏死一只蚂蚁一样容易。
真正的外星人具备什么样的能力也许我们想都想不到,黑暗森林法则也许真的是存在的,人类目前的行为无疑就在暴露自己的位置。有可能地球早已被外星文明发现,之所以人类还安然无恙,只可能是人类目前还远远没有发展到威胁他们的地步,所以说人类发展越快就离灭亡越近,是不无道理的。虽然这些事情听起来都是不可能发生的极小概率事件,但是只要人类历史无限长,这些事件发生的几率就是100%。居安思危,这些问题的思考都是有意义的,这也是我们积极探索宇宙的原因。
外星文明或许并不像我们想象的那么友好。霍金曾经称「如果外星人造访地球,我认为结果可能会和哥伦布首次造访美洲大陆很相似,这对土著人来说可不是一件好事。」先进的外星文明可能是一个「游牧文明」,征服并殖民他们所能触及的星球,利用星球上的资源建造新的飞船,从而不断持续他们在宇宙中扩张的步伐。
或许正如《三体》中所描述的一样,宇宙本来就是黑暗的。「生存是文明的第一需要;文明不断增长和扩张,但宇宙中的物质总量保持不变。」纵观历史,人类文明之间为了生存和发展都经常大动干戈,更何况是不同星球的文明之间。悲哀的是,相对于先进的外星文明,我们可能真的只是一群虫子!
很多人觉得霍金的一些支持外星探索的行为与他的这一警告自相矛盾了。但笔者认为其实不然,霍金的目的并不是去给高级文明通风报信,而是去寻找适合人类生存的新家园,这带有一种「不入虎穴焉得虎子」的气概!
从人工智能到人类冲突,再到外星文明,霍金指出了人类生存所面临的危机。然而,悲哀的是,大多数人正在被现实中的水深火热弄得焦头烂额,
完全无暇顾及于此!

数字化转型室
只为苍生说话,用笔杆子道明事态原委、丈量人间温情。
 最新文章