汪诘杂谈:未来,给人类社会带来最大冲击的不是 AI,而是……

文摘   2024-08-22 17:40   北京  

2024 年7 月 28 日,我在济南书展上发布了我的新书《未来科技大爆炸》(胡杨文化出品),今天我把在这次新书发布会上的发言做了整理,与各位朋友分享我对未来科技的一些浅见。


这本书的创作缘起是三年前,「喜马拉雅」联合浦发银行邀请我开一个谈未来科技的专栏。我先后撰写了大约 20 篇专栏文章,每一篇文章都聚焦未来科技的一个领域。我通过查阅大量文献,运用科学思维,总结出了一个被我自己称为「技术飞轮」的思考工具。用这个工具可以帮助我们深入思考一项新技术的发展大势。

面对每一项新技术,我们都需要拷问这样四个根本问题:

1

科学原理有没有瓶颈;


2

技术应用有没有广泛的市场需求;


3

钱能不能解决发展中的主要问题。


4

该项技术是否存在一个将来必然会突破的技术奇点。对于任何一项新技术,我们只要把这四个根本问题弄清楚了,就等于厘清了它发展的大势。

主持人


提问:

最近这两年,人工智能尤其是大语言模型飞速发展,仿佛让科技走进现实。请问汪老师对 AI 的发展持什么样的态度,您觉得未来 AI 和人类之间的关系会是怎样?

影响我们现代人对未来 AI 的看法,我觉得主要是有两部电影:《黑客帝国》和《终结者》。前者描绘人类成为 AI 的能量来源,后者则展示了 AI 觉醒后企图灭绝人类,统治地球的情节。
这两部电影对我们现代人对 AI 的看法是产生了非常深远的影响,但我想说,这些情节在我看来都是不可能发生的。

我对 AI 的看法分为“近未来”和“远未来”两个阶段。近未来,就是指我的有生之年(从现在算起往后再过四十年左右吧,超过我寿命的就是远未来),什么意思呢?远近是个相对概念,我的“远未来”,对我孩子这一代来说,就是“近未来”。

我个人的浅见是,“近未来”中 AI 不可能发展出自我意识。这背后需要大量专业知识支撑,包括意识是怎么产生的,意识的本质是什么?复杂系统有没有可能产生意识?等等。这些偏技术的部分我今天先略过不讲了。

这里特别跟大家分享一下我的一位好朋友,中国传媒大学张鹂教授的一个观点,我挺赞同的。她说要判断 AI 是否产生自我意识,可以有一个简单的标准,就是它是否产生了“边界感”?

任何有自我意识的生命,都有边界感。边界有好几层,比如说,自己统治的领地,自己的私人空间,最后一层边界就是自己的身体。

如果以这个为评判标准,今天的所有 AI 都不具备自我意识,因为他们还没有产生边界感。AI,准确地说,就是大语言模型没有办法意识到我自己的边界是在什么地方,它只知道对你输入的一条信息给出反馈。
没有边界感,就意味着它并不会觉得自己受到了侵犯或者伤害。

现在的所有 AI 无论怎么继续发展,它的底层架构都是以神经网络算法为基础。注意,这个算法只是在以几十年前人类对大脑的认知做出的模拟,它当然不是我们真实大脑的工作原理。而且,据我所知,现在脑科学越发展,越发现我们人的大脑的结构那要比神经网络的结构复杂太多了。所以,我个人认为,在近未来,只要这个架构没有根本性的改变,AI 就无法产生自我意识,也就是产生边界感。

像科幻电影《终结者》或者《黑客帝国》中描述的那种可怕的 AI,它们至少要产生边界感,才会有消灭人类或者奴役人类的动机。所以,我认为在我的有生之年,根本不需要担心自己被 AI 毁灭。

但如果,我们把目光放长远,到了“远未来”呢?

我想说:在“远未来”,我百分百的坚定地认为,AI 一定会产生自我意识。

我是一个坚定的唯物主义者,既然人类的自我意识是由大自然中的原子组合在一起产生的,那么人类将同样的原子组合起来为什么不能造出有自我意识的复杂机器呢?我想不出任何一条反对的理由。

越来越多的科学家相信,意识是复杂系统的一种涌现,只要有一个系统它足够复杂,最终就一定能产生意识。当然,我们不要用“有”或者“无”的二元思维去考虑意识,意识的强弱也是可以分级的。比如说我们人类的自我意识是 100,那么自然界中就会有各种生命,他们的自我意识可以是从 1 到 99 之间的任何一个数字。

人类制造出来的芯片,未来不管怎么改变结构,从微观结构上来说一定是朝着越来越复杂的方向改变的。从最早的埃尼亚克,有一个房间大小,18000 个电子管,到现在我们在指甲盖大小的一个芯片上就能刻出上百亿个晶体管。我相信,未来我们一定还能制造出复杂度远远超过今天的芯片。而复杂系统涌现出自我意识,是必然的,我完全不怀疑。
世界上第一台计算机 埃尼阿克
那么,人类和具备自我意识的 AI 之间会诞生怎样的关系呢?

我个人的浅见是:达尔文创立的进化论,更准确地说是现代综合演化论,不仅可以用在生物界,也可以用在人和 AI 上。换句话说,我始终相信,自然选择的铁律是不以人的意志为转移的,它是大自然演化的坚实公理,而人类也是大自然的一部分,我们不可能超越大自然的铁律。

生物的演化是没有方向的、随机的,环境在不停地变化,谁能够适应变化的环境,谁就能够生存下来。

人类制造出有自我意识的 AI 是必然,而 AI 还会变得越来越强大。它们会有一副非有机生物体的躯壳,比人类能适应的环境要宽得多。说通俗点儿,人类最终一定能造出变形金刚,或者把自己变成变形金刚。
地球的环境是在不停变化的,如果我们把时间拉长到以百万年为单位,你会发现地球的环境实际上一直在发生天翻地覆的变化,物种大灭绝至少发生过 5 次。当地球环境变得不适宜人类生存的时候,变形金刚就会以代际更替的方式慢慢取代生物体的人类。
6600 万年前的小行星撞击消灭了恐龙,让哺乳动物崛起,地球发生了统治阶级的更迭。那么,下一次小行星撞地球,毁灭的可能就是智人,剩下变形金刚统治地球。
假如我们把目光投向太空,你会发现,地球只不过是人类的摇篮。那么,毫无疑问,变形金刚远比人类更适应太空环境。如果我们想要成为一个星际文明,最有可能的演化方向就是摆脱有机生物躯壳。

用悲观的说法是,变形金刚淘汰了我们碳基人类。但我如果用积极的说法,就是我们人类终于摆脱了生物体躯壳,升级成了变形金刚这样的超级意识体。

到了这时候,你既可以说是 AI 毁灭了人类,也可以说是我们碳基生物终于进化成了硅基生物。

我们可以设想,未来有一天,第一个来到地球的外星生命,一定不是碳基的,一定不是像我们这样的生物体,因为像我们这样的生物体要进行长距离的星际旅行我觉得是不可能的。

人类现在的科幻,在说到太空旅行的时候,幻想的都是冬眠、飞船大小的生物圈等设定。说实话,我觉得这些科学幻想都很天真和幼稚,就好像凡尔纳那时候写科幻小说,去月球的方法是做一个大炮,我们坐在炮弹里头发射出去,在我们今天看来这种科学幻想非常的幼稚和天真的。

未来我们人类要摆脱地球引力,进入太空长时间生存和旅行,首先要改造的不是飞船,而我们自己的躯体,无论从哪个角度来看,这都是一条更有可能的发展路径。

我想,用不了 50 年,人类会再次发射像旅行者号这样飞出太阳系的宇宙探测器,但那个时候,这个探测器本身就是一个具备强大智能的 AI,那么对于第一个接触到它的地外文明来说,这颗探测器就是外星人,它就代表了我们人类。

同样的道理,未来第一个来到我们地球上的外星人也一定不是我们这种对环境非常挑剔的生物体躯壳。外星人会对我们说,其实在很久很久以前,我们也是生活在一颗蓝色星球上的碳基生物体,但随着科技的发展,我们逐渐摆脱了有机生物体躯壳。我们逐渐把自己打造成了不怕冷不怕热,可以在太空中翱翔,并且有着几乎无限长寿命的这种躯体。

所以,在我看来,作为生物体的人类,演化成非生物体的变形金刚,是人类智力的伟大成就,并不是什么可怕的事情。我从来不把 AI 视为洪水猛兽,它是人类智慧的结晶,是大自然演化的必然结果。

主持人


提问:

看来您不是很担心 AI 科技的进步。那么,有没有什么科技的进步是让您感到担忧的呢?


是的,一想到 AI 的发展我都是乐观的情绪。但有另外一项技术,一想到它的发展,我就充满了忧虑。不知道你们能不能猜到是什么?

它就是正在快速发展的基因编辑技术,而基因编辑技术必然会带来另一项技术的突破,那就是人体胚胎编辑。
在人还是一个受精卵的时候,对这个细胞进行基因编辑,理论上来说,这个胚胎将来长成的人,就可以按照一定的意志长成特定的样子。

在生命科学领域,有两项基础研究都在快速发展:

一项基础研究发现,基因对人的影响简直无所不包,人的物理性状,比如肤色、身高、体重等等由基因决定,这一点已经是常识了。但现在,科学家们又发现,连人的性格、智力等等这些过去我们以为是后天的东西,居然也是基因决定的。尤其是智力,一个人擅长数学还是文学,擅长音乐还是绘画,一切都是基因决定的。科学家们正在一一确认基因与人体各项功能的对应关系,这项基础研究正在快速发展。

另一项基础研究就是基因编辑技术本身的发展,几乎每隔几个月都会有新的突破。比如今年科学家们就攻克了同时编辑大量的碱基对的技术,就像之前我们改文章只能一个字母一个字母的替换,现在可以一个句子一个句子的替换了。基因编辑的效率和准确性都得到了大幅提升。

而我们能够接触到公开发表的技术信息,其实只是这项技术的冰山一角。实际上,在这项技术领域,还有一个巨大的水下世界。我看过 NETFLIX 出的一部纪录片,叫《非自然选择》,这部片子讲述的是一群被称为基因黑客的人,他们是智商发达的科学家,并不赞同现在主流的科学伦理。他们认为,对人类的胚胎进行编辑不应该设立伦理禁区。他们有自己的一套坚定的价值观体系,有自己的定期学术会议,并且还有很多认同他们理念的富人阶层在支持他们的研究。

他们所从事的工作,在我们眼里看来是不道德的。但是,基因黑客们觉得,对胚胎的基因改造是造福人类的一项伟大且神圣的事业。

所以,现在胚胎编辑发展其实已经超出了我们能在公开渠道看到的信息。我个人相信,胚胎编辑在近未来就会具备实用价值。我觉得可能用不了 30 年,就会出现一个巨大的地下黑色产业,美其名曰“基因优化”。

简单来说,有人可以承诺你,给他们交 100 万,他们就能让你肚子中孩子拥有超常的智力或者体力。如果你给 200 万,那智力和体力都超常,就问你要不要。

这种超级宝宝,同龄人读完幼儿园的时候,它就可以读完初中课程了,不到 10 岁,就读完大学课程了。而且不管是踢足球还是打篮球,他们也都是一流的。

当然我相信,在初期,各国都会立法严厉打击这样的地下黑产业。但是在刚需面前,法律其实是苍白的。

这件事情的可怕之处就在于,非法胚胎编辑这种案件是没有受害人的,都是自愿行为,这类没有受害人的案件是非常难办的。更可怕的是,哪怕你投入无限多的监管资源,也不可能阻止超级宝宝的诞生。道理很简单:

超级宝宝只要一旦怀上了,人类的道德体系最多也就是惩罚实施基因编辑的人或者孩子的父母,孩子本身不可能是惩罚的对象,这个孩子一定会被生下来。

我想,一定会有父母宁愿自己坐牢,也想要一个超级宝宝的,这是人性。打击胚胎编辑产业,某种程度上,就会有点像打击现在的校外补习产业一样,不可能打得光。

这是近未来我们不得不面临的一个巨大的社会伦理危机,很可能是人类社会迄今为止最大的一次伦理危机。

我如果讲得更大胆一些,请想一想,如果有一天,我们隔壁的那个国家突然宣布放开胚胎编辑,鼓励全体国民都去生超级宝宝,他们要用人种优势来赢得下一个世代的国际竞争。请问,我们该怎么办?如果流氓国家未来生出的孩子不管在体力还是智力上全都碾压我们,我们该怎么办?

这不是科幻。
我这本书里写的所有东西都不是科幻,而是我对未来科技对社会造成影响的理性预测。

那么在这种情况下,我们的社会会面临怎样巨大的伦理冲击呢?它会让我们无所适从。可以说,AI 对社会的冲击与超级宝宝对社会的冲击相比,真的不算什么。所以这才是我现在最忧虑的技术发展。

那如果你问我该怎么办?我只能老老实实地回答你,我太笨了,我无解。我只能把这种我描述的未来呈现给那些更聪明的人,早一点呈现给我们的下一代。比如说,你现在听到我的这期节目,可能只有 10 多岁,那你现在就可以开始思考,我们应该要一个怎样的未来,到了这样的社会我该怎么办?我想,到了那一天,我已经七八十了,对这个社会已经没有什么太多的干预力了,只能靠你们这一代年轻人去应对这样的伦理危机了。但是我现在作为一个未来科技的预言者和一个启示者,我把这样的未来提前告诉你,让你做好心理准备。

当然,我不能保证我的预言一定准确,但是大趋势大方向我觉得是不会错的,无非就是某些科技我可能预言它是 10 年到来,但实际上它 20 年后才来,或者预言它 30 年到来,实际 20 年就来了,这都有可能。

好了,以上这些,就是我在这次济南的新书发布会上的发言的精华部分。如果你对人工智能、基因编辑、元宇宙、皮下芯片、脑机接口、无人驾驶、区块链、太空旅游、人造肉、未来医学、量子计算、高温超导等等这些话题感兴趣的话,不妨读一读这本《未来科技大爆炸》

《未来科技大爆炸》

作者:汪诘

出版社:河北人民出版社、河北科学技术出版社

出品:胡杨文化

出版日期:2024-8

页数:360

定价:59.8元

ISBN:9787202167212

这是三年来我的首本新书,前两年出的书严格来说都只是旧书再版,但这本书是新鲜热乎的。而且这个题材看得越早,对你的帮助可能越大。

我相信,这本书对学生规划自己的事业前途,对创业者选择方向、对投资者研判题材都会有一定的参考价值。

好消息!

读书公会直播间开播啦!

直播时间:

周一、五晚19:00-21:00

周二、四下午14:30-16:30

直播期间,我们会为您推荐
来自各大口碑出版单位的精品好书!
目前我们只在抖音开播!
想听主播小姐姐激情讲书、
想购买优价好书的朋友,

都可以扫描下方二维码,

关注“读书公会”抖音号哦!

喜欢本文的话
别忘了转发留言和点击在看


读书公会
读书公会是一个为所有怀抱理想的读书人、写作者、出版人服务的公号平台,致力于高品质人文阅读推广。
 最新文章