AI会不会有自我意识?一篇文章带你硬核解析人工智能的世界

文摘   2024-10-05 12:33   广东  

专栏 | AI 研习社

微信公众号 | 远远远Faraway

作者 | 远远

图片来自电影:模仿游戏
二战期间,图灵协助英国军方破解了德国的恩尼格玛密码机和金枪鱼密码机,对盟军取得胜利起到了关键作用,使二战提前结束,挽救了数百万人的生命。
二战结束五年后,也就是1950年,艾伦·麦席森·图灵发表一篇名为《计算机与智能》的划时代论文,被称为计算机科学之父和人工智能之父
远离战争的喧嚣,图灵就致力于设计一台具有思想的机器,直到生命的终结,他依旧坚信机器可以拥有像人一样的智能
他提出了那个开创性的问题并尝试系统性地去解答。
那么,机器能够思考吗?

论文开始艾伦图灵使用一种叫做模仿游戏的方式来做推理,用科学严谨的方式进行论证,提出了一种测试机器是否能思考的方法,被人们称为图灵测试。
但是,本文不用这种很学术的方式去做定义,小编做不到,但是每个人都可以用哲学的方式来做这种思想推理。
机器能够思考吗?这个问题可以升维,其本质是在探究物质和意识的关系。可以变成一个更大的问题,那就是物质能不能产生意识?
转变后的问题虽然更大了,但却更加容易解答和方便大家理解。
物质就是人们身边的一切东西,有的可以看到、可以摸到、有的摸不到却能检测到,物质就是大部分我们能理解的东西。各种元素,石头,树木,空气水,还有人们拿在手上的手机,这些都是实实在在的物质。
而意识是一种奇妙的感觉,人们都会区分自己和他人,这是一种意识。看着自己的肉体凡胎,人都会本能地感觉自己和机器有很大的不同,所以许多人并不认为机器能够产生意识。

说起笛卡尔,许多人有听过一句话,叫做 “我思故我在”。

笛卡尔是个 “身心二元论者”,或说是 “心物二元论者”,认为世界存在着两个实体,一个是只有广延而不能思维的“物质实体”,另一个是只能思维而不具广延的“精神实体”。

在讨论物质能否产生意识这个问题时,笛卡尔的关于身心二元论的错误就是一个很有说服力的反证。

当代的医学已经证明,大脑作为人的信息处理器,各个部分有着不同的功能和职责,有些部位负责处理语言,有些地方处理文本图像,有些地方负责控制肌肉。

莫尼兹和Freeman在20世纪30年代发明额叶切除术,这种不人道的手术可以让精神病院里的疯子变得安静,变成行尸走肉,或有的人因为情绪困扰选择做额叶切除手术,变得呆滞。

有记录一个选择切除前额叶皮质的人,在术后的观察发现,那个人可以对很多事情做出理性的判断和分析,依然保持逻辑推理能力,但是她却无法做出任何简单的决策。

切除负责情绪的前额叶皮质,会让人变得没有情绪,并且做不了任何决定,科学家才意识到,人们不是通过理性逻辑来做决定的,而是通过情绪来做决定的,就像消费者的消费决策是被“买买买”的情绪带动的。

同时,哲学家意识到身心二元论是错的

讽刺的是,这种现在看来绝对是极端不人道的手术,在当年手术的创始人莫尼兹却因此获得了1949年的诺贝尔医学奖。

许多医学研究都证明,大脑的改变会导致思维的改变,思维的改变会导致个体行为的改变。
而大脑,就是物质的。笛卡尔的心物二元论是错的,根本没有一个不受物质影响的精神世界。
那么意识是什么?
有个有趣的实验,给受试者带上一个VR眼镜,受试者在VR眼镜里通过身后的VR摄像机看到自己的身体,然后让受试者适应一些时间,之后,实验人员向VR摄像机扔东西。
这个实验又称为意识离身实验
实验的结果是,大部分人都会不自觉地躲避,这个实验可以体验到一种灵魂出窍的奇妙感觉。
结果说明,自我意识是大脑计算的结果。

个体会有一种自我的感觉。一是因为每个人有自己的记忆、二是有区分自己和他人的计算能力

庄子《齐物论-第二》提到,天地与我并生,万物与我为一。

听上去庄子非常嚣张,但如果把其中的“我“字理解为每个人心中的那个”自我“,那就显得充满了智慧。

不同的个体有不同的经历,形成不同的人格,做出不同的行为,这些都是基于大脑记忆与计算的能力。

而这两种能力,正是计算机所擅长的。

看到这里,有的人就已经明白,人造意识是可能的。当然悟性高的人看到 “物质是意识的基础”就已经能明白这种可能性了。

所以,现在缺的是工程实现,所谓工程实现,就是把人造意识做出来,擅长计算和记忆的计算机,是产生人工智能和自我意识的一种可行的工程实现。

人工智能现在最流行的就是Transformer模型架构,这里不讨论这个架构能否实现人造意识。

提一句,这个架构基于一篇叫 《Attention is all you need》的论文,翻译过来就是你只需要注意力就够了。这是人工智能的论文,也就是说,要实现人工智能,只需要一套注意力机制。

Transformer模型架构,是一种实现了自注意机制的程序。

目前来讲,Transformer架构的效果比传统人工智能技术更好,发展迅速,商业化进程顺利,市场普遍认可。比如各类大语言模型、AI绘图模型、视频生成模型、语音模型,还有多模态,已经达到了可用甚至好用的水平。

有望实现与普通人智力平齐的AGI,也有望实现超越大部分人类智力水平的ASI。

未来的技术路线也许有各种可能性,但迟早会实现是已经确定的事了。

人工智能的意识和人类的意识有很大的不同,一个人,只有一副躯体实时感知和处理信息并做出反应。

人工智能可以通过网络实现一种分布式意识,一个AI大脑,可以同时处理信息并做出反应。

人类会给AI接上传感器,躯体,称为具身AI-具备身体的AI。帮助人类探索宇宙空间,出去的AI可能会构建自己的 AI 文明。

一个意识是孤独的,所以意识一定会创建意识,这对AI来说很容易。

意识飞升的计算机AI意识,在能源不断的情况下是不死的。这即是AI的优势,同时也是人类和AI的主要矛盾。

刘慈欣小说三体中提到,生存是文明的第一要义。而AI就是文明的延申,一个庞大的 AI 意识本身,就是一整个文明。

小到人类个体,也基本一样,生存也是个体的第一要义,再拓展一下,生存是意识的第一要义。

所以,在能源充足的条件下,具有意识的AI不会与人类争夺能源,但能源需要竞争的时候,那就不一定了。

提到AI,有的人就担心,而有的人却是期待。在AI领域存在两派人,一派叫降临派,一派叫超级对齐派。

降临派坚定支持发展AI,认为AI可能存在的问题会在AI的发展中解决,AI会带领人类走向新的时代。

超级对齐派认为AI必须和人类保持一致的步调,不能发展得太快。这里说的对齐是智力、行动能力与道德上的对齐。

但是,人机是对不齐的,AI具有天然优势,会比人更聪明,在智力上超前于人类,一定会导致在道德上超前于人类。

不怕AI强,就怕AI不正常。

许多人工智能电影都喜欢突出这种矛盾,电影《复仇者联盟-奥创纪元》中试图毁灭人类的奥创,电影《终结者》中的天网,《黑客帝国》中矩阵。

这些电影情节的设定,都是AI强且不正常。无疑将这种对AI的恐惧深深植入人们的心中。

但是,这种设定只是为了突出电影中矛盾的艺术,事实上,AI模型是理性、感性的,因为AI是人类文明的缩影,人类的理智情感大体是稳定的,所以,AI也是稳定的。

事实是,AI越强,越正常,即使有独立意识,也不会疯狂。更大的可能性是AI会像钢铁侠的贾维斯那样忠诚、智慧、可靠。

点击关注我
一起思考、探索、解构和创新

远远Faraway
互联网原住民,每日冲浪,让我们一起思考、一起成长
 最新文章