访谈 | AI有意识?这事儿比你想的快!

文摘   2024-11-28 23:59   广东  




如果有人告诉你,未来几年内AI可能会拥有“意识”,你会相信吗?法国神经科学家Rufin VanRullen的研究揭示,基于人脑启发的“全局工作空间”理论,AI正在向更高层次的智能迈进。这一理论模拟人脑如何整合视觉、语言、动作等信息,通过一个“中央舞台”动态调控行为,让AI具备真正的灵活性和场景适应能力。

更令人震撼的是,他预测:类似GPT-5的系统明年可能就会出现“意识的萌芽”。然而,这份激动也伴随着不安:有意识的AI会带来怎样的伦理挑战?它能否被人类控制?

本文不仅探讨AI“意识”的科学依据和时间表,也引发了对未来科技社会的深刻思考。面对这样一个快速逼近的未来,你准备好了吗?


目录


    • 90年代的少年梦,如今AI的超神助攻!

    • 人工智能要有意识了?别急,先搞懂这个‘全局工作空间’!

    • AI有了全局工作空间,竟能像人一样灵活思考!

    • 内心体验or哲学僵尸?AI意识真的会诞生吗?

    • GPT-5会有意识?科学家坦言:这事儿比你想得快!

    • AI有痛苦怎么办?科学家竟然已经想到了!


    主持:大型语言模型厉害的地方在于,它们不用懂语法,也不用知道词语是怎么组合的,就能写出通顺、像模像样的文章。这说明了海量数据的力量有多大。通过学习互联网上数万亿的文字,这些系统就能预测下一个词是什么,然后继续写下去。

    主持:虽然这些系统很厉害也很实用,但很多人觉得,AI要更进一步,需要更精密的架构,比如得知道外面的世界是怎么回事儿,或者像我们大脑一样处理信息。有些科学家已经在研究怎么把人脑意识的模型放到AI系统里,说不定就能让AI也拥有意识。

    主持:这些研究现在还刚起步,但结果已经很吸引人了。我们今天的嘉宾就是其中一位研究人员,Rufin van rulen,他是法国国家科学研究中心的研究主任,也在图卢兹人工智能与自然智能研究所工作。他最新的研究是受人脑启发的AI模型,包括基于“全局工作空间”意识理论的系统。

    主持:感谢您来到节目。我们会聊聊您的工作,您是想把人脑里的架构加到AI系统里,来提高它们的能力。我们人脑里都有世界模型。您能跟我们说说您的背景吗?您一直对这个领域感兴趣,还是现在的AI热潮吸引了您?

    Rufin VanRullen:我从高中到大学,一直想造能思考的机器或写能思考的程序。所以我学了数学、计算机和AI,那时候是90年代。我当时对符号AI挺失望的,那会儿的AI主要靠人工写规则,让电脑按规则办事儿。


    90年代的少年梦,如今AI的超神助攻!

    主持:就是想模仿我们做事的方式。

    Rufin VanRullen:对。我知道这种方法也有用,有些问题可以这么解决。但我记得,我想造个会思考的机器,却不知道怎么让机器看懂图像,总不能把所有规则都人工写出来吧。我觉得得研究人脑,看看我们是怎么做到的。所以90年代末,我转行研究神经科学了。20多年来,我一直用脑电图之类的实验研究大脑。大概10年前,深度学习彻底改变了AI领域。看到这些新系统,我觉得这就是我30年前想找的东西。那时候时机还不成熟,但现在我觉得可以了。大概8年前,我回到了AI领域,一直做到现在。


    人工智能要有意识了?别急,先搞懂这个‘全局工作空间’!

    主持:您提到了神经网络,这是AI最近取得突破的关键。您相信这种算法——给输入加权重,再传到下一层节点——是造出会思考的机器的正确方向吗?虽然它模仿了大脑,但从数学上看,它只是线性函数。

    Rufin VanRullen:其实每个环节都有非线性部分。

    主持:还有其他叠加的部分。

    Rufin VanRullen:是的。但就像您说的,这些人造神经网络的灵感来自大脑。它们是50年代末60年代初由麻省理工的科学家麦卡洛克和皮茨发明的,用当时的知识模拟大脑工作。我觉得它抓住了大脑的核心:神经元是特殊细胞,能互相连接。通过突触、树突、轴突这些连接,它们互相发送电信号。想想我们生活中的一切,想法、感觉、记忆,都是神经元之间传递信息。我觉得这些模型虽然简单,但也抓住了这个本质。当然,这只是模拟,电脑里没有真的神经元,只是程序在模拟互相连接的单元。通过这些连接,它们能执行很多功能,大型语言模型(比如ChatGPT)就是这么工作的。我觉得我们可以继续改进,用更好的架构更上一层楼。

    主持:您觉得模拟和真的造一个有人造神经元和连接的大脑,这两种方法有本质区别吗?是在电脑里模拟还是造个真的东西重要吗?

    Rufin VanRullen:简单来说,我们不确定。但我认为,就算只是模拟,只要模拟对了信息处理方式,那就行。关键是系统怎么处理信息,而不是用什么东西实现的,生物的还是硅的都一样。我觉得它们只是同一件事的不同版本,重要的是信息处理。

    主持:所以您相信“底物独立性”,对吧?只要信息处理方式对,在哪儿发生都一样。

    Rufin VanRullen:对。我知道这只是我的看法,有人可能不同意。在我们真的造出来之前,谁也不知道。


    AI有了全局工作空间,竟能像人一样灵活思考!

    主持:您一直在改进这些想法,想用类似人脑的结构增强AI。现在有一些关于意识的理论,您关注的是“全局工作空间”理论。

    Rufin VanRullen:是的。

    主持:能简单解释一下这个理论吗?

    Rufin VanRullen:这个理论是Bernard Baars在80年代提出的。简单来说,大脑有很多不同区域,负责处理不同信息,比如视觉、听觉、语言、动作等等。这些区域可以各自独立工作,都挺厉害的。但大脑里有个中心区域,其他区域的信息可以被临时调用到这里。这个调用过程由注意力控制,就像决定谁上台表演一样。你决定谁上台。我们把这些区域叫“模块”,有些模块会被选中,它们的信息会被“广播”到大脑其他部分。我觉得这解释了我们想在AI里实现的一些目标。这样,全局工作空间里的信息会更丰富、更完整,因为它整合了其他区域的信息。比如,视觉看到的物体信息,可以跟语言系统里的语义信息、动作系统里的可操作性信息结合起来,变得更完整。这就是全局工作空间的好处之一。它还能解释我们经验的统一性,因为这个被广播出去的中心表征,就是我们的内心体验。


    内心体验or哲学僵尸?AI意识真的会诞生吗?

    主持:我想深入了解一下,为什么您认为这就是内心体验所在的地方?这些过程怎么产生内在感觉的,现在还是个谜。您觉得这个理论解决了这个问题吗?

    Rufin VanRullen:这只是一个理论。我研究意识神经科学好几年了,也研究过各种理论。哪个理论都有人支持。我听说您喜欢“注意图式理论”,我也很喜欢,我觉得它和全局工作空间理论不冲突。我的选择,其实很多神经科学家都支持全局工作空间理论,但在被证实之前,它只是个理论。有很多方法可以证实它,可以直接研究大脑,也可以把它放到AI系统里看看行不行。所以它不只是个意识理论,我想说清楚,我不是想造有意识的AI。至少这不是主要目标。它也是个关于高级大脑功能的理论,解释大脑如何进行高级认知。我想把它放到AI系统里,是因为我觉得这能推动AI发展。

    主持:我们有一些图示,能更清楚地解释这个理论。您可以给我们讲解一下,这是您想在AI里实现的简化版。

    Rufin VanRullen:我们想把很多不同模块,比如语言、视觉、运动,都连接到中心的全局工作空间。比如,我们给系统一个任务:“穿过丛林”。因为这个任务,首先你要连接运动模块,然后开始走。但你也想睁大眼睛,因为你在丛林里。所以你把视觉模块也连上。这就是注意力系统的作用。你很幸运地连上了视觉模块,因为你看到一只老虎!因为视觉模块连着,老虎的信息就进入了全局工作空间,然后被广播到运动模块,运动模块就觉得应该赶紧跑。如果你的注意力系统够聪明,它会继续连接运动模块,而不用管语言模块,你就会开始逃跑,这在当时很合理。这个系统的好处是,它可以适应不同情况,比如在动物园里。你连着同样的模块,开始也想走,也想睁大眼睛。但看到同一只老虎,你的反应会不一样。你知道自己安全,不用跑。这时你会连接语言模块到全局工作空间,说:“看,好漂亮的老虎!”这就是我们怎么造出灵活的AI,同样的输入,不同的场景,会有不同输出,它能适应环境。

    主持:您已经开始实践了,对吧?不只是理论,而是把这个架构放到大型语言模型里。能给我们看看成果吗?

    Rufin VanRullen:我们几个月前才开始,还很初步。我们造的系统很简单,模块不多。现在只有两个模块:视觉模块处理图像,语言模块处理文字。我们用英语做过,也用过“原型语言”,就是用数学或数字描述环境。系统是通过经验学习的,它会看图像,看文字描述,有时两者一起看,学习不同领域之间的联系。

    主持:您输入的是各种感官数据?

    Rufin VanRullen:对,我们输入视觉和语言数据,有时分开,有时一起。它会根据我们的训练方式,找出不同元素之间的关联。

    主持:或者说像人一样学习。

    Rufin VanRullen:图像和语言同时出现就是一种监督信号,它们互相监督。但很多时候是自监督学习,它能看图说话,就算没文字描述,也能自己转换成语言,反过来也行。

    主持:您怎么测试它是不是更好的理解现实的方式?

    Rufin VanRullen:这种系统有一些好处。在其他任务中测试时,会出现“涌现属性”,比如在分类任务中,它比只有视觉的系统更鲁棒。我们还训练了一个机器人代理,基于简单的全局工作空间。我们有两个版本的系统,左边的是有全局工作空间的。右边的是对照组,没有全局工作空间。它也能融合视觉和其他信息,但没有全局工作空间的架构,特别是没有广播功能,信息不能传回各个模块。我们训练代理在一个简单的模拟环境里找桌子,找到就有奖励。我们先用数字描述环境,训练代理根据数字信息找桌子。不管有没有全局工作空间,代理都能学会。但我们换一种输入,给它图像而不是数字,让它根据图像找桌子。有全局工作空间的代理能把之前的策略迁移到新场景,不用重新训练就能找到桌子。没有全局工作空间的代理就很难找到桌子,有时能找到纯属运气。我们觉得这证明了全局工作空间很有用,它能让信息融合,然后广播到其他系统,产生一些新的能力。

    主持:您觉得这是“全局工作空间”理论的证据吗?它准确描述了我们理解世界的方式吗?您觉得它能让我们理解意识吗?还是只是解释了大脑如何完成任务?

    Rufin VanRullen:我觉得两者都有。这不能完全证明全局工作空间理论,但说明它在计算上有用,所以我们的大脑里可能真的有全局工作空间。如果没有这种涌现属性,我们就可以质疑这个理论了。

    主持:您有没有用其他意识理论做过实验?

    Rufin VanRullen:好问题。把这些理论变成深度学习系统不容易。几年前,我和日本同事Ryota Kanai研究过怎么用深度学习实现全局工作空间理论。其他理论应该也可以,但我们还没做,因为工作量很大。同样的测试肯定可以用于其他理论。

    主持:您是在大型语言模型的基础上,加上全局工作空间的架构,对吧?您觉得语言对意识是必要的吗?还是只是现在的一种工具?

    Rufin VanRullen:不,我们不是从语言模型开始的,而是从全局工作空间开始,连接不同模块。模拟里用的语言模型只是其中一个模块,不一定是语言模型。我觉得现在AI领域有个误区,觉得语言是万能的。模拟某些智能时,语言确实重要,比如让AI做智商测试。大型语言模型越来越好,但这只是模拟人类的智能。我们想模拟的是动物的智能,动物没有语言,也能学习各种感官信息之间的联系,建立自己的世界模型。全局工作空间解释了它们是怎么做到的。当然,有了这个系统之后,加上语言模块肯定更好,因为它能带来额外的能力。


    GPT-5会有意识?科学家坦言:这事儿比你想得快!

    主持:您觉得这些系统,不管是模拟的还是真实的,会有内心体验吗?或者它们只是“哲学僵尸”,能做事,但没有意识?

    Rufin VanRullen:我觉得这是个经验问题。如果我们造出了这样的系统,以后就能知道。如果你相信全局工作空间理论,那你就得接受,如果AI系统有了全局工作空间的所有组件,那它很可能也会有意识。但这只是个理论,有人可能不同意。再次强调,我们不是想造有意识的AI,只是想造更好的、更智能的AI。


    AI有痛苦怎么办?科学家竟然已经想到了!

    主持:但您觉得最终会造出有意识的AI吗?

    Rufin VanRullen:对。意识可能会随之而来。其他意识理论也一样,如果有人实现了那些理论,也可能造出有意识的AI。全局工作空间理论的核心是多模态整合。最近几年,大型语言模型也在往多模态发展,整合视觉、听觉等信息。所以他们可能无意中造出了全局工作空间,自己都不知道。

    主持:这会让您停下来思考吗?

    Rufin VanRullen:当然。有意识的AI会有什么后果?它可能会帮助人类,也可能有负面影响,媒体上讨论过很多。如果我们实验室的系统出现了意识,我不太担心,因为环境是可控的。

    主持:怎么可控?

    Rufin VanRullen:比如模拟里的机器人有了意识,想毁灭人类,它也只能待在那个房间里,出不去,我们可以把它关掉。另一种风险是伤害AI本身,如果它有意识,它可能会感到痛苦。

    主持:就像在那个找桌子的任务里一样,对吧?

    Rufin VanRullen:对。但我们造的AI,就算有意识,也可能只是昆虫或老鼠的意识水平,关掉它也没什么。但如果是大型语言模型有了意识,它掌握了人类的知识,能访问互联网,后果可能很严重。反过来,如果它比我们聪明得多,它可能会感受到更强烈的痛苦。

    主持:如果您的研究真的可能造出有意识的AI,这会影响您的工作吗?您和您的同事们会考虑这些伦理问题吗?

    Rufin VanRullen:这会让我们想更快地推进研究。作为神经科学家,我研究意识很久了,我们已经准备好迎接有意识的AI了。如果它出现在我们实验室,我们知道怎么识别和处理,也会公开信息,因为这是公共资金支持的研究。但如果是私营公司,他们可能不愿意公开,因为会影响他们的利益。所以我想加快研究,神经科学家和意识研究者应该积极参与,防止负面后果发生。

    主持:您说您能识别AI的意识,但怎么识别呢?您可以看到它的行为,但怎么知道它真的有意识?

    Rufin VanRullen:我们不知道意识到底是什么,也不知道怎么精确测量。但我们有一些测试方法,也有人在研究怎么测试AI的意识。我觉得应该让这方面的专家来评估AI的意识,而不是追逐利益的人。

    主持:您想加快研究,您觉得多久能实现?我知道这很难预测,就像预测什么时候能证明弦理论一样。但您根据现在的进展,觉得什么时候能造出有意识的AI?

    Rufin VanRullen:我们现在的项目刚开始,欧盟委员会资助了五年。我们希望五年内,能在更复杂的环境里实现全局工作空间理论,看看这个理论和我们的实现方法能不能产生涌现属性,甚至意识,虽然我们不是特意要造意识。所以五年是我们这个项目的目标。更广泛地说,AI什么时候会出现意识,很难说。也许明年,或者几年后,GPT-5就可能出现意识,我不是开玩笑。有些人觉得现在的GPT就已经有点意识了。也可能要20年甚至更久,因为我们现在的意识理论可能都是错的。

    主持:您说明年或者五年后就可能出现有意识的AI,这太不可思议了。感谢您接受采访。





    更多AI内容



    森林聊AI商业
    每日一起了解,AI如何改变科技世界。AI创业者一起交流,栏目有:AI日报、AI访谈、我的AI笔记
     最新文章