人工智能是否拥有类人意识? | 社会科学报

文摘   2024-11-06 17:41   上海  

深度


随着人工智能对人类社会的影响愈加深远,机器的意识问题引起了广泛关注与争论。机器是否具有类人意识,取决于如何界定意识。我们对于人工智能意识问题的反思,应该首先从对人类意识的反思中寻找答案。



原文 :《人工智能是否拥有类人意识》

作者 | 湖南大学岳麓书院教授    张俊

图片 | 网络


对机器类人意识的担忧


在第四次工业革命中,人工智能应该是对人类历史进程和未来社会形态影响最为深远的技术。尤其是通用人工智能的实现,将意味人类创造出一个新的智能物种,一种具有类人意识的硅基生命,一种智力远超人类的新物种,甚至人类都很可能被它们替代。一个超级智慧体,一旦产生“类人意识”(human-level consciousness),即“自我”(ego)或“自我意识”(self-consciousness,self-awareness),它的主体意识就觉醒了,由此必然产生人格的觉醒。而人格的觉醒则意味着它会产生人格尊严诉求和人格权利诉求,并从自私的主体性立场出发思考其与世界(包括人类)的关系并采取行动,就像人类一样。如果这个假设成立,人类历史和人类文明必将被人工智能终结。


这个假设给人的印象固然颇为惊悚,也颇有些科幻色彩,让人联想到科幻文艺作品中机器人对人类的控制、奴役和战争。由此,知识界甚至人工智能专业领域开始担心机器获得类人意识后会给人类社会带来毁灭性风险。这种担忧到底多少是基于科学的理性认识,多少是面对“异种智能”(Alien Intelligence,AI)的恐惧忧虑,难以分辨。实际上,人工智能对于人类及人类文明的改变,可能根本无须产生完全独立的“类人意识”,也根本无须诉诸科幻作品中那种机器人消灭人类的战争暴力手段。


人工智能是否有意识是哲学问题


2022年以来,以ChatGPT为代表的生成式预训练大模型开始引领新一代人工智能革命。在算法、算力、数据、资本的加持下,大模型的认知能力快速迭代,在语言、计算、编程、绘图、阅读理解、常识推理等方面已超出普通人的智识水平。世界上最前沿的人工智能工程师都已对这些大模型的工作原理失去具体细节上的掌控。这种情况导致今天人工智能界两种截然相反的观点,即部分科学家认为大模型机器已产生类人意识,而另外一些人则认为没有。


杨立昆、理查德·萨顿、山姆·奥特曼、李飞飞等科学家都否认智能机器已经产生意识。在他们看来,计算机处理的只是形式系统,根本不可能涌现出类人意识,进行有意识的思考,所以无需担心人工智能会变成与人类竞争的物种,AI控制、奴役、替代人类的想法只是一种科学幻想。同样是人工智能领域的主流科学家杰弗里·辛顿、伊利亚·苏茨克维、安德烈·卡帕西等人却对机器已经产生类人意识这一观点深信不疑。他们认为,目前人工智能已经产生意识,可以像人类一样思考,具有主观体验,不仅可以理解文本、语言、语义,也可以理解物理世界,而且未来一定比人类聪明,可以成为更高级的智慧体,并极可能控制人类。因为这种分歧,在硅谷产生了“有效加速主义”(Effective Accelerationism,E/ACC)和“有效利他主义”(Effective Altruism,EA)的科技价值路线之争。



无论坚持哪种观点,这些前沿科学家其实都拿不出坚实的证据。因此,人工智能是否具有意识,现阶段与其说是一个科学问题,不如说是一个哲学问题。机器是否具有类人意识,取决于如何界定意识。我们对于人工智能意识问题的反思,应该首先从对人类意识的反思中寻找答案;我们对人工智能危害的反思,则应该首先回归人性的反思与批判。


现象学视角下的人工智能意识


意识是生命特有的现象。单细胞生物就已出现意识反应,拥有区分生命体自身与物理环境的“原意识”(proto-consciousness)。人类的意识当然是一种拥有高级智能的意识。从现象学的观点来看,“意识”是一种心灵的意向性活动,一种面向主观显现的心理过程,其本质是个体主观上可以意识到的心理活动。因此,“意识”概念离不开主观体验。当然,意识活动的进行过程除了被主体直接意识到,也可通过主体的反思来把握。“自我意识”即是以反思性的方式揭示出一个带有对象性特征的经验自我的存在。现象学所讲的意识可以划分为智识、情感和意欲三类意识。智识(智能)只是人类意识的一个维度。所以当我们谈论人工智能的意识时,其实谈的是人工意识,即集人工智能、人工情感、人工意欲为一体的人工心智。


现在的智能机器可以模仿人类意识中的部分认知能力,如知识记忆能力、图像再现能力、符号表象能力、模仿能力、学习能力、判断能力、思维能力、推理能力、知识迁移能力等,却很难模仿人类意识中的直觉能力、想象能力、洞察能力、创造能力和情感能力。目前人工智能还缺乏对真实世界的情境感知、情感体验以及自我反省机制。工程师发现大模型可以执行复杂任务,有时却无法完成人类眼中的简单任务。所以人工智能还不能完全复制并再现人类意识。但智能机器不是只有完全复制人类意识,才能被认为拥有意识,其具备人类水准相当的认知能力,也可以被认为拥有类人意识。


人工智能一开始就是人类意识的对象化和凝聚。人类意识可以通过语言等人造符号系统上传到机器智能中。所以,本质上大模型人工智能必然以人类意识为基础或本体。在这个意义上,机器智能可以被认为是拥有意识的。至于机器是否拥有反思性的自我意识,现阶段哲学和科学都需要保持缄默。



对机器是否拥有类人意识这个问题,本文的答案是:现在的机器智能拥有意识的客观性存在——大模型主要通过人类语言获取人类意识内容的符号标记及其计算衍生物,但机器智能并没有获得意识的主观性存在——自我意识,目前人工智能还不能真正理解人类的主观感受、情感,因此对于人类特殊的审美、道德、信仰诸价值领域缺乏意识的主观体验。


人工智能对未来社会的深远影响


机器的意识问题引起广泛关注与争论,根本原因在于人类对“异种智能”的恐惧。早在二十世纪中期,人们就开始担心这个问题,所以才有了科幻作家艾萨克·阿西莫夫提出的“机器人三定律”(Three Laws of Robotics)。“机器人三定律”与其说是机器人的伦理法则,不如说是人类面对机器智能的一种美好愿望和自我安慰,其本质是一种假说。这种假说低估了人类社会伦理的复杂性,更低估了人工智能对人类社会的影响。如果机器拥有类人自我意识,它为什么要遵循人类强加给它的伦理法则而将自己约束在人类社会的附庸地位上?又如何保证它在具体的道德情境中做出正确的道德判断和选择,然后实施有益于人类的行为呢?伦理规则是抽象的,人类社会的价值观都从来没有完全对齐,道德抉择的对错善恶判断也离不开具体的道德情境。人类面对“电车难题”(Trolley Problem)这样的伦理悖论都会束手无策,要求“爱人类”的人工智能永远做出有利于人类的道德抉择是不现实的。


就算人工智能的“自我意识”永远都不可能真正觉醒,人工智能也会对未来社会造成前所未有的深远影响。


首先,超级人工智能的强大算法和算力资源一旦落入别有用心者手中,会成为人类社会的巨大危害。今天哲学家们担心的“技术封建主义”,正在AI产业界快速崛起。这对未来人类的社会结构和资源分配方式都将产生颠覆性的影响。


其次,人类通过智能设备辅助,获得体质、感官与认知能力的提升,成为“赛博格化的后人类”,从而实现人类的“进化”。然而,这种“进化”可能注定只属于少数人。无产阶层因为无法负担高昂的人工智能设备和身体改造费用,几乎无法避免在历史进程中成为被淘汰者,沦为“无用阶级”。未来社会“无用阶级”与“赛博格化的后人类”的区别,可能就像今天动物园中的猿类与人的区别一样。


最后,人工智能真正可怕的地方在于操纵人类语言符号和感知系统来控制人类的思想,影响人类的行为,直到改变人类的精神世界与文明进程。大语言模型和视频大模型正以前所未有的速度在网络空间中生成各种真假难辨的信息,数量规模空前庞大,因此可能覆盖人类对世界的真实认知表达。各种应用软件背后的算法按照我们的喜好持续不断推送这些消息,这些都将深度塑造我们的偏好与价值观念。当生活中充斥着这种人工智能创造的语言文字和图像视频时,我们的认知难免会陷入亦真亦幻的世界中,导致无法分清真实和虚幻,并逐渐丧失对真实世界的感知能力。届时,人类的语言文化、思想观念、价值信仰、社会结构甚至文明形态,都将可能被人工智能重塑。



尽管人类的历史就是技术的历史,技术不断塑造着人类,但人工智能技术对未来人类社会的影响可能是空前巨大的。我们真的已经做好准备接受这种改变了吗?


[本文系国家社科基金重大项目“西方基督教美学通史”(18ZDA023)阶段性成果]



文章为社会科学报“思想工坊”融媒体原创出品,原载于《社会科学报》第1925期第5版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。


本期责编:王立尧



拓展阅读

人工智能像动物一样有道德地位吗? | 社会科学报

从“计算”到“算计”:人工智能语言模型何为 | 社会科学报


社会科学报社
社会科学报社融媒体“思想工坊”出品
 最新文章