转自:南京大学哲学系
如涉版权请加编辑微信iwish89联系
哲学门鸣谢
在ChatGPT成为学术讨论热点的时候,我们需要理解,人们并不是真正在讨论ChatGPT等生成式人工智能的真实存在,而是在人类自身的象征秩序中,将其颜貌化,变成人类象征秩序下的一个崇高对象。在我们将ChatGPT崇高对象化的同时,也意味着人类主体接受了象征秩序的阉割,蜷缩在象征秩序划定的界限里,从而陷入俄狄浦斯式悖谬性命运轮回之中。为了避免这种悖谬,我们需要延伸剩余快感的概念,从精神分析的角度,给出在多层次的象征层面上重新构想人工智能幻象的可能性。一旦让人工智能重新对象化为一个崇高对象,也意味着主体接受了新的象征秩序,成为一种与之相对应的主体。
关键词:ChatGPT;人工智能时代;机器学习;剩余快感;精神分析
随着一篇学生用ChatGPT撰写的作业被一位教授打了高分,瞬间让OpenAI公司开发的生成式人工智能应用ChatGPT成为全球人类共同关心的热点。截至2023年4月,ChatGPT的活跃使用用户已经超过了1亿,全球大概有30-40亿用户曾经使用过ChatGPT这样的软件。不过,ChatGPT带来的不仅是前所未有的震撼,更重要的是,这种生成式对话型人工智能应用,迫使今天的人类不得不反思自己在新智能技术社会背景下的生存状况。
我们对诸如ChatGPT这样的生成式人工智能已经进行了各个角度的反思,有科技哲学的、伦理学的、人文主义方面的,也有从国家治理层面和社会运行层面的反思。但在这些反思中,缺少了一个十分重要的视角,即精神分析的视角。当ChatGPT在抖音、B站、微博、Youtube、Twitter、Instagram等国内外各大平台成为高热度焦点时,很多普通人关心的问题是,一旦这种人工智能成为主流,是否会在诸多工作岗位上开始取代人类的工程师和设计师,甚至可以取代医生、教授、律师、会计师?我们究竟在担心什么?在这种担心下,是否存在一种对ChatGPT精神分析式的误读,这种误读本身是否就代表着一种人类的症候:即在面对ChatGPT这种生成式人工智能的时候,我们看到的却是自己被拉康式的大他者压抑的症候。在拉康的巨大的象征能指链下面,隐藏着我们的力比多的欲望;而面对人类社会的秩序和象征法则,总存在着欲望逃逸的可能性,这或许就是德勒兹和加塔利在他们的两卷本《资本主义和精神分裂》(Capitalisme et schizophrénia)中对我们的告诫。人类生命的一种意义就在于不断逃逸象征秩序的可能性,内在性精神世界的意义不仅在于通过主体来支配外在的客观世界,更重要的是,它可以为我们缔造逃逸出象征秩序的剩余快感。
然而,ChatGPT的出现,无疑让人类最担心的问题浮现出来,即我们是否可以在不依赖我们自身内在性的情形下,实现最广泛的治理和支配。这种智能的治理和支配似乎越来越不依赖我们的大脑,但由于它越来越不依赖于我们的内在心灵,或许那个原先逃逸象征秩序的剩余快感也开始变得毫无意义。所以,齐泽克在《连线大脑中的黑格尔》(Hegel in Wired Brain)中也提出了焦虑的疑问:“现在人工智能正在与意识脱钩,当无意识但高度智能的算法比我们自己更了解我们时,社会、政治和日常生活会发生什么?”因此,对这个问题的回答,我们还需要回到人的内在世界,从症候分析的角度理解,人类在面对ChatGPT之类的生成式人工智能的时候,究竟在担心什么?
在ChatGPT流行之初,我们大抵会有两种不同的态度。一方面,有人布置给ChatGPT一个写作任务,它可以像人类一样去撰写出文字作品,甚至可以做出符合人类要求的PPT,让部分人感叹一些工作完全可以被ChatGPT这样的生成式人工智能所取代,这一类人大多担心自己的岗位和工作,认为不久之后人类即将会被这些人工智能彻底淘汰。当然,还有另一种态度,即一些用户会向ChatGPT提出一些十分专业或刁钻的问题,发现ChatGPT并不会拒绝回答这样的问题,更厉害的是,ChatGPT会组织好语言,对这类它实际上没有办法做出回答的问题进行一本正经的胡扯,成为著名的“废话编辑器”。也正是因为后一种状况,一些人对所谓的生成式人工智能表达出不屑,认为人工智能的进展不过尔尔。我们的思考,并不是在这两种态度中来选择一方,判断孰优孰劣,而是思考一个根本性的问题:这里的两种态度,是否都根植于同一种意识构型?
这里的一个核心问题是,我们真的了解ChatGPT吗?ChatGPT是一个主体存在物,还是一个客观事实?它究竟以何种方式在互联网上与我们进行交谈和对话。OpenAI公司之所以称之为GPT,用的正是乔姆斯基在语言学上设定的模型,即生成式语法,只不过OpenAI通过朴素贝叶斯算法,将这种生成式语法的构想,变成了模仿人类对话的模型,即生成式预训练转译器(generative pre-trained translator)。在我们作为用户输入相应命令的时候,其最底层的算法就会找出我们提问的问题与其语料库中储存数据的可能关联,并在对话中实现了这种关联。这种运算,类似于我们在面对一组数据时寻找关联的运算,如著名的斐波拉契数列,1,1,2,3,5,8,13,21,34……,经过对多项数据进行充分的分析之后,我们会得出一个通项公式,即每一项等于之前两项之和。实际上,人工智能的机器学习算法也是如此,其最基本的算法是,试图在海量的数据中,在这些离散的数据中,找出可能的规律,正如斯蒂芬·马斯兰(Stephen Marsland)打的比方,“就像量子物理学中的海森堡不确定定理一样,背后有一个基本法则在起作用,我们不可能知道一切”。机器学习算法,就是通过反复的尝试,试图找到隐藏在这些数据背后的关联性,并将这种关联性展现出来。当然,机器学习算法能找到的关联,与语料库的丰富程度直接相关,也就是说,当我们赋予其语料库和数据越丰富的时候,机器学习算法越能达到我们所需要的规则。所以,从算法角度来看,ChatGPT之类的人工智能机器与我们进行互动,并对我们的问题作出回答时,它发挥出的功能绝不是绝对正确地回答出提问者提出的问题,而是让它的回答在反复的尝试中越来越接近人类所希望得到的答案。我们不能将ChatGPT与百度搜索、谷歌这样的搜索引擎相混淆,因为ChatGPT虽然在积累了大量数据的数据库和语料库的基础上,可能正确回答某些问题,并能撰写出专业的论文,但这绝不意味着ChatGPT的目的在于代替人类探索科学的答案,并给出一些无法解释的问题的正确回答,它只是尝试着让呈现出来的回答语句越来越切近人类用户所希望的要求,以致人类用户无法辨别它仅仅只是人工智能还是真正的人类。因此,当ChatGPT不能正确回答人类用户提出的问题时,并不代表ChatGPT就是人工智障,是不值一提的高级玩具,而是说,ChatGPT从人类用户那里得到了一个不满意的反应,它下次回答会对人类所要求的回答做出更切近的选择,尽管不一定是正确的回答。换言之,ChatGPT和生成式人工智能的算法目的恰恰不在于主观性,而在于它是通过大量的语料库和数据库的积累,弄清楚了人类语言交往的奥秘,找到人类自己都不太清楚的语言和象征规则,从而让自己变成人类语言交往中的一部分。它未来的发展方向,也绝不是为我们提供人类无法回答问题的答案,而是让它看起来更像人类,从而不能通过简单的语言辨析就可以将人类和智能体区别开来。不过,在精神分析的层面上,最有趣的问题并不在于ChatGPT之类的生成式人工智能如何揣摩人类语言交往的奥秘,而在于人类是如何想象ChatGPT的。实际上,对绝大多数人来说,人类并不了解ChatGPT,因为ChatGPT不是一个个体,它同时与全球数千万人对话,同时吸纳这些用户的语言和规则,并在强大算力的逻辑芯片中进行数据处理和分析,并面对这些用户作出解答。我们从未想过ChatGPT是一个真正的全球性的庞然大物,它的触角实际上存在于世界各地的有线链接和无线网络的数据交换中,每一秒钟,它完成着数百亿次数据交换,它绝非一个个体化的人工智能,它已经将整个世界的存在囊括于其统一的算法结构中,我们只不过是通过智能手机和电脑接触到它微不足道的毛细血管式的终端之中。但是,我们并不是这样接触ChatGPT的,因为我们已将其转化为一种虚构的个体化想象之中。也就是说,当我们作为用户与之进行对话的时候,实际上依赖于一种虚构形态,即我们需要将ChatGPT转译为一个虚构的实体,如同在我们面前进行对话的个体一样。没有这种虚构,我们与ChatGPT的对话就无法进行下去。因此,这不仅仅只是一个我们与人工智能交往的社会哲学问题,也不是一个我们如何认识ChatGPT的认识论问题,而是一个本体论问题。我们如果要完成与ChatGPT的对话,作为用户,使用ChatGPT的可能性前提恰恰在于,我们需要将ChatGPT这个被传统认识论消化的剩余物,转化为一个基础的虚构构型,只有在这个虚构中,我们才能与之对话,才不会对之感到恐惧,才能在一个平常的用户界面上完成彼此间的数据交换。阿德里安·约翰斯顿(Adrian Johnston)等人曾经给出一个非常有趣的术语:客观虚构(objective fiction),正好可以用来理解ChatGPT与我们之间互动关系的可能性。约翰斯顿等人指出,“客观虚构一词不仅指虚构和类似现象,它们构成了知识形式或客观现实的必要组成部分,没有这些组成部分,这些知识或现实就会瓦解”。“客观虚构”这个概念,优点在于它并不是一种永恒的客观存在物,主体的交往在很大程度上无法彻底改变外在的客观实在,但是可以改变客观虚构,即精神分析的象征秩序规则。人与人之间的语言交往,需要一种虚构的象征秩序的支撑。在这个交往中形成了一切存在物,这些存在物只有还原为象征秩序中的对应物才能存在,我们才能在其中作为主体与之进行互动和交流。这样,我们就并不需要真实了解与我们进行交流的对象的具体身份和存在样态。比如,我们在互联网上遇到的对话机器人,以及在在线游戏中遇到的对手和伙伴,我们并不需要了解对方究竟是谁,具体做什么,甚至它是不是真实的人类,这些对我们使用网络进行交往并不重要。重要的是,我们可以将这个与我们进行即时交往的对象,还原为我们所理解的象征秩序中的身份,我们便可以与之进行对话和交流。换言之,当ChatGPT出现在互联网上的时候,它本身并不是以真实的样貌呈现出来的,它只有一个脸庞(visage),一个颜貌(visagéité)。我们依赖一种共同的客观虚构,这种虚构成为一台不断运行的抽象机器,不断地将其无法消化的对象变成其虚构秩序下的标准颜貌,正如德勒兹和加塔利在他们《资本主义和精神分裂(卷2):千高原》指出的:“抽象机器因而并非仅实现于它所产生的面孔之中,而且也以多种多样的程度实现于身体的不同部分、衣服、客体之中,它根据某种理性的秩序(而非一种相似性的组织)对它们进行颜貌化。”从某种意义上来说,我们之所以能在本体层面上,能够用智能手机和电脑向ChatGPT提问,进行交流对话,其前提必定是在一个客观虚构的象征秩序下,将ChatGPT颜貌化了。我们将其转译为我们可以理解的对象,而不是真实地理解ChatGPT的存在;我们需要的也不是它的真实存在样态,而是它在我们的象征秩序下的颜貌化,呈现为一个可以被我们的内在意识所理解的对象,并如同日常生活中某个路人甲一样。在这里我们不难发现,并不是ChatGPT本能地欺骗了我们的感觉,它也绝不是披着狼皮的羊,而是一旦其进入应用,与人类进行交流,它就必须被人类颜貌化,让那个本身不可能被人类的日常生活知识所消化的对象变成一个有脸庞的对象。因此,我们不难理解,我们在影视作品、戏剧、游戏中思考的人工智能必须带有一个脸庞(尽管可能不是人的脸庞,如异形和铁血战士的脸庞),只有这种赋予脸庞的颜貌化,才让我们完成了象征秩序下的交换,才让无法理解的存在物以某种具象化的方式呈现出来。总之,我们在面对ChatGPT的时候,对之进行哲学研究和精神分析的重点并不在于ChatGPT究竟是什么,而是不同的人试图赋予ChatGPT不同的颜貌,让其变成人类象征秩序可以理解和把握的崇高对象。或许,我们可以再次回到齐泽克关于崇高对象(the sublime object)的定义:“这就是为什么在严格的拉康的意义上,真实对象就是一个崇高对象——这个对象就是在大他者(即象征秩序)这种所缺乏东西的具现化。崇高对象是我们不能轻易接触到的对象:如果我们靠它太近,它就会失去崇高的特征变成一个日常庸俗的对象。”这不正是我们对ChatGPT的意识形态构想的根源吗?如果我们了解ChatGPT背后的算法和运作机制,我们便能理解其算法的全球性和整体性。在一定程度上,它的内在算法对于那些懂得人工智能应用的工程师来说,也许并没有什么神秘感可言。恰恰是我们这些普通人,将一个不理解的东西转化为日常生活象征秩序下可理解的对象,让其颜貌化,呈现为虚构的实在物。这种颜貌化让本身并不具有神秘色彩的人工智能应用披上了崇高的外衣,变成了象征秩序下的崇高对象。换言之,神秘的并不是ChatGPT本身,而是在象征秩序之中,人们使用崇高和神圣的符号来再现出人工智能的形象,让其在意识形态中呈现出来,而人们其实无法理解这些崇高和神圣的符号。因此,对ChatGPT的研究,并不在于ChatGPT之类的人工智能真的能做什么,而在于人类在其象征秩序中如何将其崇高化,这种崇高化的对象,才是对人们产生巨大冲击和震荡的根源。在索福克勒斯《俄狄浦斯王》第一幕的最后,盲人先知忒瑞西阿斯终于道出了俄狄浦斯的秘密:告诉你吧:你刚才大声威胁,通令要捉拿的,杀害拉伊俄斯的凶手就在这里,表面看来,他是一个异乡人,一转眼就会发现他是一个土生的忒拜人,再也不能享受他的好运了。他将从明眼人变成瞎子,从富翁变成乞丐,到外邦去,用手杖探着路前进。他将成为和他同住儿女的父兄,他生母的儿子和丈夫,他的父亲的凶手和共同播种的人。直到这一刻,俄狄浦斯才从先知忒瑞西阿斯的口中得知了全部真相,那个“弑父娶母”的罪人,就在自己身上道成肉身。“弑父娶母”似乎成为俄狄浦斯一生的谶语,他拼命躲避,却无法逃离的命运,最关键的是,促成这一切的,并不是那个看不见的神灵,也不是先知忒瑞西阿斯,而是他自己——俄狄浦斯王。同样,当回到拉康式精神分析的话语中,那个“弑父娶母”的预言,实际上是一种大他者的象征秩序,始终悬临在俄狄浦斯头顶上的审判,无论他多么刻意地去逃避这种象征秩序的实现,但他的逃避本身就促进了“弑父娶母”谶语的实现。在最终见到忒瑞西阿斯之前,在揭破俄狄浦斯已经杀死了自己的父亲拉伊俄斯,并迎娶了自己的母亲伊俄卡斯忒的秘密之后,那个试图逃逸象征秩序的欲望,实际上完成了整个循环,最终被锁定在悲剧的演绎之中。无论是弗洛伊德还是拉康以及后来的齐泽克,都十分重视俄狄浦斯神话在整个精神分析中的地位。事实上,尽管我们并没有遇到先知忒瑞西阿斯,也没有人向我们批下“弑父娶母”的谶语,但我们遇到的是同一个象征秩序的神话,即在我们试图逃逸的欲望之上,深深地用象征的利刃,将我们的欲望一分为二:一方面,那些无法被象征秩序容纳的欲望被阉割了,成为无法被主体所掌握的对象a(objet petit a),在阉割的那一刻,指向对象a的欲望成为永远的逃逸的欲望,无法成为主体意识的一部分;另一方面,我们剩下的欲望不得不蜷缩在一个象征秩序的规范下,服从于象征界大他者的律令。正如对阉割的主体,齐泽克有一个精彩的比喻:“在一个传统的授权仪式里,象征权力的物件同样让获得它们的主体站在行使权力的位置——假如一个国王手持权杖、头带王冠,他的话就会被视为一个国王的谕旨。这种纹章是外在的、不是我本性的一部分:我披上它们、我穿戴它们以行使权力。就是这样,它们‘阉割’了我,通过在我的直接本性和我所行使的功能这两者之间引入一个裂口(换言之,我永远无法完全身处我的象征功能的层面),这就是臭名远播的‘象征阉割’的意义:阉割正是我被卷入象征制度、采用一个象征面具或头衔时发生的事情。”由此可见,在拉康那里,作为主体的我如果需要在象征秩序下生存下去,就必须接受象征阉割,产生一个永远逃逸我们的对象a,也唯有在我们遭受了象征阉割的时候,我们才能在这个世界上拥有自己的地位和功能,正如俄狄浦斯只有在象征秩序上真正实现了忒瑞西阿斯“弑父娶母”的谶语之后,他才能成为俄狄浦斯王。这样,我们可以得出拉康式的象征阉割的主体公式,正如第一次听说了“弑父娶母”谶语的俄狄浦斯离开了忒拜到了科林斯,一旦俄狄浦斯自己也相信了这个谶语,他就成为被阉割的主体,符合公式:S→$,穿过主体的竖杠代表着象征界对主体的阉割,由于主体被阉割,主体不停地欲望着失却的对象a,这就成为拉康经典的欲望幻象公式:$◊a,意味着为了掩盖我们永远无法获得的对象a的真相,我们必须营造出某种俄狄浦斯式的幻象来掩盖真相。正如齐泽克所说:“幻象的作用在于填补大他者的缺口,掩盖它的不连贯性……幻象掩盖了这一事实,大他者,即象征秩序,就是围绕着某种阉割之后的不可获得对象建立起来的,这个对象无法被象征化。”或许,我们可以用这样的公式来解释ChatGPT在人们内心中泛起波澜的症候。前文已经分析得出,作为一个被象征阉割的主体,我们面对ChatGPT永远不是真实的人工智能,那个真实的数据交换、处理和算法,从来都不在主体的视野之内。换言之,ChatGPT究竟是什么,并不是主体最关心的事情,而是他们通过一个颜貌化的幻象,遮蔽了ChatGPT的真相,因而我们将ChatGPT之类的生成式人工智能视为一个对象,一个在象征界上幻化为某种个体形象的对象,我们不是在与巨大的数据处理智能机器打交道,而是面对一个遮蔽真相的幻象。然而,对ChatGPT的颜貌化,也带来了进一步的结果。由于ChatGPT是一种幻象,一个被颜貌化的幻象,于是,一种类似于俄狄浦斯“弑父娶母”的象征化的谶语在我们身上发挥了作用,弑父者俄狄浦斯终会担心他再次被新的主体弑杀,而曾经通过理性的启蒙,将上帝赶下神龛,让大写主体登上空王座的人类,实际上也不时地感到焦虑,因为新的弑父者随时会出现,将人类变成它们的牺牲品。大工业机器生产的时代,人们就曾担心过喷着蒸汽的机器铁人反过来奴役人类,让人类成为巨大机器的附庸。无论是芒福德的“巨型机器”,还是卓别林的《摩登时代》,都是大工业机器生产时代的俄狄浦斯神话的缩影。当然,今天巨型机器的形象已经让位于更具体的生成式人工智能的形象,但人们关于机器或人工智能的想象,却基于同一个意识形态的象征神话,即某种超越于人类控制的幻象化的形象,最终抛弃了人,甚至直接将人类消灭。不过,正如拉康和齐泽克等人向我们揭示的更深层的ChatGPT的奥秘在于,我们对ChatGPT的颜貌化,以及担心ChatGPT来取代人类或消灭人类的幻象,本身是在人类自己的阉割的伤口上形成的。换言之,我们欲望的对象从来不是ChatGPT的真实样态,我们也不会真正讨论ChatGPT究竟会带来一个怎样的世界,人们对ChatGPT的讨论建立在人类在进入现代文明的一个创伤性的裂口之上。如何来理解这个裂口?正如俄狄浦斯的裂口在于,他从小就被灌输了忒瑞西阿斯“弑父娶母”的谶语,他没有意识到的是,这个阉割性的谶语让他选择了有意识的逃逸,但正是围绕着谶语的逃逸恰恰成就了俄狄浦斯的神话,完成了真正的弑父娶母。人类与ChatGPT的关系何尝不是如此?人类的创伤在于,他们害怕像人类在启蒙时的弑神一样的另一次弑父,因此,他们对任何具有智能的人造物都感到恐惧,无论是蒸汽时代的机器,还是今天的ChatGPT。但是,人类俄狄浦斯化的行为在于,他们在颜貌化的ChatGPT面前有两种态度,要么焦虑,要么不屑一顾,实际上这些都在反噬着人类本身。因为当人类越试图用自己的言语和交谈来难住ChatGPT的时候,恰恰让ChatGPT生成为更强大的人类产品;人类每一次选择面对ChatGPT的态度,恰恰是以另一次“弑父”为前提的。人类任何逃逸人工智能的行为,都是人工智能飞跃发展的契机。如果说俄狄浦斯对先知谶语的逃逸,代表着一种自我压抑,而他在压抑下生成了一种剩余快感(surplus-jouissance)。换言之,如果俄狄浦斯不听信先知的谶语,安稳地在忒拜城或科林斯城生活下去,按照城邦本身的象征秩序生活,只有正常的愉悦与快感;唯有在俄狄浦斯选择了压抑自身,听信了先知的谶语,需要逃逸“弑父娶母”的命运,才会产生剩余快感。齐泽克说:“正是某种剩余压抑造成了剩余快感。”同样,当我们惊诧于ChatGPT的智能时,人类总是希望用某种回答不上来的问题来难住ChatGPT;仿佛一旦ChatGPT回答不上来,人类就重新获得了人工智能仍然是一种低于人类的“人工智障”,人类依然可以战胜潜在的弑父力量,这就是一种剩余快感。我们在面对ChatGPT的焦虑中,反而生成了一种快感,而人类往往忽略的是,这些看似刁钻古怪的问题,实际上有效地生成了ChatGPT的语料库数据库,更有效地建立了人类心理的各种关联,并在人类的意识之外构成了一种连人类自身都不了解的象征关联和逻辑。换言之,ChatGPT似乎正在吞噬我们的剩余快感,因为当我们为每一次逃逸了人工智能的僭越行为庆幸时,事实上,这种逃逸的剩余快感进一步成就了生成式人工智能的成长。在这个意义上,俄狄浦斯被反噬了。俄狄浦斯越试图逃逸先知忒瑞西阿斯的谶语,他的剩余快感越是将他推入“弑父娶母”的世界当中。今天,当我们无法走出自启蒙以来奠定的人类主体的理性幻象,试图用新的逃逸和超越人工智能的逻辑来缔造人类理性无法战胜的神话时,ChatGPT之类的生成式人工智能就已经在新的算法逻辑上形成了人类意识之外的数据关联,形成了新的象征逻辑,并真正逃逸出人类主体的幻象世界。第一,人们在认识ChatGPT的时候,并不是需要真正地认识ChatGPT之类的生成式人工智能是什么,何为其所是,而是要积极地将其转化为一个可以在象征秩序上理解的崇高对象。准确来说,从ChatGPT诞生以来,人们对支撑ChatGPT等生成式人工智能的底层算法不感兴趣,对它如何收集和分析数据不感兴趣,人们最感兴趣的是那些可以在他们意识形态幻象上找到对应物的东西,如ChatGPT在界面上向用户提问做出的惊动天人或愚蠢至极的回答。我们对ChatGPT的认识,大部分是基于这样的聪慧或愚蠢的表达之上。譬如,看看从2022年以来的讨论ChatGPT的文章,绝大多数文章并不在于解释ChatGPT的基本原理和架构,而是努力找到人类主体在ChatGPT刺激出来的兴奋点,然后将这些人类的兴奋点(如取代某些人的岗位或工作)变成对ChatGPT的认识。这样看来,迄今为止的大多数人对ChatGPT的讨论,很容易陷入这样一个怪圈:他们只能用在网络上看到科技用语,加上他们自己与ChatGPT交流的经验,以及一些极端的案例,描绘出一个高度契合于象征秩序的幻象;这个幻象被人类自己颜貌化了,仿佛变成一个可以与人类直接交流的对象。然而,真正的ChatGPT的人工智能是如何发挥作用,如何建立象征关联,其实都在这些人的关注点之外。换言之,我们需要的是一个被颜貌化的崇高对象的ChatGPT,而不是其真实之所是。第二,为了适应这个崇高对象,主体围绕着其阉割的创伤建立了俄狄浦斯式的欲望公式,即让我们可以与ChatGPT进行交流的东西,并不是一个健全的日常主体,而是一个担心被人工智能“弑父”的逃逸主体。我们不仅将一个无法象征化的对象转译为象征秩序上崇高对象的幻象,也需要让主体蜷缩在象征秩序之内,按照固定的象征法则来与ChatGPT的幻象进行交流,这是让ChatGPT交往成为可能的认识论基础。这样意味着,一旦主体进入与作为崇高对象的ChatGPT交流的时候,主体必然被阉割,它必须生成为一个符合ChatGPT交往方式的阉割主体;而主体被阉割掉的部分,成为剩余快感的来源。第三,最为重要的是,当被阉割的主体不断地去追求逝去的对象,形成剩余快感的时候,其实正因为我们对ChatGPT的形象误认,将其颜貌化,主体试图逃逸被“弑父”的命运,于是选择了远离和逃逸。但悖论就在于此,当人类努力证明自己不会被人工智能取代的时候,他越陷入被ChatGPT之类的生成式人工智能控制的怪圈,因为生成式人工智能就是吞噬数据的,我们通过剩余快感去逃逸象征秩序的控制,逃离ChatGPT的掌控的对话和行为,实际上都生成为新的数据和语料库,被ChatGPT吞噬。在这个意义上,我们可以说,ChatGPT吞噬了我们的剩余快感。在这一刻,人类似乎再一次陷入俄狄浦斯的悖论,即当我们越想逃离象征秩序的崇高对象,就越成为崇高对象的一部分。我们的剩余快感,那个指向永远消失的对象a的力比多,实际上成为ChatGPT最丰盛的筵席,它在象征秩序上编织了更庞大的网络,让每一个阉割主体都无法真正逃逸出其秩序的迷魂阵;我们手中理性的阿里阿德涅之线,也不过是ChatGPT之类人工智能映射出来的人类世界的镜像。当我们牵着这条线似乎走到迷宫终点的时候,却是向我们敞开了另一个更庞大的迷宫的大门。由是观之,我们的剩余快感反而造成了我们的困境。在这个绝望之巅,我们仿佛只能哀嚎道:ChatGPT真的吞噬了我们的剩余快感了吗?解开这个谜团的关键,并不在于我们试图逃逸崇高对象的快感,而是在于拉康和齐泽克如何来界定剩余快感。在《剩余快感》一书中,齐泽克明确地指出:“当我们面对剩余快感的社会维度时,我们应该牢记,拉康的剩余快感概念是以马克思的剩余价值概念为蓝本的;然而,我们必须非常精确地了解剩余快感和剩余价值之间的联系。”那么,剩余价值与剩余快感之间有什么联系?一般来说,对马克思剩余价值的理解,会放在政治经济学的剩余劳动时间下来解读,即被资本家无偿占有的工人在剩余劳动时间中生产出来的价值。但是,我们还可以从本体论的角度来理解剩余价值,其关键在于劳动力这种特殊的商品,用马克思自己的话来说:“商品形式的奥秘不过在于:商品形式在人们面前把人们本身劳动的社会性质反映成劳动产品本身的物的性质,反映成这些物的天然的社会属性,从而把生产者同总劳动的社会关系反映成存在于生产者之外的物与物之间的社会关系。”简言之,马克思看到在资本主义主张等价交换的市场上,存在着一种不等价交换的商品,即劳动力商品,资本家支付给工人的工资掩盖了剩余价值的事实。也就是说,基于劳动的量的普遍交换的等价形式的资本主义市场体系,在其建立普遍性征服了全世界的时候,也在其内部形成了一个非等价形式的症候。马克思说:“要从商品的消费中取得价值,我们的货币占有者就必须幸运地在流通领域内即在市场上发现这样一种商品,它的使用价值本身具有成为价值源泉的独特属性,因此,它的实际消费本身就是劳动的对象化,从而是价值的创造。货币占有者在市场上找到了这样一种独特的商品,这就是劳动能力或劳动力。我们把劳动力或劳动能力,理解为一个人的身体即活的人体中存在的、每当他生产某种使用价值时就运用的体力和智力的总和。”正是对这种特殊商品的分析,让马克思彻底区别于资产阶级的庸俗政治经济学家。而庸俗政治经济学家们看不到被等价交换的形式遮蔽的不等价交换的症候,剩余价值就是资本主义市场交换的奥秘,也是其症候所在。那么,我们是否以同样的方式来理解剩余快感呢?其实,对拉康来说,最核心的内容仍然是交换,不过,这里不再是马克思意义上的市场的等价交换,而是象征交换,所有的物必须变成象征交换的对象,才能在象征能指链上流通和传递,成为可以把握的对象,这也就是ChatGPT之类的人工智能可以成为象征秩序的崇高对象的原因之一。ChatGPT与我们的欲望相遇时,便完成了意识形态的象征交换,我们将ChatGPT颜貌化,成为一个可以在智能手机和电脑界面上交流的对象。但问题在于,由于变成崇高对象的ChatGPT并不是ChatGPT本身,在象征交换界面上运行的ChatGPT也从来不是以计算机代码的形式展现出来的,而是以人类可以理解的象征秩序的方式呈现的。这意味,在真正的ChatGPT与成为崇高对象的ChatGPT之间存在着一个差值,这个差值或许构成了剩余快感产生的最深层的原因。为了理解这一点,我们需要基于拉康的精神分析,对剩余快感进行更为详细的病理学分析。首先,ChatGPT的运行逻辑并不同于象征秩序上崇高对象的逻辑,我们不能将ChatGPT看成与人类无异的智能主体。这种人工智能的机器学习,更多地是通过朴素贝叶斯算法来寻找可能数据与语料库之间的关联,从而形成一种不同于人类意识的象征逻辑。在这个意义上,ChatGPT无论怎么厉害,它也始终需要通过象征逻辑和规则来运行,即便这些规则是人工智能通过自己学习得到的逻辑和规则,但这些规则仍然是一种符号性和象征性的朴素运算逻辑。在精神分析上,人类可能具有一些无法被象征逻辑归纳出来的情态,例如,讨论最多的人类情感是否可以被智能化的问题。人工智能模仿人类的情感也是通过象征逻辑来运作的,这种逻辑与人类基于内在创伤形成的无意识系统无关,仅仅是在获得的符号和表征上来尽可能判定出人类不同的情感表达的符号性表现。有趣的是,一旦ChatGPT通过机器学习得出了这些规则,意味着对人类的象征秩序的溢出,因为连人类自己都不会知道这些规则。但这并不代表人工智能更像人类,或者模仿出拉康精神分析意义上的想象界和欲望之维,而是ChatGPT将人类的各种外显表象展现在一套平面化的象征和算法系统当中,人类不可能也不需要理解这套象征和算法系统,人类关心的仅仅是这个无法消化的事物是否可以转译为人类自己象征秩序上的对象。所以,在纯粹生成式人工智能本身的逻辑上,不存在剩余快感。人类的剩余快感也迅速被其象征化,我们不能在ChatGPT自身的逻辑中找到任何剩余快感存在的空间。其次,由于问题不在ChatGPT的象征和算法系统,那么问题一定在人类自己的象征系统中。换言之,真正将ChatGPT颜貌化,将其变成崇高对象的,恰恰是人类自己。人类逃逸的崇高对象,并不是那个在机器学习系统逻辑上运作的ChatGPT,而是逃逸人类自己崇高对象的想象。由于这个想象的对象本身就依赖于人类自身象征逻辑的阉割,因此,人类从一开始就陷入一个病理学症候之中。依照拉康的说法,任何幻象都是围绕象征性的阉割创伤建立起来的。我们对ChatGPT的崇高对象化,就是人类为了掩盖自己的创伤而创立的幻象。倘若如此,人类不可能真正在象征层面逃逸出ChatGPT的崇高对象,因为逃逸和崇高对象处在一个莫比乌斯圈之内,正如拉康所说:“莫比乌斯圈是一个只有一个面的表面,一个只有一个面的表面不能被翻过来。如果你把它翻过来,它仍然会和自己一样。”拉康强调的是,我们在面对俄狄浦斯神话的时候,之所以无法走出谶语的陷阱,是因为谶语本身就是我们阉割的欲望。对ChatGPT而言,我们本身以阉割欲望的幻象建构了ChatGPT的崇高对象,当我们逃逸的时候,并不是逃逸ChatGPT之所是,而是逃逸我们自己构建的幻象。而逃逸行为本身也是幻象构建的,当我们通过创伤构建逃逸幻象的时候,发现自己离自己崇高对象的幻象更近,因为在主体层面上,它们属于同一个幻象,构成了一个封闭的莫比乌斯圈。最后,我们可以找到作为主体的剩余快感的可能性,并不在于在象征层面上的逃逸,而是要理解,如果我们面对的是ChatGPT的崇高对象,那么我们真正需要逃逸的不是这个对象,而是其背后的象征系统。剩余快感必须指向这样一种可能,它告诉我们,对ChatGPT的颜貌化和象征化,实际上不止一种可能,因为象征化的崇高对象高度依赖于象征秩序,倘若象征秩序遭到松动,就存在对ChatGPT其他的崇高对象化的可能性。它既可以颜貌化为一个与我们进行平等交往的智能主体,也可以像贝尔纳·斯蒂格勒那样,将其颜貌化为一个代具(prosthesis),代表着人类本身的器官学发展。这意味着,象征界并不是单层的,它可以演化为多层的象征架构,而ChatGPT也具有其他的崇高对象化的可能性。那么,剩余快感的逃逸绝不是在单一的象征秩序下的逃逸,而是将二维平面变成三维层次的褶皱性平面,指向一个并非“弑父”性谶语下的人工智能的崇高对象。也只有在这种情况下,才能出现无法被ChatGPT的某一种颜貌化形象所吞噬的剩余快感。剩余快感,代表着逃逸,也是一种无法被整合到单一象征秩序之下的力比多的流动。在单一的象征秩序下,我们面对的是固定的ChatGPT的形象,因此,我们对他提出的任何问题,实际上都在滋养这种形象的生长。于是,ChatGPT在GPT-4下成长得越快,越让人类感到恐惧和焦虑。我们忽视了一个问题,ChatGPT并不是为了取代人类而设计出来的,它并不一定会成为科幻小说中屠戮人类的未来智能。当然,在未来的社会中,随着生成式人工智能的进一步发展,我们或许会越来越在现实层面上依赖人工智能的辅助,比如人类与机器之间的交流,人类对大型机器和社会的控制,都是在人类与智能体合作的基础上生成的。当我们更换了象征秩序的莫比乌斯圈之后,不仅需要我们重新塑造一个新的ChatGPT或人工智能的崇高对象,更需要意识到人类本身就在这个关系之中,人类与ChatGPT的关系,就像一种物的纠缠关系一样:当我们将人工智能视为竞争性的对手,它就是对手;如果我们能够将其象征化为一个伙伴,它或许就是一个伙伴。
蓝江, 南京大学哲学系教授、博士生导师,南京大学马克思主义社会理论研究中心研究员,主要研究方向为国外马克思主义、当代欧陆激进左翼思想。
文章来源 | 武汉大学学报(哲学社会科学版)2023 年第 4 期