刘禾 | 哲学论战的重大盲区——从Eliza到ChatGPT

体娱   2024-11-05 06:32   浙江  

2024年5月29日下午,北京大学·大学堂顶尖学者讲学计划之“人工智能对哲学的真正挑战是什么?”刘禾系列讲座第一讲在静园二院208会议室举行。主讲人哥伦比亚大学东亚系终身人文讲席教授、哥伦比亚大学比较文学与社会研究所前所长刘禾作了题为“哲学论战的重大盲区——从Eliza到ChatGPT”的讲座。本系列讲座由北京大学人文社会科学研究院、北京大学国际合作部主办,北京大学社会科学部协办,并得到光华教育基金会赞助。文研院院长杨立华作为主持人介绍了刘禾老师的研究领域和学术背景。




刘禾老师首先从继承剑桥AI实验室最后一位幸存的成员尤里克·威尔克斯(Yorick Wilks)保存的档案说起,回顾了她关注人工智能(artificial intelligence,以下简称AI)的动机与历程。刘老师认为,AI技术的发明和发展与当代文明所处的深刻危机有关,因此大家不能将AI问题完全托付给该领域专家,而是别无选择地必须开始思考AI对哲学的挑战,尤其是关心AI如何改造我们,并将把我们带向何处。刘老师介绍到,她已经就相关话题于2010年出版了英文专著《弗洛伊德机器人:数字媒体与无意识的未来》(The Freudian Robot: Digital Media and the Future of the Unconscious),该书的中文版由何道宽先生翻译,将在2025年出版。


接着,刘老师回顾了美国新媒体研究(New media studies)对AI问题的探讨。她指出,新媒体研究提出了后人类(posthuman)、赛博格(cyborg)等分析概念,也诞生了唐娜·哈拉维(Donna Haraway)的《赛博格宣言》(A Cyborg Manifesto)这样颇具影响力的作品,在社会上造成较大反响。但是,新媒体研究有着致命的误区,在概念上含糊其辞,并未深入对AI的哲学解释,尤其是搁置了弗洛伊德和拉康的精神分析。刘老师认为,机器人并非简单的对人的模仿,AI是人机互相模仿的产物,她将之称为人机拟像(human-machine simulacra)。如果照着这个思路进一步追问,那么当人类在日常生活中越来越无法离开手机等机动假体(prosthesis),人的精神世界会发生什么样的变化?按照人机拟像所提示的人机循环往复的模拟,人是否最终会与AI趋同?这些问题都需要摆脱新媒体研究的局限,得到进一步审视。


Lydia H. Liu, The Freudian Robot: Digital Media and the Future of the Unconscious. University of Chicago Press, 2010


接下来,刘老师以八位计算机科学家和哲学家为线索,串联了20世纪后半期围绕AI的哲学论争。刘老师首先介绍了AI之父图灵(Alan Turing,1912-1954)及其著名的图灵测试(The Turing test,出自“Computing Machinery and Intelligence”, Minds, 1950)。她指出,很多计算机从业者都关注图灵测试,却忽略了图灵在同一篇文章中提出的哲学问题,他预言半个世纪以后“最初的问题‘机器能思考吗?’,我认为这个问题毫无意义,就不值得讨论了(The original question, "Can machines think?" I believe to be too meaningless to deserve discussion.)” 。诚如图灵所预测的那样,威尔克斯团队制作的AI在罗布纳竞赛(Loebner Competition)中通过了图灵测试,但他关于“机器能思考吗”这个问题会失去意义的预测则难称正确。


图灵测试


第二个人物是约翰·麦卡锡(John McCarthy,1927-2011)。他是美国人工智能实验室的创始人之一,于1955年首次使用“artificial intelligence”一词。麦卡锡对AI与哲学的关系非常感兴趣,并在《从人工智能的角度看一些哲学问题》("Some Philosophical Problems from the Standpoint of Artificial Intelligence",1979)一文中认为,“如果一个实体拥有一个适当的世界模型(包括数学的智力世界、对自身目标的理解和其他心理过程),如果它足够聪明,能够在这个模型的基础上回答各种各样的问题,如果它能够在需要时从外部世界获取更多的信息,并且能够在外部世界中完成它的目标所要求的、它的体能所允许的任务,那么我们就可以说,这个实体是有智慧的”。刘老师指出,麦卡锡思考的问题是如何在机器模型和外部世界之间建立认识论关系,而下面介绍到的几位计算机科学家则大为不同,因为他们意识到哲学论述本身已经被AI深刻改变了。


1966年,约翰·麦卡锡在斯坦福大学人工智能实验室


第三个人物名为罗杰·尚克(Roger C. Schank,1946-2023),他明确提出了一系列关于AI的哲学问题,比如“什么是理解(understanding)”“什么是意识(consciousness)”“什么是意义(meaning)”“思考意味着什么(What does it mean to think)”。尚克认为,这些问题在过去一直是哲学家的领域,但现在AI科学家也必须思考它们。可以看到,尚克对AI与哲学问题的关系提出了全新的看法。


第四个人物是英国AI研究先驱之一的尤里克·威尔克斯(Yorick Wilks,1939-2023)。威尔克斯认为,AI在哲学上之所以重要,是因为其完全改变了早期语言哲学对相关问题的认识。一方面,威尔克斯指出,塔尔斯基(Alfred Tarski)、蒙塔古(Richard Merritt Montague)、卡尔纳普(Rudolf Carnap)等分析哲学家对语言的理解过于狭隘,误导了早期AI的探索;另一方面,他又极其重视维特根斯坦(Ludwig Wittgenstein)和普通语言哲学(Ordinary language philosophy)的牛津学派。刘老师认为,从图灵到威尔克斯,这些计算机科学家都在有意识地关注重大哲学问题,但AI的哲学意义不在于它能否解决传统的哲学问题,而在于它有可能改变哲学论述本身。甚至可以说,以文字为媒介的哲学,将让位于AI实验室的哲学。


Yorick Wilks, Artificial Intelligence: Modern Magic or Dangerous Future? The MIT Press, 2023


接着,刘老师介绍了第五位——麻省理工学院计算机科学家魏岑鲍姆(Joseph Weizenbaum)。魏岑鲍姆发明了第一个计算机聊天程序(conversational AI),并借鉴萧伯纳剧作《卖花女》将该程序命名为ELIZA。其脚本程序DOCTOR模拟一位罗杰尔式心理治疗师与病人对话,据称是首个通过图灵测试的人机交流程序。随后,刘老师为大家展示了ELIZA的运作状况,让听众直观感受了早期AI的运作过程和逻辑。魏岑鲍姆观察了助理与ELIZA对话的过程后,震惊于助理与ELIZA的情感纠缠,由此展开了对人类理性判断力的哲学思考。


人类与ELIZA对话的实验


以上五位都是计算机科学家,而当计算机科学家提出这些哲学问题,并向分析哲学家提出根本的挑战时,西方的主流哲学家都在干什么,有没有应对挑战的能力?从这个问题出发,刘老师介绍了第六个人物——哲学家休伯特·德雷福斯(Hubert Dreyfus,1929-2017)。德雷福斯是较早对AI发出挑战的哲学家,他先后出版了《计算机不能做什么:AI的局限》(What Computers Can't Do: The Limits of Artificial intelligence,1979)、《计算机“依然”不能做什么:AI批判》(What Computers "still" Can't Do: A Critique of Artificial intelligence,1992)等书籍,激烈抨击这种所谓的人工理性(artificial reason)。德雷福斯认为,AI哲学家没有理解什么是认知,他们所做的认知模拟(cognitive simulation)也是失败的。他举出了人机对弈、机器翻译、问题的解决、图案识别等例子,批判了AI能力的局限,并站在海德格尔哲学的立场,从边缘意识(fringe consciousness)、模糊容忍度(ambiguity tolerance)、情景决定(context determination)、维特根斯坦晚期哲学等角度对AI提出挑战。


第七个人物约翰·塞尔(John Searle,1932-  )同样是对AI带来深刻挑战的哲学家。他在《心灵、大脑与程序 》(“Minds, Brains and Programs”, 1980)一文中向广义Strong AI(以最终能获得人类心智为目标的AI)发难,并在该文中做了名为“中文屋子”的思想实验,指出图灵测试与大脑思维没有任何关系。“中文屋子”假设有一个不懂中文的人被锁在一间屋子里,一边收到写有中文的条子,一边输出中文。对他来说,中文只是没有意义的涂鸦,但他手中有一本关于中文排序的英文转换说明书,可以据此按照正确的句法将汉字拼凑起来。因此,如果有懂中文的人看到他按照说明书一个字一个字拼凑输出的句子,一定会认为屋子里是懂中文的人,但实际上他完全不理解中文。塞尔用“中文屋子”来类比AI,指出AI即便通过了图灵测试,也不意味着其具备了人类心智。塞尔提出这个思维实验后,遭到了计算机科学家的强烈批评,双方开启了长达二十余年的论争。


“中文屋子”示意图


刘老师介绍的最后一个人物是美国著名哲学家理查德·罗蒂(Richard Rorty,1931-2007)。罗蒂指出,塞尔批判AI的根据在于对内容(而非形式)的重视,因为塞尔相信“精神状态(mental states)‘实际上是大脑运作的产物’,因此没有任何可以想象的程序描述(它仅仅给出了一种形式,可以被许多人实例化)可以解释精神状态。因此,任何可以想象的程序描述(它只是给出了一种形式,可以通过许多不同种类的硬件进行实例化)都是行不通的”。然而,罗蒂认为,塞尔的主张混淆了大脑和思维,需要在哲学上得到进一步审视。


在用八位计算机科学家和哲学家串联起二十世纪后半期围绕AI的哲学论争后,刘老师回到魏岑鲍姆对德雷福斯的回应,再次强调了AI为哲学带来的根本挑战。正如魏岑鲍姆所说,尽管德雷福斯猛烈抨击了AI对人进行模拟的技术问题,但这一类论争本身就反映了另一个问题——我们在思考计算机的同时,也要问人:“人为什么永远在寻找自己在世界上的位置?”刘老师指出,魏岑鲍姆是一位特别的计算机科学家,因为他开辟了讨论AI对哲学之根本挑战的空间。在讲座的最后,刘老师用魏岑鲍姆的一句话作为结尾,提醒大家要始终关注和反思AI等技术之于人的意义:“我们善于计数,但我们正在迅速忘记什么值得计数,而且为什么要计数。”


刘禾老师在讲座中


在提问环节,听众踊跃发言,与刘老师就讲座内容展开讨论。关于内部世界模型(Inner world model)的问题,刘老师从语义外在论的角度指出,人机互动是不断的,因此不能仅仅是用内部世界模型去验证外部世界。关于讲座内容是否印证了休谟(David Hume)对因果关系的怀疑,刘老师指出,讨论这些问题不一定要回到休谟,不过这个问题的确反映了计算机科学家对根本哲学问题的关注。刘老师还提出,在这方面,中国的计算机科学家或许可以尝试发掘本土的思想资源,比如佛教中有关因果关系和语言哲学的内容。关于AI能否获得人的体验这一问题,刘老师认为维特根斯坦关于体验的论述是回答该问题的重要思想资源,相关话题会在后续两次讲座中着重展开。关于计算机科学家提出哲学思考的时代背景问题,刘老师指出讲座提到的科学家都是AI的创建者,他们在这个过程中不可避免会碰到人如何把握外部世界等基本哲学问题。最后,杨立华老师也就这些问题发表了意见。他指出,讲座内容和问答环节都体现了反思思维与语言的同一性假设的必要性,而中国哲学完全可以为这些问题提供借鉴。杨老师总结到,AI能否模拟人的根本问题其实在于“人真的可能理解另一个人吗”,这为我们提供了反思一些未经审视的预设的珍贵机会。至此,本次讲座在热烈的气氛中圆满结束。


本文转自 | 北京大学人文社会科学研究院

再建巴别塔
青灯夜读,湖畔沉思。精读人文社科经典文献,探讨新闻传播学术问题。
 最新文章