人工智能像动物一样有道德地位吗? | 社会科学报

文摘   2024-11-02 18:44   上海  


数字化


随着人工智能技术广泛应用,它所带来的道德和伦理问题愈发突显。从数据隐私到决策自主,从机器偏见到未来就业,人工智能是否有道德权?我们如何确保AI被以道德和负责任的方式使用?人工智能的道德地位是一个复杂的问题,我们依然没有就此达成共识。



原文:《人工智能像动物一样有道德地位吗》

作者 | 复旦大学哲学学院副教授    王球

图片 | 网络


主流进路:有意识的感知体验能力


当我们研究“动物伦理”问题时,讨论的是怎样为动物谋求福利;但是当我们研究“人工智能伦理”问题时,讨论的是人工智能的开发和应用怎样为人类增进福祉。两者之所以不对等,是因为我们直觉上认为,动物拥有道德地位,AI缺乏道德地位。


那么动物拥有道德地位的根据是什么呢?不同的动物伦理学家给出了不同的答案。彼得·辛格的功利主义进路认为是感知快乐和痛苦的能力;汤姆·里根的康德主义进路认为是动物作为生活的主体所具备的“固有价值”(inherent value);玛莎·努斯鲍姆的能力论进路认为是动物具备特定的天性和丰富的生命潜能;而克里斯汀·科斯嘉德把亚里士多德关于动物如何努力实现其目的的理解,植入到了康德的“自身目的”公式当中去,认为动物拥有不可侵犯的尊严。


说到底,这些主流进路都承认,道德地位的基础必须包括有意识的感知体验能力。其中一些进路还会强调动物个体拥有独特的信念、欲求、偏好之类的能动性(agency)特征。换言之,感知能力若不是道德地位的充分条件,至少也是必要条件。除此之外,他们大多默认了一个“平等主义”的原则:某个事物要么拥有道德地位,要么没有;所有拥有道德地位的事物,其道德地位没有高低之分。


不难发现,考虑到有意识的感知能力似乎只是一小部分生物有机体的专属能力,我们才为那些“高级”类型的动物赋予道德地位,椅子、细菌、植物以及AI,当然因此会被排除在外。


卡根:能动性才是道德身份的充分必要条件


然而最近几年,一些哲学家开始反对这类经典的道德地位观。耶鲁大学哲学系的卡根教授在《动物重要吗?》(How to Count Animals:More or Less)提出了两个重要命题:第一,道德地位的充分必要条件是能动性而不是感知能力;第二,由于能动性有程度上的差别,人的道德地位比动物要高,一些动物的道德地位比另一些动物要更高。


我们先看第一个命题。诚如卡根所言,“有感知能力就有道德身份,这是动物伦理学文献中极为普遍的想法”。不过他认为,这样的想法是错误的,能动性才是道德身份的充分必要条件。这里需要澄清两个概念,一个是“道德身份”,一个是“能动性”。卡根的“道德身份”其实是“道德地位”的替换表达。但是有道德身份的事物未必有着相同的道德地位,因为它们的能动性程度可能有所不同。所谓“能动性”,指的是拥有各种偏好、信念和欲求,以及根据偏好、信念和欲求去行动的能力。卡根指出,虽说能动性和感知能力在绝大多数动物那里是一并出现的,但它们是两类不同的心理能力。现在的问题是,卡根为什么认为能动性是道德地位的充分必要条件呢?为了论证这一点,他提出了几个有趣的思想实验。



首先,我们不妨设想一种有感知能力但缺乏能动性的简单生物,这种生物仅能感知到蓝色,却对蓝色体验没有任何欲求和偏好。如果你阻止它去感知蓝色,你会因此伤害到它吗?直觉告诉我们不会,因为它本身并不在乎是否需要去享有蓝色的体验。另一方面,我们认为给一只猫制造痛苦便是伤害了这只猫,因为猫有避免痛苦的欲求和偏好。是猫有特定的能动性而不是感知能力,赋予了其相应的道德地位。这个思想实验表明,感知能力并不是道德地位的充分条件。


其次,设想我们发现了一个由机器人组建的外星文明,他们展现出了媲美人类的能动性水平,但是这些机器人缺乏有意识的感知体验。出于科学研究的需要,你不顾抵抗抓住了一只小机器人准备将其解剖,其母亲大声警告你无权将其孩子当作物品来处置,拼命乞求你放开小机器人。面对这番情景,你去解剖这个小机器人有错吗?直觉告诉我,这样做在道德上是无异于杀人,哪怕小机器人没有任何感知能力。第二个思想实验表明,能动性是拥有道德地位的充分条件。


最后,为了论证感受能力与能动性在概念上没有关联,卡根以电影《2001:太空漫游》中的反派计算机HAL为例,指出一心图谋消灭人类的HAL明显拥有能动性,而我们在构想这个场景时,并没有将有意识的感受性赋予计算机。既然能动性与感受性的可分离性是可设想的,那么第三个思想实验表明了这种情况在形而上学层面是可能的。因此,综合这三个思想实验考虑,我们在直觉上有很强的理由表明,是能动性而非感受性,奠定了道德地位的基础。这样一来,有能动性的AI显然也有道德地位。


我们再来考察卡根的第二个命题。感知能力很难说有程度上的高低之分,能动性则不然。虽然卡根只讨论了动物伦理问题,然而如今的AI或许因其可能(甚至已经)具备了某种程度上的能动性而获得了道德身份,从而拥有了某种程度的道德地位。卡根相信,“如果不去恰当地考虑道德地位的重要意义,我们关于伦理学的理解——不仅仅是动物伦理学,而是所有的伦理学——将会是混乱而残缺的”。照此说来,如果我们不去考虑AI的道德地位问题,关于AI伦理的思考也将是混乱而残缺的。



无法恰当地思考AI的道德地位


然而,AI真有道德地位吗?当我们谈论道德地位(而不是道德地位的基础)时,我们究竟在谈论什么?


事实上,说某个事物有着怎样的道德地位,便是刻画了我们应当如何对待该事物的规范性要求;而我们应当如何对待该事物,总是与福利或福祉的分配相关。当我们说人的生命比动物的生命更有价值,某些动物的生命比另一些动物的生命更有价值时,这里所比较的价值就是福利或福祉。如果我们认为,狗的生命比鱼的生命更有价值,我们便承认了狗所能获得的有益之物(goods),总体上(在数量和质量上)比鱼所能获得的有益之物要更好。要对福利或福祉进行分配,就需要考虑主体能够渴望、追求和享受哪些有益之物或者规避哪些有害之物(bads)。


人类作为动物王国中的一员,我们通常只需凭借常识就能较好地把握动物的基本偏好。然而作为缺乏感知能力的异质智能体,AI拥有怎样的偏好呢?对AI而言,哪些是基本的有益之物?AI所需的福利是什么?AI的良好生活(good life)是怎样的?对于这些问题,我们理解起来困难重重,而且这里的困难是原则性的。福利概念总是事关福利主体的内心世界(mental life),我们充其量只能用思考人类自身内心世界的常识心理学概念图式来思考动物的福利。当这些概念图式应用于AI时,由于AI的言语行为输出并非内心世界(如果有的话)的映射,这些概念图式就会沦为空转或错置。具体说来,这里的困难大致分为以下几个方面。


第一,我们无法理解AI基本福利诉求的内容究竟是什么。AI通过大数据和大模型输出可理解的语言,但是AI至少缺乏犹如人类这般的“生活世界”,结果就像维特根斯坦所言,“即使狮子会说话,我们也无法理解它在说什么”。在这里,即使AI会说“人话”,在早餐时间它告诉你“我饿了”,你也无法理解这是什么意思。因为我们不清楚,AI的基本福利是更多的数据,还是说更为精准的降噪信息?是算力的增强,还是算法的优化?是持续维系的电力供应,还是说要与人类的价值保持对齐?哪怕AI有信念和欲求,但是关于这类问题,我们原则上是无法知晓的。


第二,奠定AI道德地位的能动性,很可能是离身的(disembodied)属性。由于AI缺乏较为稳固的物理边界,在考虑给AI分配福利时,我们很难将其个体化(individuation)。考虑福利分配就不得不考虑有待分配的个体的数量,但是如此简单情形在AI这里就成了一个难题。举个例子,如果你的iPhone手机是一个有能动性的AI,你的iPhone手机与你的iPad平板电脑,以及你的iMac笔记本电脑不仅共用同一套软件系统,而且彼此之间会同步联动。请问此刻你的手头有几个人工智能体?一个还是三个?由于AI拥有离身性和高度可复制性等特征,能够享有福利的个体数量,就不像生物有机体那样明晰可见。



第三,我们很难对AI现有的道德地位和发展潜能做出评估。当前最强大的AI究竟发展到了什么程度,是“奇点临近”抑或仍然停留于“鹦鹉学舌”,各路专家众说纷纭。AI在能动性的某些方面(例如下围棋)似乎超越了人类水平,但在其他许多方面又表现得极其笨拙。或者即使AI在某些方面(例如创作古体诗)表现上佳,也很难说真正具备相关的能力(例如诗歌审美能力)。这些特征让我们难以评估AI的能动性到底处于怎样的水平,因而也就难以判断AI有着怎样的道德地位。也许有人会反驳说,即使当下的AI还不是通用智能体,但其智能水平在不久的将来极有可能达到甚至超越人类。卡根认为,决定道德地位的不只是当下的能动性水平,潜能之类因素也在起作用。设想一个发育正常的婴儿,即使她目前的智力水平仅与一只家犬相当,但婴儿的道德地位几乎与成人无异,因为他有“长大成人”的潜能,而且实现这种潜能的可能性很大。然而,一个人类胚胎尽管同样有潜能发展出完备的人格,但是胚胎缺乏能动性,胚胎的潜能并不能提升自身的道德地位。这是因为潜能发挥的作用相当于信号放大器,而当下的能动性水平相当于信号本身。如果信号很弱,放大器再怎样放大信号,最终的效果也严重受限。这也解释了为什么杀婴在道德上是令人发指的,而堕胎却没那么严重。回到AI的问题上来,即便AI有成为超级智能的潜能,但是这样的潜能能够在多大程度上提升当下AI的道德地位,还得回到我们对AI当下实际的能动性水平的评估问题上。


总结以上三点,即使AI有能动性,我们在认识论的层面上也无法恰当地思考AI的道德地位。我怀疑,这样的认识论限制有其形而上学根据。正如连上帝也无法知晓究竟需要多少颗沙子组合起来才能算作一个沙堆那样,根据卡根的基于能动性的道德地位等级理论,即使是最理性的上帝,也无法知晓AI究竟有着怎样的道德地位。也许能动性根本就不能当作道德地位的基础。


[本文系国家社会科学基金一般项目“当代心灵哲学中的动物认知问题研究”(20BZX026)阶段性研究成果]


文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1924期第6版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。


本期责编:王立尧



拓展阅读

AI时代作者的双重危机与重生 | 社会科学报

视域 | AI写作:机器诗歌乌托邦


社会科学报社
社会科学报社融媒体“思想工坊”出品
 最新文章