石梁、朱林蕃 | 智能机器具有人格吗?——从伽拉泰亚的婚姻到机器的“人格权”

文摘   2024-09-06 17:03   北京  

是新朋友吗?记得先点中国伦理在线关注我哦~

在这里,与伦理学爱好者在一起~

智能机器具有人格吗?

——从伽拉泰亚的婚姻到机器的“人格权”

石梁  朱林蕃


石  梁

作者简介:石梁,深圳大学马克思主义学院助理教授,深圳市人文社会科学重点研究基地“深圳大学生态文明与绿色发展研究中心”研究员(广东深圳 518060);朱林蕃,复旦大学科技伦理与人类未来研究院青年副研究员(上海 200433)。

摘  要:生成式人工智能已经取得了瞩目的成就,科学家们也开始展望大规模语言模型与具身机器人结合之后的远景。这激发了我们思考:当智能机器的思维、情感能力等与人相当的时候,智能机器是否应具有人格权?这不仅在伦理上,也在司法和社会治理上留下许多争议。这一问题可以通过回顾思想史与认知科学两个维度得到解答。一方面,人格概念成立的法律史与哲学基础说明机器人格概念在当前理论框架下不完全成立;另一方面,认知科学和人工智能理论说明模拟人类并不能证明智能机器具备人格。但是,随着技术的发展,未来的智能机器必定具备部分自主性人格,所以通过诸多规范性意见来阐述需要什么样的伦理与法律理论来约束机器人格与机器权利的边界。


关键词:人工智能  应用伦理学  机器人格  电子人格

原型(eidos)与摹本(duplication)之间的张力在哲学理论中产生了经久不息的争论:当摹本与原型高度相似的时候,其存在论意义在何种程度上能被确定?这一问题借人工智能技术的进步而卷土重来:当智能机器成为自主行动主体(autonomous agent)时,为使其行动伦理和法律责任得以确定,视之为道德行动主体并赋予其人格是否可能?

古罗马诗人奥维德(Ovidius)曾在《变形记》中记录了皮格马利翁与伽拉泰亚故事:

“同时他运用绝技,用一块雪白的象牙,刻成了一座雕像,姿容绝世,绝非肉体凡胎的女子可以媲美。他一下就爱上了自己的创造物……皮格马利翁也在神坛上供过祭品,站在地上,结结巴巴地祷告道:‘天神啊,如果你们什么都能赏赐,请你们赏给我一房妻室……’,金发的维纳斯正好在场,知道了祷告人的心意,于是显示了吉兆,……在结婚的时候,维纳斯也光临了,因为这婚姻原是她促成的。”

皮格马利翁爱上了自己塑造的雕像伽拉泰亚,并以诚挚感动了爱神维纳斯,后者赋予伽拉泰亚以人的生命,使之能与皮格马利翁结为夫妇。作为人的形象之模仿,伽拉泰亚看似拥有与人等同的形象(idea),在获得生命之后也好像具有与人完全等同的属性,但是否能将她视作完整的、与其他人相一致的存在者?这或许是讨论人造生命伦理学人格的源头。

在智能机器飞速演进的今天,许多模拟人类的机器人(如大语言模型、伴侣机器人、关怀机器人等)产品逐渐走入日常生活。影视文学作品中关于拟人模仿品的存在论焦虑已经成为一个主题化(topicalized)的现实。尤其当人们意识到,智能机器在现实中超越和取代人类智能只是智能科学发展的一个微小投影时,焦虑变得更加紧迫起来。本文对机器人格问题的讨论,不仅有益于建立智能机器与人的伦理关系,也有助于维护人类自身作为存在主体的意义,因此,我们希望通过思想史与认知科学两个视角来破解智能机器人格的争议。首先,在法律层面确实能够赋予自主性的智能机器以法律上的“类人格”属性(如电子人格),但在实践中仍不可以将道德责任完全推给机器,现有法律也很难对此做出有效的规范和惩罚。而在传统法哲学框架下的人格概念依赖于理性主义哲学的基础,由此也不支持设置类人格或电子人格。其次,如果仅将机器智能视为对人类智能结果的模仿,也无法从认知科学的角度去承认电子人格实现的可能性,因为人格与人类的生命基质之间存在着紧密的关联,从伦理学层面尤其如此。所以,我们认同有的学者主张电子人格可以作为一种社会治理手段存在,但模拟人类的智能机器却不应被赋予伦理学人格。最后,我们尝试为现有智能机器人格准则和未来人机关系提供规范性建议。

一、人工智能人格焦虑的来源:“我,机器人”

对智能机器人的人格问题感到焦虑,并非今人的无病呻吟,而来自更久远的社会思潮,它起源于幻想文学的领域,本质是现实难题的投射。这种幻想犹如一面镜子,作者借此去回应如下问题:人类人格的特殊性究竟依赖于什么?

文学艺术领域以镜像的方式对“类人生命何以可能”进行了想象,从皮格马利翁故事中可以看到这一问题如何长久地使人们着迷。早在科幻文学的黄金时代(20世纪40—60年代),作家们已经描绘了极发达的人工智能形式:超级计算机和机器人。如海因莱茵(Robert Heinlein)在小说《严厉的月亮》中描绘了自我觉醒的超级计算机迈克,不具肉身但具备幽默感、意志乃至与人极近似的复杂感情,而无论作者还是小说中的人物,也并未将迈克作为“非人”对待。相反地,克拉克(Arthur Clarke)在《2001:太空漫游》中表现了人类在面对人工智能时的担忧与恐惧:宇宙飞船上的电脑哈尔产生智能后对宇航员造成了生命危险。这些想象直接引出了如下伦理问题:如果机器具备了与人类相近的智能和情感能力,人与机器的关系应该是怎样的?迪克(Philip K.Dick)在《仿生人会梦见电子羊吗》中将这个问题推进了一步:当机器在自我调节的过程中,拥有足够的力量并足够自觉和理性,是否应该允许它独立自主地成为一个真正的自我?

对这个问题的回答,最著名的是阿西莫夫(Isaac Asimov)在作品中提出的“机器人三定律”:“一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;二、在不违反第一定律的前提下,机器人必须绝对服从人类给予的任何命令;三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。”这可以视为对智能机器所进行的,类似于康德“人为自身立法”所设想的“绝对命令”。该想法直到今天依然具有相当的影响力,它从两方面讨论了可能的人机关系:既将智能机器视为具备意志的,能够以伦理法则自我约束的种类;又将之视为从属于人类的,不具有与人相等伦理学地位的主体——在人类历史上,与这种假想的人机关系最接近的伦理关系,可能是古代社会中被视为“会说话工具”的奴隶,但两者间又有着明显的区别,主要在于奴隶与其他人类享有同样的生理基础,而机器不具备。

读者能够发现,科幻作品对这一问题的设想其实已涵盖了看待人与智能机器关系的主流态度:从属于人类的工具、对人安全的威胁、与人平等的主体。现实中的观念往往是这三种态度在不同程度上的混合。时至今日,主流意见对人与智能机器关系的设想,尚难以跳出上面几位作家提出的约束性、从属性或自律性的窠臼。

以上讨论虽然只是科幻作品中引人畅想的故事,但它们揭示的问题或许是人类对机器人焦虑的根源:当某一天机器人(在身体与智能上)已经与人类看起来完全一样的时候,它们应当在伦理学体系里面占据什么样的位置?故事揭示的拟人化焦虑成了现实。2017年3月,欧洲议会法律事务委员会的一份报告中提出,由于缺乏一种对于日益复杂化和高能化的人工智能进行的身份认定,人工智能的法律与经济责任也就无法确定,因此报告提出应当发展适用于人工智能的“电子人格”(electronic personhood)概念,以应对和规范相应领域的权利义务关系。虽然这一动议很快因科学界与产业界的分歧而被叫停,但因电子人格引发的争议仍然持续到今天。

然而,“电子人格”在概念上模糊不清,司法解释难以适用,暂且仅限于诸如“无人驾驶车辆车祸的责任认定”或“智能机器赢得比赛的奖金归属”等问题。可一旦给予人工智能法律意义上的人格,就不免引发更进一步的质疑:旧框架内人工智能仅仅是人类的依附,突破这一框架将带来新的道德困境,譬如用户攻击和虐待自己的智能产品以发泄情绪或欲望是否道德?甚至,智能机器会不会将同类作为自身的欲望或攻击对象?这类行为又将如何理解和定义?

智能机器伦理学方面的焦虑是两种观念间张力的产物,一方面,它挑战了人自身某种朴素的道德情感与直觉:我们更倾向于接纳、共情与我们相似度更高的对象。因此,当智能机器具备了近似人类的情感表达、判断能力,甚至更高的学习能力并出现在人类生活中时,我们也就更容易将之视为近似人的主体。另一方面源自伦理学上的“人类例外论”(Human Exceptionalism),即相信人具有某种独特的能力,此种能力决定了人类有道德主体地位而其他动物没有,这在人格概念上表现得尤其明显。正如康德所说:“人能够在其表象中具有自我,这把他无限地提升到其他一切生活在地球上的存在者之上。由此,他是一个人格,并且凭借在其可能遇到的所有变化时的意识统一性而是同一个人格,也就是说,是一个由于等级和尊严而与人们能够随意处置和支配的、诸如无理性的动物这样的事物截然不同的存在者。”这种说法意味着,人格的存在以人的特殊性为前提。如果智能机器能够表现出这种“独特的能力”,是否就证明它与人类能成为近似或同等的伦理学主体?或者将之定义为具备人格的机器生命?如果这种情况成立,势必会进一步加深人类的存在论焦虑,尤其是当我们把有限和脆弱的人类生命与长久和稳健的机器生命相比较的时候。

然而,机器表现出的智能与情感是否能够作为其自身具备人格的理由,在哲学上依然是悬而未决的,对此问题的回答实际依赖于如何从哲学角度去理解人类人格、机器人格,所以这就需要哲学工具进行诊疗。

二、诊疗一:法哲学与思想史视角下的人格定义失范

如果不考虑这种具有情感与意志的智能机器在技术上的可能性,仅从伦理学角度去理解其人格的成立条件时,就会发现对机器人格或电子人格本身的定义尚不清晰,对于其人格成立是否可能也众说纷纭。为此,我们需要对“人格”这一概念做出真正的界定,去思考一直以来以人类中心主义的角度出发定义的“人格”概念是否适用于揭示机器人格?

第一,“人格”概念有较多维度的意义,在法律上,它兼有“私法上权利义务所归属的主体”“民事权利能力”“权利能力、行为、自由、名誉等的总和”以及“包括自然人生命、身体、健康、自由、尊严等受法律保护的利益”几重含义。由此可见,法律针对自然行动主体(agent)作为中心定义的方式,使得人成了法律适用的中心角色,而拟人化的智能设备显然不能直接适用。这也是为何“电子人格”引发了如此巨大的争议的原因,因为它的适用范围仅仅在“权利与义务归属的主体”与部分民事权利这类社会契约性角色中,但是在人身权利、生命权、自由与名誉权利等方面未能获得与自然人相同等级的原因。

从法律概念谱系来看,人格概念的起源要追溯到古罗马。罗马法已经明确区分生物学意义上的人(homo)和作为法律意义上的权利义务主体(persona),后者的本意是演员在戏剧中所戴的假面具,引申为法律关系中一个人化的标记,且这个标记实际与身份有关。罗马法中的“人格变更”概念就表明了这一点:“人格变更即改变先前的身份……对地位而非身份被改变的人来说,人格不改变。”这就是说,即使自然人从奴隶变为公民,仍然无法拥有完整的自然人的人格。而且罗马人清楚地知道,人格/身份的变更是以不变的人的身份作为基础的,当时的法学家谈论自由人和奴隶之间的身份变更时依据的是市民法或万民法,而在自然法意义上一切人都是生而自由的,所以奴役才会被认为是“违背自然法”的,也就是说,人格变更或者部分人格之所以可能,是因为自然人天然具有完全的人格和平等自由。因此,人工智能无法像自然人那样变更身份,获得自然人人格。

也有学者采用另一种辩护思路:除去自然人之外,法律理论实践中也存在与自然人具有同样民事权利的主体即法人人格,因此人工智能具备人格依旧是可能的。如果考虑在法律理论和实践中存在着与自然人具有同样民事权利的主体即法人人格这一事实,那么人工智能是否可以被类比地视作与法人相似的部分人格呢?答案是否定的。作为与自然人相对应的概念,“法人”(juridical person)被刻画为具有特定民事行为能力的机构或个人。但是,法人人格之所以能被实现是因为它的决策和行动都来自背后的自然人,而人工智能不具备这一基础。所以我们无法将法人获得人格的方式复制到人工智能,更谈不上说它存在着伦理意义上的人格。

也正因为如此,部分人格赋予依然无法摆脱智能设备作为有一定权利的智能工具的角色,遑论去讨论道德角色和道德实践方式。由此我们陷入了“智能机器的人格两难命题”:如果赋予智能机器完全人格权利,永生性会带给人类和基于人类代际生命与文化传承的社会文明以存在论危机,如果不赋予它们人格权利,它们又会沦为与其他工具一样的被支配的地位,这意味着,智能机器的自主性和特殊性未得到充分尊重与考虑。

类比亚里士多德曾经论述过得那样:“奴隶是有灵魂的工具,工具是无灵魂的奴隶。作为奴隶对它是不存在友谊的。然而,他可以作为人,对于一切服从法律,遵守契约的人,他们之间似乎有某种公正,作为人当然有友谊。”现代也有学者继承了这一观点,如贝克(Susanne Beck)认为人工智能可以视为“电子奴隶”,其责任类似于主人的代理。这一联想是悲观的:如果说奴隶作为“工具”依然能与人保持友谊和情感的理由是奴隶作为人的自然存在,则可以推论,哪怕未来的人工智能足以像科幻作品中那样,与人类在互动过程中表现出诸多感情与意志,也不能作为与人一致的情感和道德对象,更不能由此直接推断出这种人工智能与人具有同样的人格。因为人与机器人的人格基础是不同的。但同时,人与高度智能机器在未来行为表现得近似又要求必须继续探索现有法律与社会伦理原则中对人格问题的更深层理解。

第二,从知识源流来说,可对“人格”概念的建立进行哲学上的回溯,追问该概念何以适用于人。如果这种使用的合法性同样适用于智能机器,那么就可以为“机器具有人格”找到哲学依据。

理性主义传统塑造了对人格概念的理解,在此传统中人高于动物的特质在于理性:依照波爱修(Boethius)的说法,persona在哲学上指“一个拥有理性本性的个别实体”。所以人具有人格来自理性主义哲学传统的规定,该规定得以成立是因为人自身是理性存在者,就此可以推论,如果智能机器也能够作为理性存在者,就必定也是persona。

然而,每一个persona都具有在认识和实践中充当主体的理性能力,这种能力并非来自主体的表现而在于其本质。首先因为在理性主义者看来,理性与灵魂密不可分——将本质之物与不朽之物关联是古希腊哲学以来的长久传统,毕达哥拉斯、赫拉克利特与巴门尼德都可以视为这一传统的先驱者,并直接影响到柏拉图。柏拉图认为理性是不朽灵魂的组成部分,有且只有灵魂才是人的本质之物。而在亚里士多德看来,理智和理智活动的本原是创造者所独赋予人类的、灵魂中最重要的部分。康德则将灵魂不朽视为道德法则彻底执行的条件——“只有在同一个有理性的存在者的某种无限持续下去的生存和人格(我们将它称之为灵魂不朽)的前提下才有可能”。可以看出,理性主义道德哲学谈论作为理性存在者的persona时,实际标准是灵魂这一现代科学考察之外的存在。这似乎已将智能机器的人格排除在了考察范围之外,即:

P1:理性主义视域内:凡是有灵魂的存在才有人格。

P2:人具有灵魂。

C1:人具有人格。

其次,自柏拉图开始的理性主义哲学往往将世界整体视为一个有等级的存在论序列,其顶端是经院哲学家们所说的“最完善的存在”(ens prestissimo),它也是一切包括人在内的理性存在者理性之来源。这说明即使以灵魂(或者近现代哲学中的“精神”)作为考察理性存在者persona的标准,这个具有理性的“灵魂”也只可能来自存在论序列中更高级的存在者,而不可能由人创造出与自己平级却又相异的persona。因此,由人类制造的、处在更低序列的智能机器更不可能具有灵魂,也就不可能有真正意义上的人格。总之,对于理性主义哲学传统来说,将“拟人性”的智能机器视为一个理性存在者问题重重。所以无论智能技术发展到何种程度,在理性主义传统下依然只能将之视为工具进步而非人格获得。

综上所述,法律与哲学的概念谱系让我们不得不承认,一方面,因为旧的人格概念内涵因被误用和滥用而带来了焦虑,但这些焦虑的中心应当在于我们如何设计人与智能机器之间关系性的新伦理框架,而非在“人中心”(human centered)层面讨论人格问题,更何况人格不仅是理性主义主题的概念,我们或应当寻求其他方式的分析。讨论非工具论式的人格框架,或许需要从智能科学学理给出新的诊断,才能帮助解答机器是否可以模仿灵魂获得(自主性的)人格。

三、诊疗二:认知科学视角的一致性说明谬误

正如本文开篇引述的《变形记》中伽拉泰亚的故事,可视作原型与摹本“一致性论证”的最早版本。皮格马利翁能够雕刻出美貌的伽拉泰亚,与人别无二致的雕像却无法履行人的生理与伦理角色,直到神(维纳斯)的帮助才成就婚姻。这一故事反映出的是拟人与模仿背后人与拟人造物在存在论和社会学的双重分别。

虽然人格概念的发展史不支持智能机器拥有人格,但是将理性主义作为判定某类对象是否具有人格的唯一标准是不公正的。因为有些道德信念可能是偏见的结果,比如种族中心论就曾经支持如下观点:“野蛮人”在智力与生理特质上均与人不相等同,因而与文明的人类也不属于同类。所以抛开人格概念的演变过程,如果能够证明智能机器可以在“人性”方面与人类一致或近似,则可以推论其具备与人类能够对等的伦理地位。强调这种相似性的重要,是因为现有框架下对待他人的伦理准则建立在他人与自我的一致性基础上。甚至非人类中心主义伦理学也适用于这一观念,譬如认为能够且应当“在平等考虑原则下去看待人与其他对象的某些利益”,实际是在诉诸双方存在的某些一致性。例如,之所以认为动物应当与人类一样免受痛苦,是因为较复杂的动物具备与人类接近的生理学机制,能够与人相似地感受到痛苦,对于不能感受到痛苦的岩石或细菌,因为没有这种生理特性,也就谈不上“免于遭受痛苦”。但实际并不能证明人工智能与人类一致或近似,就此可以从理解(understanding)与情感(affection)两个层面入手说明。

首先,从人类知识理解的层面看,现有的智能机器依然遵循早期人工智能设计者的思路——设计者在设计机器智能的时候,关注的是程序是否能够解决问题且解决的效力是否与人类等同。这源自早期机器功能主义(machine functionalism)立场——如果智能机器与人类在处理信息任务的输入和输出等同,则认为人类的心智在机器上多重可实现。现如今,以多层人工神经网络为基础的机器学习技术虽然为机器赋予了某种自主学习功能(例如基于大数据的学习和内容生成等),但是这里的学习仍然是将之前已经学习的内容进行“概念迁移”(conceptual transfer)的过程。机器并不需要“理解”它所处理的内容——这就好像一个并不掌握火星文,却因为充分掌握了语法与词典而熟练使用火星语的地球人。美国Open AI团队的GPT程序是一种自回归语言模型(autoregressive language model),它通过最小化人类干预,仅通过自主语料学习的方式达成许多文本任务。不仅如此,科学家开始利用它进行了一个关于哲学家是否能够区分GPT3或哲学家丹尼尔·丹尼特(Daniel Dennett)的对话实验。这个实验的阶段性成果已经说明,许多认识丹尼特的人也无法区分机器还是真人。然而,这个设备真的理解了丹尼特么?显然没有。非但如此,超级丹尼特摹本(super Dennett likeness)输出的内容很大可能上是原型无法接受的。综上,依照现有逻辑制造的智能机器虽然可以通过模拟人类智能来实现(甚至超越)人类的信息处理能力,却不能像人类一样理解表征与意义,也就无从谈起绝对的自主性了。

其次,从人类情感表达的角度看,基于深度学习的自然语言处理(NLP)已经可以凭借人类大量语料库实现对人类情感与态度的表达。今天我们所用的智能宠物或者临终关怀机器人已经表现了某种情感替代的角色。然而,情感是与肌体(somatic)生命相关的,而对于智能程序而言,情感仅仅是对于人类复杂情感的模拟。根据这种思路,可以试图在人与智能机器之间寻找一致性,首先排除的是生理学或者生物学的一致,智能机器并不会拥有与人类相同的生理学感受能力。人和动物感受和表现出痛苦,是因为生理和心灵共同作用的结果,但智能机器不具备这一机制,所以无法类比地得出破坏智能机器的某个零件会使之感到痛苦。因此,人具备关心自己并推己及人的道德意识,非人哺乳动物在某种意义上也是如此,但机器人并不关切对于它们自身的保护和避免痛苦,也就更谈不上避免他人的痛苦。

那么,这种可能的一致性就只能诉诸心灵,也就是说,如果能证明智能机器存在与人类一致的思维与情感,就算完成了这项挑战,并能够就此认为人与智能机器之间存在达成伦理学意义上平等的基础。然而,当代具身认知理论深刻揭示了身体与心智互相纠缠的经验机制,并试图说明人类心智恰恰是其特定生理结构决定的。既然智能形式受到其所处物理架构的影响,那么智能机器的物理机制也必然决定它们的心智体验(如果存在)不同。但对于智能机器而言,达成情感一致性显然坎途重重。未来的某种情感智能仍然建立在“模拟理论”的前提下,这样的智能主体仍然既不能提供关于自我知识的理解,也无法建立关于自身的意义,它仍然是嵌入人类环境中的附属品,模拟人类的价值、情感与信息处理方式,输出的仍然是人类本位的信息。

最后,既然机器智能是模拟的,那么这种模拟是否代表机器与人类智能一致性成立?答案是否定的:当我们谈论A与B相似的时候,实质上隐含着A与B的不同,恰如无论苏格拉底的雕像如何与本人相似,也不是真实的苏格拉底。基于同样的理由,哪怕从功能主义的立场看,也应当承认人与机器的思维能力相似并不意味着两者机制和原理相同,更不意味着能从这种相似中推论出人与机器在情感和人格上的一致。所以只能找到人与机器可能在同样条件下得到思考结论的一致,而无法证明人与智能机器在心灵上等量齐观。

这种情况也适用于情感方面,由于思维机制的不相同,即使智能机器能够表现情感活动,也无法推论其与人类情感活动一致。尤其考虑到行为中的情感表达可以通过表演进行模仿,人类在表演中能够呈现当时并不具有的情绪,那么就更难以确定观测到的机器情感活动是否真实。

总之,智能机器对于人的认识来说依然是一种黑箱状态,人们只能看到一些类似思维与情感活动的表现,却无法分辨这些表现是否意味着真的思维与情感。所以无论是否持人类中心主义态度,寻找智能机器与人的一致性依然是一件难以完成的任务,也就没有办法宣称它与人具备伦理学人格意义的平等。

四、展望:可能的未来智能机器伦理学

到此为止,可以回答在文章引言部分提出的问题:赋予智能机器完全人格是否可能?只能说在当前伦理学框架下是否定的,从已有的人格概念出发,无论法律还是哲学都不能为这种赋予提供证明,同样也无法在人类智能与机器智能之间寻求一致性以达成平等。这意味着赋予智能机器与人类相同或者近似伦理学地位在理论上依旧困难,也就意味着即使技术上宣告可行,这种智能机器依旧不能从“会说话的工具”这一身份中得到解放。即使出于社会治理与法律秩序,设定了机器的电子人格或亚人格,也并不能推论出与人类在道德与法律地位上的平等。

当然,这并不意味着“超级拟人”的智能机器仅仅应当停留在虚构的科幻作品之中,也不意味着它们在人格和伦理学意义上永远无法与人类等量齐观,更不意味着不应该对此保有一种开放态度或无法就此做出更多展望,或许它仅仅提醒我们,在思考智能领域的突破时,既往的伦理学工具存在着微妙的错位。这也表明探索相关问题的可能与必要:“提出新的法律人格理论需要进一步澄清人格和人性等概念之间的相互关系,进一步澄清机器人人格的限度问题。”有理由相信,这种探索终将丰富人类的道德哲学理论与实践。

首先,赋予智能机器部分亚人格,可以使得人与机器之间的紧张关系得到缓解,司法与道德边界得到澄清。未来的、智能机器伦理学的第一原则依然应当是以人类为前提的,其目的在于如何通过相关技术的进步增进人类社会的整体福祉,基础在于使具备道德行动者地位的智能机器有能力理解、适应和融入人类社会。智能机器在未来发展中如果具备与人相近的人格和道德行动者地位,必定应当能够理解物理世界、人类行为和人机共存的社会意义。特别是在特殊情境下,聊天机器人的输出内容作为可以影响现实生活效果的一环,它的建议至少应当与人类共同承担“共主体责任”(cooperative responsibility)。

其次,道德行为的责任主体仍然在机器人格/电子人格背后的人类开发者与拥有者身上,而不在机器。确定亚人格必定要解决智能机器的伦理学地位问题,特别是具备语言和行动能力的智能机器和设备的人格准则。我们应当认识到,它们的行动和言语是受到设计者和语料库的影响的,它们的道德责任也是从人类的完全道德责任中分配(distributed)出来的。因而,未来的智能设备的伦理设计理念仍然应当遵循康德在《道德形而上学奠基》表述的观点:“目的的主体任何时候都必须不单纯作为手段”。

最后,未来智能机器伦理学将有希望使人与智能设备同时从“人—机”的二元对立中得到解放。随着技术的进步,智能机器与人类可能不再是泾渭分明的两类存在,而是逐渐通过人—机结合的方式成为某种“后人类”,从而彻底消解智能机器人格困境的存在基础。更重要的是,后人类主义智能理论的目的在于超越人类的生物学中心主义,思考人类作为中性的智能主体应该具有何种伦理价值。由此可以期待,建立在此种新关系上的后人类伦理学,不仅使得机器摆脱了人类的工具属性,也消解了机器取代人类人格的担忧,通过关系属性的规定性,不仅使得人格涵义得到了辩护,也使得智能机器的独特价值找到合适的位置,并且最终将为“如何理解人类自身”这一问题提供更多的可能。

原文刊登于《道德与文明》2024年第4期

欢迎荐稿

中国伦理在线欢迎各位作者向我们推荐稿件。稿件既可以是已经在期刊、报纸、网站或会议发表的文章,也可以是专为中国伦理在线原创的文章。


根据稿件类型,需注意:

1、学术类论文需符合学术规范,力求创新性,具有一定的学术价值。

2、时评类文章要注重理论与实际的结合,尽量代入伦理学及相关哲学学科视角。

3、推荐他人文章需简短说明推荐理由。

4、中国伦理在线将酌情对社会影响力较大、学术价值较高的文章进行奖励


稿件需使用word格式,附作者或推荐人照片、简介。征稿邮箱:zgllzx2020@163.com。

欢迎关注中国伦理在线

图文转载自道德与文明公众号

编辑 | 钟家渝

中国伦理在线编辑部

“在看”我吗?

中国伦理在线
关注社会伦理道德热点,传播伦理学学术动态与最新研究成果。
 最新文章