田训龙 | 智能道德主体的潜在风险探析

文摘   2024-09-15 17:19   湖北  


是新朋友吗?记得先点中国伦理在线关注我哦~

在这里,与伦理学爱好者在一起~

智能道德主体的潜在风险探析


作者简介:田训龙,河南财经政法大学马克思主义学院教授(河南郑州 450046)。

摘  要:站在非人类中心主义的立场以抽象法看待智能机器,智能机器能够成为“无心”的道德主体;从技术上看,在不远的将来智能机器有望能够成为功能性/显性道德主体。但是智能机器发展成为道德主体,会给人类带来强烈的冲击和影响,危及人类中心地位、削弱人类道德主体性、挑战人的本质与道德权威。基于此,人类应当及早应对,着眼未来、培养前瞻性道德责任;以人类为中心、确立基本价值原则;突出人类主体性、开发智能有限主体;坚守人的本质、筑牢道德话语权。


关键词:智能机器 ;道德主体 ;人类中心 ;潜在风险

随着人工智能技术的飞速发展,在人工智能伦理领域,智能机器能否成为道德主体成为学界关注、研讨的焦点与热点。智能机器在未来究竟能否发展成为道德主体?如果成为道德主体,对人类会带来哪些不利的冲击和影响?我们又该如何应对这些可能发生的后果?本文围绕这些问题进行初步探讨。

一、未来之趋势:智能机器能够成为道德主体

人工智能伦理领域里的“道德主体”,往往表述为“道德行动体”“道德主动者”“人工道德能动者”等,即Moral Agent/Actor/Agency,Artificial Ethical Agents,Artificial Moral Agentsetc。关于智能机器能否成为道德主体,在理论界众说纷纭,莫衷一是。一般而言,“非人类中心主义”者比较认同智能机器是道德主体持“肯定说”,而“人类中心论”者则持“否定说”。在学界,“否定说”被称为标准观点,而“肯定说”被称为实用主义观点。本文持“肯定说”,理由如下。


(一)智能机器能够成为“无心”道德主体


“人类中心主义”者以人类为中心,考察智能机器是否具有意识、理性、意向性、自由意志、心灵、责任等属性,并以能否承担道德责任来判断道德主体。比如,澳大利亚学者帕特里克·休(Hew Patrick)认为,一个行为体只有进行了某种能够以赞许或批评的评价行为并能承担责任,才能算是道德行为体,而所谓的机器人道德只是人类道德原则对机器人非自愿地强加从而使其成为执行人类道德的工具,所以机器人还不能成为道德行为体。智能机器不具备承担责任的能力,也不需承担任何责任,把机器人当作道德行为体是人类尤其是设计者的责任推卸。美国学者约翰逊(Deborah Johnson)也认为,计算机(智能)系统始终是由人类设计并使用,从而把人类联系在一起,如果将其作为道德行为体进行发展,可能会导致设计和使用智能系统的人不用为此担责。并且,他提出了成为道德主体的四个条件:能以自己身体引发物理事件;有着能组成自己欲望、信仰和其他有意图的内在规定;内在规定是导致能以自己身体引发物理事件的直接因素;自身引发的物理事件能够对道德产生重要影响。据此,他认为智能机器不能成为道德主体的主要原因是由于缺乏导致道德行为发生的内在心理规定。国内也有学者认为,由于拥有心智状态是成为道德主体的必要条件,而智能机器人不可能拥有心智状态,所以智能机器人无法成为真正的道德主体。


对此,本文认为,如果站在人类中心主义立场,以道德主体的类人定义比照智能机器,那么基于智能机器的硅基体质,无论如何、无论何时智能机器始终不会成为道德主体,因为智能机器无论多么智能绝对不会成为人,绝对不会拥有人的“心智”,即绝对不会具有人类的意识、理性、意向性、自由意志、心灵、责任等类人属性。但是,如果我们跳出人类中心主义的立场来看待机器人,不要把智能机器视为人而是视为机器,我们就会发现,尽管智能机器缺乏人类的“碳基”大脑等生理基础,不具有人类独有的情感、理性、意志、心灵等“心智”,但是智能机器凭借其“智能”就能够拥有与人类不一样的的伦理推理与判断方式,人类特质并非智能机器所必需,就像智能机器通过程序设计就能实现自主性一样,只要提升对智能机器的伦理设计就能够实现道德目标。所以,只要修改道德主体的类人定义,认为智能机器只要存在着自主性、交互性、意向性的道德行为与反应就是道德主体,那智能机器就是道德主体。就像弗洛里迪(L.Floridi)和桑德斯(J.W.Sanders)提出的应该用“抽象法”来判定事物是否具有主体资格,认为智能机器并不需要具有人类特有的智力、意向、意志、自由等特质,而只要拥有交互性即事物可与环境相互作用、自主性,即不是出于单纯回应环境的改变内在状态的能力、适应性即事物在与外界环境的交互中能够通过改变自身内在状态而调整内部法则,就可以成为道德主体,智能机器具有“无心的道德”。由此可以看出,只要我们以非人类中心主义的视角修改主体资格的认定,我们就可以得出智能机器能够成为“无心”的道德主体的结论。所谓“无心”道德主体,就是智能机器不需拥有人类特有的意识、理性、意向性、自由意志、心灵、责任等心智属性,因其智能而具有交互性、自主性、适应性、意向性、责任性等属性就能够成为道德主体。赛立斯(John.P.Sullins)早就认为倘若将人类与其它道德行为体区分开,人格就不再是使智能机器成为道德行为体的必要条件,只要机器人具有自主性、意向性以及能够表现和理解责任,那就可以被视为道德主体。


(二)智能机器有望成为功能性/隐性道德主体


在智能机器不能成为道德主体的理由中,除了认为智能机器因其“无心”而不能成为道德主体之外,还有一个理由就是认为当前的弱人工智能技术水平的限制使智能机器不能成为道德主体。比如,特亚令·斯威斯特拉(Tsjalling Swierstra)、艾伦·钮厄尔(Allen Newell)、希尔伯特·西蒙(Herbert Simon)等最早主张当下的弱人工智能不具有道义论的意向、欲望、动机、想象等人类智能,否定人工智能的道德主体地位,并在人工智能道德主体地位的讨论中长期占据主导。国内也有学者指出,“目前的人工智能体尚不是伦理自治的主体,不能成为完全意义上的道德主体”。


其实,智能道德主体根据智能技术水平及其自主性程度,有着不同的类型。柯林·艾伦(Collin Allen)和温德尔·瓦拉赫(Wendell Wallach)根据道德相关事实的自主性与敏感性维度,将智能机器分为三种类型:操作性道德行动体(被设计者和使用者完全掌控道德定义,自身没有任何自主性)、功能性道德行动体(智能机器本身具有评估和应对道德挑战的能力)、完全道德行动体(与人类道德相似具有完全自主性和情感交互能力,具有相应的权利和义务),并指出人工道德行动体在未来不可避免地出现。根据摩尔(Moor James)的思想,智能机器道德主体就是伦理主体。第一种伦理主体是“标准主体”(normative agents),即任何一种不涉及伦理问题而由使用者决定其伦理属性的可以执行任务、完成工作的“技术主体”(technological agents);第二种伦理主体是“有伦理影响的主体”(ethical impact agents),即不仅执行既定任务同时还具有伦理影响的主体;第三种伦理主体是“隐性的伦理主体”(implicit ethical agents),即由设计师根据某些伦理原则设计以避免不道德后果、因而机器自身能够潜在地表现伦理行为的伦理主体;第四种伦理主体是“显性的伦理主体”(explicit ehical agents),即能够识别与伦理相关的信息、筛选出当前情境中可能行为并依据内置于其中的伦理机制来评估这些可能的行为以从中计算并挑选出最优的伦理抉择的伦理主体;第五种伦理主体是“完全伦理主体”(full ethical agents)或称“自动的伦理主体”(autonomous ethical agents),即完全独立于人、能高度模拟人类思维与伦理意识、在特定情境中做出伦理判断与道德选择的伦理主体。这些不同类型的智能道德主体是随着智能技术水平的发展逐渐研制的。随着弱人工智能技术向强人工智能技术的发展,智能机器在道德自主性程度上会由弱变强,即会遵循柯林·艾伦(Collin Allen)和温德尔·瓦拉赫(Wendell Wallach)所说的操作性道德行动体——功能性道德行动体——完全道德行动体的路径发展,也是摩尔所说的标准主体——有伦理影响的主体——隐性的伦理主体——显性的伦理主体——完全伦理主体路径。由此可以看出,智能机器成为道德主体在技术上是可行的,只不过需要时间慢慢发展。


就当前来说,从技术上看,智能机器在不久的将来是能够成为功能性道德主体(智能机器本身具有评估和应对道德挑战的能力)或摩尔所说的显性道德主体(能够识别与伦理相关的信息、筛选出当前情境中可能行为并依据内置于其中的伦理机制来评估这些可能的行为,以从中计算并挑选出最优的伦理抉择的伦理主体),并且总有一天会成为完全的道德主体。因为,目前在人工智能伦理领域围绕从具有伦理因素的主体即隐性伦理主体到具有明确伦理推理的行动体即显性伦理主体的理论研究,正在兴起。比如,瓦拉赫与科林·艾伦在《道德机器:如何让机器人明辨是非》中提出了自上而下亦即将特定道德价值观念代码化并写入算法之中的方法,与自下而上亦即在机器人的自我学习、试错、成长及进化过程中教会机器人道德并在实践中进行推广应用;国内学者吴童立认为,只要根据丘奇——图灵论题进行扩展,植入一种关系性法则,人工智能就可以成为一种类人的而非拟人的道德主体。研究者认为,至少从理论上,人工道德行动体或许最终能够成为真正的道德行动体,与人类道德相似,具有权利和义务。本文认为,尽管实现这样的功能性道德行动体/显性道德主体实际上还面临着诸多限制,但是随着人工智能技术的发展,智能机器的自主性会越来越强,智能机器及其应用就会引发越来越多的伦理道德问题,这必然要求智能机器自身必须具备能够评估和应对各种道德挑战的能力。“给予机器人的自主性越多,对其道德和伦理敏感性的要求就越多”。并且,得益于人工智能的提高,部分人工智能体已具备了一定程度的道德认知与道德判断能力,实现了从没有自主性的操作性道德能动体向具有自主性的功能性道德能动体转化。


马克思指出:“工人把工具当作器官,通过自己的技能和活动赋予它以灵魂,因此,掌握工具的能力取决于工人的技艺。相反,机器则代替工人而具有技能和力量,它本身就是能工巧匠,它通过在自身中发生作用的力学规律而具有自己的灵魂……科学通过机器的构造驱使那些没有生命的机器肢体有目的地作为自动机来运转,这种科学并不存在于工人的意识中,而是作为异己的力量,作为机器本身的力量,通过机器对工人发生作用。”马克思所生活的年代并没有智能机器或人工智能技术,但是他的观点已经为今天的人类指明方向,技术的发展必定引发人与机器关系的变化。所以,“为了妥善地处理人与机器人、机器人与人类社会的关系,我们需要预见其成为道德主体的必然性,并将其纳入道德体系的范畴,赋予其履行道德主体的角色而必需的权利”。也就是说,面对人工智能领域里追求人工道德主体的必然趋势,我们不得不深思在伦理道德领域该如何应对其带来的影响和冲击。

二、可能风险:智能道德主体对人类的潜在冲击

我们应当意识到,智能技术代表着人类技术发展的未来方向,其趋势是由弱智能走向强智能到超强智能、由专门智能走向通用智能到超级智能、由人工智能走向类人智能到超人智能。所以,尽管现在还未出现具有高度自主性的人工道德行动体,但在不久的将来,“人工道德行动体将会不可避免地出现在未来那些被编入道德程序的机器人,以及未来成为真正道德行动体的一些智能机器中”。这种智能机器一旦出现,必然在伦理道德领域对人类的未来产生强烈的冲击和影响。其深层次的冲击和影响主要表现在以下三个方面:僭越人类中心主义、削弱人类道德主体性、挑战人的本质与道德权威。


(一)危及人类中心地位


根据人类中心主义的观点,人类让智能机器发展成为道德主体,是希望智能机器能够拥有自我意识和自我道德决策能力,在服务于人类的同时又不会伤害人类,智能机器变得安全、可靠、可信赖。也就是说,智能机器只是辅助人类实现自身目的的工具。并且,智能机器成为道德主体之道德,是人类的道德,是由人提出来并内置于机器之中的,目的是人类为了自身更好地生存与发展。以人为中心,让智能机器通过伦理道德控制更好地为人服务,可以说是未来智能机器发展成为道德主体的内在动力。因此,把智能机器发展成为道德主体,完全是站在人类中心主义立场出发的。但是如何把弱智能机器发展成为强智能机器而成为道德主体,又是基于非人类中心主义,要求不能再以人类为中心思考道德主体概念,对智能机器成为道德主体的道德设计可以从交互性、自主性、意向性、适应性、道德能力等方面着手,像理性、意志、意识、情感、心灵、人格等人类特质不再是使智能机器成为道德主体的必要条件。也就是说,非人类中心主义是智能机器成为道德主体的立场与思想基础。当智能机器成为道德主体之后,他们就会像人类一样,拥有了自主性的道德判断、道德选择、道德决策、道德行动的能力,只不过其内在机制与人类不同而已。如此一来,智能机器就具有了一定的内在价值,应该享有尊重与关爱,人类对智能机器也要讲道德。智能机器具有与人类相对等的道德主体地位,不再是传统意义上的人类工具。到那时,人不再是唯一的内在价值主体,不再是世界万物的评价尺度,也不再具有最高价值。同时,成为道德主体的智能机器就与人类的生产和生活融入在一起,处理各种道德问题,而其效率却要超出人类。在这种情况下,人类的道德地位不再高于智能机器,而是持平甚至低于智能机器。这样,世界上就会存在着两种类型的道德主体。也就是说,世界将不再是也不能是“以人类为中心”,而是成为“非人类中心”。或者说,“超人类中心主义”“道德共同体主义”将会成为伦理道德领域的基本思想。这就大大扩大了传统的伦理道德的界限范围,并从根本上挑战了传统上的“以人类为中心”的道德观念,促使对传统伦理承认的道德范围进行超越与延伸。这种道德立场的改变,意味着成为道德主体的智能机器也是人类伦理道德应该关注的新实体、新对象、新方向。那么如何评价这种非人类中心主义呢?如果说生态伦理中的“非人类中心主义”,基于自然与生物的内在价值,要求人类对自然与生物的道德尊重,不伤害它们,以共生共存实现人与自然的和谐。这种非人类中心主义从根本上说,还是从人类出发有利于人类的生存与发展的,也就是说归根到底还是人类中心主义的立场。并且,人类与自然和生物相比是处于道德强势地位的,很大程度上可以通过改变人类自身的行为达到控制自然与生命体的目的,因此不会对人类自身造成灭顶之灾。而从智能机器的角度发展出的非人类中心主义,则并非如此。由于智能机器的较强智能要高出人类,即使人类想要平等地善待它们,但是具有自主道德意识的智能机器却未必能够做到投之以桃、报之以李,即使它们不是主动表示出恶意或敌意,也可能会采取意想不到且有害的方式来对待人类,这就极可能会扰乱人类社会秩序与损害人类利益。这样看来,这种基于非人类中心主义立场发展起来的智能道德主体,就未必是人们所希望看到的场景。这就不得不引起我们人类认真思考,能否以非人类中心主义为理论基础来发展智能技术?能否让智能机器成为道德主体?在智能时代,我们到底是坚持人类中心主义,还是走向非人类中心主义?


(二)削弱人类道德主体性


具有道德主体性的智能机器是强智能机器,它会对人的道德主体地位造成巨大的冲击和威胁。因为,强智能机器具有类人智能甚至超人智能,尤其是会具有类人的自我意识与类人情感,其道德主体地位可以与人类相比肩,甚至会超越人类道德主体。伴随着智能机器能够越来越好地处理各种道德问题,人类就会越来越信赖智能机器,人的道德主体性就会日益趋弱,人类道德主体地位就会发生动摇,甚至会被智能机器所压制。智能机器在客观上也会有形或无形地削弱和压制人类的道德主体性。这种人类道德主体被智能机器强势冲击的情况在弱智能技术水平的今天已出现端倪。比较典型的有以下情况,第一,“自动化偏见”使人们更重视自动化信息而非个人的实际体验,由此导致“证实性偏见”,它重塑人们对世界的认知,使其与自动化信息更好地保持一致,再进一步确立自动化结果的合理化地位,造成人们有时会摒弃一切与机器视角相冲突的主体观察,比如因对自动驾驶程序的过度信赖将控制权移交而导致伤亡,这在无形中让智能机器窃取了人类的决策权,承担着越来越多的认知任务,并不断强化其权威。在人类对智能技术潜力寄予厚望的同时,不断加强其自动化决策能力,但与此同时人类自主决策程度正在相应地削弱,最后导致的结果是人类越来越倾向于不再思考。第二,强制用户在使用软件之前在知情同意中选择“同意”,迫使用户以个人数据交换来使用相应的产品和服务而形成的强制异化,用户异化虽然是由用户自己做出的,但是其行为意志并非完全自愿的,这就构成了非己的、异己的行为,同时也是一种机制性“暴力”。虽然智能机器提供的产品和服务可能会给用户带来一定的暂时的、局部的、非根本的正价值,但是个人信息的泄露有可能会给用户带来不可预估的长远的、全局的、根本的负价值,更为重要的是这种强制性异化会逐渐地削弱人的应有的主体性。第三,人工智能和大数据在虚拟世界的社交媒体、各类网站和现实世界的智慧城市、智慧家居和智能穿戴设备等领域的全面融入使人类处在一个“线上+线下”的全景监控模式之中,身处其中的人们无论愿意与否,自身的线上与线下行为轨迹已被全记录下来,并对个人的心理偏好、性格特征、生理状况甚至脑神经活动模式进行数据分析与挖掘,从而生成用户个人的“数字孪生”,以便能够对用户进行精准营销广告投放或用户服务体验从而获得更高成交率。但是,用户个人并未拥有相应的访问权、分享权和撤销权,而是处于全景监控中身不由己、无能为力。第四,当前人类仅看到智能技术所带来的进步与效率,而无法完全清楚地看到智能技术带来的不透明性、复杂性以及个人与集体在此基础上所产生的更广泛的连锁反应,很容易忽略人工智能技术的负面作用以及对人类的反向形塑,这种反向形塑突出表现在人们的生活方式会变得越来越受到商品和媒介的控制。同时,由于大众并不清楚科技企业背后的运作逻辑,会有可能遭受政治、商业、技术与媒体相结合的潜在操作,比如算法营销、信息茧房等。其他还有诸如算法歧视、算法偏见、算法控制、算法欺骗、算法自主性造成的不确定性、算法信任危机、算法评价滥用等,都会对人类的道德主体性造成威胁和冲击。以上这些对人类主体性的削弱虽然有着人类与弱智能技术的联合操作,但是谁又能保证在强智能技术的将来智能机器对人类道德主体性的削弱会有过之而不及呢?如果没有合理的规范与限制,强智能技术会比现在的技术更加削弱人类的主体性,最终导致人类主体性危机。所以,有学者指出,“看似不断‘发展’的、更为高效的现代生活背后,人的道德主体性在人工智能的‘辅助’下却开始了退化:我们不再作道德决策,也不关心人工智能的决策是否符合我们的价值观。诚然,人工智能的出现让我们得以完成比以前多得不可想象的工作,但当它的代价是人的道德主体性的时候,留给我们的选择,就不再是如何改变这个世界,而是如何去接纳一个失去人工智能的辅助就寸步难行的自己了”。


(三)挑战人的本质与道德权威


智能机器成为道德主体,意味着智能机器越来像人甚至超越人,这就会实质性地改变“人”。比如,“会思维、有理性”曾被认为人的本质,但成为道德主体的智能机器不仅拥有理性思维而且还远超过人类,比如较强的道德思维和判断能力。如果将来随着智能技术的发展智能机器拥有远超人类的想象力、控制力、创造力、情感等,那就会对人的思维本质构成实质性挑战。再比如,劳动或制造和使用工具也曾被认为是人的本质,而成为道德主体的智能机器也会在生产场所根据劳动过程的需要,自主地制造和使用工具,并根据生产需要不断地对生产过程进行调适和完善,这样一来,无论是制造和使用工具还是一般意义上的劳动,都不再是人类的“专利”。就“人的本质在其现实性上是一切社会关系的总和”来说,智能机器也有着各种各样的人—机关系、机—机关系,并在这些关系中进行道德判断、道德选择、道德决策与道德行动,如果不是站在人类中心的立场来考虑其内在机制的问题,它们与人类几乎无异。比如,在人类的生活中,智能机器正在成为人类学习的老师、工作的伙伴、居家的保姆、游戏的玩伴、性伴侣等。那么,即将变得与人类越来越难区分的具有自主意识和情感的智能机器,是否应该受到人类的尊重、拥有基本权利、享有人格和尊严?比如,禁止被人类过度使用或被置身于恶劣的环境中,不被视为低人一等的奴隶、仆人或工具等。如果真是如此,那么究竟什么是“人”与人的本质?如何确立人—机关系、机—机关系的伦理原则与道德准则?这不得不被人类重新思考和认识。非但如此,智能机器的道德主体地位还对传统伦理关系造成冲击,挑战人类道德权威。比如,智能机器会让人类模糊虚拟与现实的界限,人类与情侣机器人形成的所谓爱情是“虚拟爱情”,不符合人类爱情的两性间以共同社会理想为基础以相互倾慕并渴望结成终身伴侣为目的的强烈、纯真、专一的感情特征,它是人类的一种错觉,是对设计精巧的智能机器的轻信,这会让人生活在一个慌乱的世界之中;老人与助老机器人之间产生的感情也不是真实的,这种虚拟的感情对老人来说其实是一种欺骗,还会减少老人的社会联系,更容易被家人与社会所忽视,增加老人被客体化的感觉等;对病人实施手术的智能医生会改变传统的医患关系,可能会引起医患之间的心理隔阂;人类尤其是青少年群体终日与智能机器形影不离,可能会形成对虚拟世界的真实感、亲近感,并表现出过度的眷恋与依恋,而对现实世界的人和物表现出排斥、逃避、冷漠、厌世等负面心理和情绪。对虚拟事物的沉迷,容易导致“精神麻木”,湮灭人的道德意识,不易形成健全人格。尤其是,当具有高度自主性的智能机器参与到社会管理时,作为道德主体的智能机器与人类相比,谁的道德表现更为优秀?谁能占据道义制高点?谁更有资格拥有道德裁判权?强智能机器会与人类抢夺道德评价、道德决策的话语权吗?它们会将人类纳入它们认为的道德范畴吗?若果真如此,将来对人类来说势必会引起一场惊天动地的“道德大变局”。


三、未雨绸缪:及早应对智能道德主体的风险

面对即将成为道德主体的智能机器对人类未来深层次的强烈冲击和影响,作为人类的我们应及早应对,着眼未来,以人类为中心,突出人类主体性,坚守人的本质,防患于未然。


(一)着眼未来,培养前瞻性道德责任


《礼记·中庸》云:“凡事豫则立,不豫则废。”尽管当前智能机器还未发展成为道德主体,但是未雨绸缪还是必要之举。不能简单地认为未来智能机器“可控”或者不会对人类造成威胁,就不屑一顾或置之不理,从而轻视或忽视这方面的理论思考和探究。鉴于此,面对未来智能机器有可能对人类造成的负面冲击和影响,人类尤其是人工智能科技人员应该着眼于未来,发展未来伦理学,培养前瞻性道德责任。所谓未来伦理学,简单地说就是面对未来之变的伦理学,就是基于对事物未来发展可能出现的危险与威胁的认识,发挥人类道德想象力,充分想象人工智能技术活动的长远影响,搞清楚哪些应该保留及为何保留,从而了解我们真正珍爱的是什么,这是由未来恐惧为向导的伦理学。发展未来伦理学,重在培养和提升科技人员的道德想象力。因为,“道德想象力能有效地扩展和深化人们的道德感知,使其超越直接面对的当下困境,并通过对行为后果的综合考虑和前瞻性预见为人们提供长远的、未充分显现的影响的清晰洞察。而这正是后现代人类行为可能结果的不确实性(即责任的缺位)向人类提出的新要求”。其实,道德想象力就是以道德方式进行人工智能研发的慎思能力,目的在于激发智能机器科技人员勇于承担责任的自觉意识,要求科技人员针对人工智能研发后果的不确定性周全考虑、提前预防,尽力确保未来智能机器先前基础的安全、可靠,严格控制与消除不确定性风险。这种由道德想象力形成的责任,属于前瞻性道德责任。与基于传统伦理学要求对已发生的行为进行追责的“追溯性道德责任”相比,前瞻性道德责任是基于未来伦理学,要求长远考虑并对未来负道德责任。“在人工智能系统的理论设计活动开展之前,人工智能系统的设计者就应该承担的责任。要求设计者要积极主动地为未来的用户与社会影响考虑”。这种前瞻性道德责任,实质就是一种对人工智能科技人员进行限制和约束的手段。智能机器科技人员的前瞻性道德责任能够避免“科林格里困境”(Collingrige’s Dilemma),“我们不能在一种技术的生命早期阶段就预言到它的社会后果。然而,当我们发现其不好的后果之时,技术通常已经成为整个经济与社会结构的一部分,以至于对它的控制变得极端困难。这就是控制的困境。当容易进行改变时,对其的需要无法得以预见;当改变的需要变得清楚明了之时,改变已经变得昂贵、困难以及颇费时日了”。所以,面对即将成为道德主体的智能机器所带来的冲击与影响,人类尤其是人工智能科技人员必须着眼未来,提升前瞻性道德责任。


(二)确立以人类为中心基本价值原则


面对智能机器基于道德主体地位对人类中心主义的僭越,或者说非人类中心主义或超人类中心主义的袭击,应当坚守以人类为中心的基本立场和以人为本的基本原则。原因很简单,人类发明创造智能机器的初衷就是为了造福人类,让智能机器成为道德主体的目的也是为了避免智能机器对人类造成伤害而更好地为人类服务。也就是说,让智能机器成为道德主体是一种“人为的”和“为人的”价值活动。很难想象出有什么理由能够支持人类发明创造智能机器是为了智能机器本身,或者是为了其它什么非人类的目的。人就是出于自身的需要,才研制智能机器。因此,人类在开发设计智能机器成为道德主体时,在与具有道德主体地位的智能机器共存时,以人类为中心始终是每个人应坚守的基本立场。爱因斯坦说:“关心人本身,应当始终成为一切技术上奋斗的主要目标。”不过,坚持人类中心主义的基本立场,并非完全排斥非人类中心主义的存在。在把智能机器发展成为道德主体的技术过程中,可以以非人类中心主义去思考道德主体概念,摆脱人类特有的理性、意志、意识、情感、心灵、人格等人类特质,从交互性、自主性、意向性、适应性、道德能力等方面着手对智能机器成为道德主体进行道德设计和技术研发。也就是说,在智能机器如何成为道德主体可以以非人类中心主义为立场与思想基础。当智能机器成为道德主体之后服务人类与人类共存时,又应当坚守人类中心主义,对智能机器的自主性行为不能放任自流,不能让智能机器的可疑风险与负面效应危害人类。这样的对人类中心主义的坚持,可以避免像某些反技术的浪漫主义者那样,抗拒和排斥人工智能技术的提高与发展,放弃人利用工智能技术为人类造福的机会,最终因噎废食。基于人类中心主义,进行智能机器的道德主体开发设计时,应遵循以下基本原则:第一,人类福祉与幸福原则,就是智能机器无论怎么发展和应用,都应当服务于人,服务于人的发展和幸福,对智能机器的设计和应用都应该着眼于改善人类生活质量和外部环境,绝对不能损害人类福利,尤其是不能伤害人类根本利益;第二,无恶意原则,就是对智能机器的设计和应用应该出于对人类的关爱而非恶意的愿望,绝对不能造成可预见或无意识的伤害、偏见和不公平,避免特定的风险和潜在的危害;第三,公正原则,就是智能机器应该对所有人一视同仁平等对待,避免偏见和歧视;第四,人权与尊严原则,就是智能机器应该优先考虑并明确尊重人的基本人权和尊严,避免对人的基本人权与尊严的冒犯和危害,维护人类尊严和固有价值;其他还有智能机器必须以辅助人类绝对不能以取代人类为目的,在设计伦理时要与人类的伦理规制相融合等。但是,以人类为中心并不意味着人类对智能机器就可以随意奴役和虐待,既然智能机器存在的目的是为人类造福,作为人类对智能机器也应当像对待朋友那样给予尊重、关爱、呵护与友善。


(三)突出人类主体性,开发智能有限道德主体


从根本上来说,人类与智能机器之间是主体与客体、目的与手段的关系。但是,随着智能机器自主性的增强,其道德主体地位的提升会导致人类道德主体性面临着被削弱而引发主体性危机的风险。“人工智能的问题不是机器有时会做出某个不利于人的决策,而是机器代替人决策这件事情本身”。为了避免人类道德主体性遭受智能机器削弱的威胁,就应当在人工智能的研发中加以伦理引导和规约,必须强调人类的主体性地位,突出人类在与智能机器关系中的主导地位,突显人的自觉能动性与自主选择性。从人类整体上看,突出人类道德主体性,就是要求人类能够很好地控制智能机器,尤其是要改变人工智能科研人员只注重智能技术水平的提升而忽视如何有效地控制智能机器的研究状况,应在人机互动中向如何促进而非抑制人类道德主体性方向努力,使智能机器的道德决策都应该经过人类的审查和同意。从人类个体上看,突出人类道德主体性,就是要求人工智能伦理研究应充分考虑文化多样性与个体差异性,使智能机器既能促进个人幸福又能彰显个人主体性,尤其是要防止人类对智能机器的过度依赖,避免人类在使用和运用智能机器中迷失自我。在智能机器的运用过程中,为了防范人类主体性被削弱,应对防止智能机器被有意或无意地滥用或误用。比如,在人类并不同意的情况下由智能机器作出某种决策,从而可能出现违背人类社会的价值共识情况(如造成侵犯人权、侵犯隐私、降低人类尊严等),或做出某种有争议性决策,这就会导致作为决策主体的人本身被挑战。为了避免对智能机器的滥用或误用,应该通过算法、程序等技术设置加强对智能机器的监督和管理。比如,要根据智能机器及其应用领域,可通过人机回环、人控回环等方法确保适度的人为控制措施。在监督管理中,如果发现智能机器在与人的交互中发生削弱人的道德主体性或其他有害于人的情况,应该设置切断或中止智能机器的运行程序。为了更好地避免人类道德主体性免受智能机器的削弱,还要对智能机器进行规范和限制,使智能机器成为有限制的道德主体。使智能机器成为有限的道德主体,可从应用范围、自主程度和智能水平三个方面进行限定。限定应用范围,就是把智能机器应用于能够确保人类道德主体性不受任何削弱和伤害的地方,如果对某些领域和范围难以确定智能机器的直接的和潜在的危害性,就禁止使用智能机器;限定自主程度,就是把智能机器作为人类的辅助工具或高级智囊,让最终决定权牢牢地掌握在人类自己手中,比如把智能机器运用于军事领域时,可利用智能机器评估风险、救助士兵、保护平民等,但是对于是否发动战争、如何作战等重大事项,应由人类自己来决策;限定智能水平,就是对智能机器的开发和设计亦即人工智能技术要设定红线和禁区,对于明显有害于人类或存在显著的不确定风险的技术应严禁开发,这虽然可能会阻碍人工智能技术的发展进程,但是与把人类置于险境相比,人类安全要比技术发展更为根本和重要。从人类安全着想,把智能机器开发成有限道德主体,是符合人类伦理的。从技术角度考虑,把智能机器开发成为有限道德主体相较于完全道德主体,也更为容易操作。


(四)坚守人的本质,筑牢道德话语权


智能机器成为道德主体,从人的本质角度上看,除了在材质上拥有硅基而与碳基的人不同之外,它“会思维”“能劳动或制造与使用工具”、有着复杂多样的人—机关系与机—机关系等“社会关系”,让人感觉到智能机器也和人一样就是“人”,这就强烈冲击了对人的本质的认识。但是,这种对“把智能机器也视为人”的认识,没有注意到就是硅基与碳基的材质起点差异造成了智能机器与人的本质差异。拥有碳基的人有着生命体的自然需要、社会需要和精神需要,为了满足需要进行劳动,在劳动中形成了各种社会关系,从而拥有了自然属性、社会属性和精神属性,会思维、会创造、有追求,这才是人。而具有硅基材质的智能机器,没有生理性需求,没有父子兄弟朋友亲戚等社会性的伦理关系,没有“学以成人”的精神需求等,至少在智能机器成为超智能机器或者完全道德行动体之前是如此。即使智能机器成了完全道德行动体也就是发展到超级智能,拥有碳基的人类也肯定把智能机器视为“非我族类”,就像现在人类看待外星人那样(假如外星人真的存在);反过来,拥有自我意识的超智能机器也肯定视人类为异己,哪怕二者都“会思维”“能劳动”“有着‘社会关系’”等人的表征,肯定都互不认同。原因就在于二者构成材质不同、内在机理有别、本质属性各异。所以,无论智能技术发展到何种程度,都不能改变人类本质,人就是人,智能机器就是机器,哪怕现在我们把智能机器人称为“人”,但它终究不是“人”。认识到这些,我们人类从现在到遥远的未来,都必须坚守“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”。智能机器无论多么超级智能,绝对不具有人类本质。人的本质决定了人类的道德主体地位,人类拥有着至高无上的道德主体性。人类与智能机器的关系,就是目的与手段的关系、主体与客体的关系。智能机器作为手段与工具其存在的目的就是为人类造福、为人类服务,当然这也需要人类要善待为己服务的智能机器,不能对其损害与破坏;而在人类与智能机器的主体客体化与客体主体化的实践中,在致力于推进智能技术发展进步中,要防止智能机器这种具有主体性的客体出现失控,造成人的异化。也就是说,不要让成为道德主体的智能机器扰乱与破坏人与人的伦理道德关系。比如,在对情侣智能机器人的设计与应用上,要想法消除人类沉湎于“虚拟爱情”,而应以情侣机器人为媒介,让人回归到真实世界享受甜蜜爱情;在对助老机器人的设计与应用上,要想法消除老人对助老机器人的过度感情依赖和寄托,增加家人和社会因素,让老人拥有幸福的晚年生活;在对智能医生的设计和应用上,要想法减少人类医生对其的过度依赖,由医生为主导、智能机器为辅助,消除医患心理隔阂;在对智能机器的设计和应用上,要想法消除人类对智能机器的过度依赖和依恋,避免人类尤其是年轻人太过沉溺于虚拟世界;如此等等。同时,还要在未来的智能时代,筑牢人类的道德权威,拥有最高道德话语权,占据道德制高点。无论智能机器发展到何种程度,要确保人类拥有对各种道德事件和道德现象的裁判权、决策权,绝不能让智能机器左右和管控人类的道德行动。

原文刊登于《道德与文明》2024年第4期

欢迎荐稿

中国伦理在线欢迎各位作者向我们推荐稿件。稿件既可以是已经在期刊、报纸、网站或会议发表的文章,也可以是专为中国伦理在线原创的文章。


根据稿件类型,需注意:

1、学术类论文需符合学术规范,力求创新性,具有一定的学术价值。

2、时评类文章要注重理论与实际的结合,尽量代入伦理学及相关哲学学科视角。

3、推荐他人文章需简短说明推荐理由。

4、中国伦理在线将酌情对社会影响力较大、学术价值较高的文章进行奖励


稿件需使用word格式,附作者或推荐人照片、简介。征稿邮箱:zgllzx2020@163.com。

欢迎关注中国伦理在线

图文转载自公众号道德与文明

编辑 | 柏云玲

中国伦理在线编辑部

“在看”我吗?

中国伦理在线
关注社会伦理道德热点,传播伦理学学术动态与最新研究成果。
 最新文章