用AI“复活”逝者,应用边界在哪?

学术   2024-06-24 16:47   北京  

近日,使用人工智能(AI)技术“复活”逝者引发广泛关注和讨论,并多次登上热搜榜。用数字生命“复活”至亲,曾经只属于电影银幕中的科幻想象,如今却在现实世界中初现端倪,已经初步形成产业链。未来AI“复活”数字人可能拥有类似真人的身体与性格,这无疑会带来不少伦理风险和社会问题。那么,这种用AI技术让逝者“归来”的行为,应用边界在哪?推荐阅读《人民论坛》最新文章。


AI“复活”数字人存在哪些风险?

对普通人来说,他们最想“复活”的一般是已经逝去的亲朋,“复活”也是从外形开始的。但是,当外貌栩栩如生的数字人开始出现在生活中时,人们也许会产生更多需求:希望和这些数字人产生真正的互动,甚至从“他们”那里获得情感上的交流。那么,是否应该让“复活”数字人拥有情感,在技术上能否赋予“他们”情感呢?

AI“复活”的数字人本质上具有机器属性。“复活”的数字人是通过向智能模型投喂被“复活”者的各种数据,进行反复训练学习的结果。对于是否要赋予机器情感,研究者有分歧,一种典型的反对声音是,情感是独属于人类的领地,如果被智能机器侵入,会对人的主体性造成威胁、弱化人的尊严。但从用户的角度看,当智能机器不可避免地浸透到日常生活中时,人们不会希望它们只是以冷冰冰的机器面孔出现,而是希望从机器那感受到一定的人的情感,甚至在一定意义上将它们看作朋友。对于AI“复活”技术的应用来说,情感交流更是最主要的目的。

AI“复活”的数字人可能产生情感吗?实践中,与情感相关的智能技术一直在推进,这样的技术被称为情感计算。美国学者罗莎琳德·皮卡德在《情感计算》一书中对情感计算的定义为“与情绪或其他情感现象有关的、产生于或意图影响情绪和其他情感现象的计算”。皮卡德认为,一个健康人的情感系统具备五项成分:出现情感和情感行为;快速的主要情感;由认知产生情感;情感体验;精神与肉体的相互作用。她启发我们,情绪、情感来自于精神与肉体的相互作用,它的源头是人们的身体体验、生活经历,但机器并不完全具备皮卡德所说的五个要素,其中的后三个要素甚至可能是机器难以完全达到的。“情感计算的预设不具有身体性和内在性,仅仅依赖情感的内部状态的设计,无法实现情感的因果溯源分析。”这样的情感也就是无源之水。即使在前两个要素方面,“计算”的情感也有一定的机械性与跳跃性,它们只能对人类情感的一些典型状态进行模仿,情绪的形成与切换也缺少内在动因。

虽然人工智能没有人类情感的整体性,但有学者认为,人工智能的情感反应只需要输出端像是人类情感反应就足够了,至于用什么方式来达到这一点,并不重要。从用户角度看,尽管“复活”的数字人情感表达会一直存在局限性、机械性,但只要获得足够的情感反馈,他们也许不在意机器情感是不是“计算”出来的,或者如何“计算”出来的,毕竟在与数字人的交流中可以获得一定情感满足。然而,与数字“复活”人交流不仅带来情感满足,还可能存在陷阱。

一是未得到期待的回应可能带来的情感伤害和打击。在与AI“复活”数字人的交流中,人们或多或少会将对逝者的感情移情到“复活”数字人身上,而“复活”数字人却未必能承受这种情感之重,“他们”对情感的理解与表达也不一定是准确的。因此,在情感上对“复活”数字人寄予过多期待,人们难免会失望。如果将“复活”数字人当作真正的亲朋看待,甚至可能会在某些时候受到打击与伤害。

二是应用AI“复活”技术可能带来隐私泄露的风险。情感交流的重要基础是经历的共享,相比诸如ChatGPT等抽象的智能大模型,AI“复活”的数字人有以往的经历作为支撑,这些经历更容易在交流中引发情感共享、共鸣,这也是其优势。一方面,在进行数字“复活”时,不仅需要被“复活”者的外貌等外在数据,更需要其生命历程中的重要事件等数据,这会带来更多隐私泄露风险。人们是否可以为了自己的需要而牺牲逝者的隐私?这是一个伦理上的拷问。另一方面,人们与数字“复活”者的共同经历都是过去的,如果一直沉浸于回忆中,就容易被困在过去。

情感交流是双向的。情感交流需要“复活”数字人具有一定的情感表达能力,也需要“他们”能识别与之交流的人的情感、情绪,这既可以通过对交流中的文本进行分析,也可以借助摄像头、传感器等设备,对捕捉到的人的情绪变化符号或数据进行分析,如面部表情、身体动作、心率、血压、汗的分泌状况等,而这种分析会进入隐私层面。同时,与“复活”数字人交流的人也需要分享一些个人的经历与信息。人们看似与“亲朋好友”在温情地交流,其实面临隐私泄露的风险。

三是AI“复活”的数字人较难保留原来的个性。科幻系列剧《黑镜》的第一集《马上回来》讲述了这样的故事:女主角的男友因车祸去世,因为怀念,她逐步“复活”了男友,从文字交流到语音交流,最终让“他”拥有了完整的身体,这个“男友”比真人更完美,还可以完全服从女主角,但女主角最终放弃了“他”的陪伴,因为这个“复活人”没有还原男友并不完美但活生生的个性,她因此意识到这并不是一个真正的人。

从技术上来看,就像情感一样,性格未必不能被量化与模拟,今天的MBTI等人格测试就可以将每个人的性格量化,但这样的测试只是强化了人的性格的某些主要方面。人性的复杂性决定了人们性格的多面性,人的性格也不会完全固定。即使未来智能技术对性格的分析和模拟可以不断细化、深化,恐怕也难以复制一个人的“活”个性。

当然,还有一种可能是,有人希望通过数字化方式“改造”已故亲人的性格,让“他们”变得“更好”,但人们有权力进行这种改造吗?被改造后的数字人还是原来的那个人吗?未来的人们可能会不时面对这样的质疑。

四是“复活”数字人即使拥有了“身体”,也可能不具备认知功能。之所以要为机器制造身体,主要还是源于人类的需要。当一个智能机器拥有了身体,且拥有了像人一样的身体语言时,与之交流的人的视觉、触觉等会随之得到调动,并通过对机器的触碰、抚摸、拥抱等获得更多情感满足,机器也会对人的行动作出回应,这些都会让人与机器的交流更接近人际交流。

如果人的数字化“复活”可以达到这样一种程度,那与之相关更深层的问题是,这些数字人是否应该享有一定的权利?如果能享受权利,那么这些数字人是否需要承担一定的伦理、道德或法律责任?如果要承担责任,是由“他们”独立地承担,抑或是制造“他们”或与“他们”生活、交流的人同时承担?这些问题涉及到人工智能时代机器的伦理角色与法律地位问题,对此社会各界莫衷一是,还没有达成共识。

无论未来AI“复活”数字人会如何发展,从生者角度看,当人们刚刚接触“复活”亲人时,心理会得到一定安慰,但是,随着交流日益频繁深入,如果生者沉浸在交流幻象中,不回到现实世界,就不容易从伤痛中走出。面对AI“复活”技术,应设置一定的边界,避免被隐私黑洞和情感幻象吞没。

如何避免AI“复活”技术用于不法用途?

情感抚慰也许是人们在应用AI“复活”技术时的基本需要和初衷,而一旦技术日益成熟,人的需求也会不断扩张,“复活”的数字人有可能沦为工具。

AI“复活”名人发出的言论,在传播中可能存在误导大众的问题。今天,一些已故名人虽然可能基于怀念的动机而被AI“复活”,但却无法排除一些“复活”名人被用作活人表达的工具,甚至被迫为怀着种种功利动因的人“站台”。一些“复活”名人说出来的话,其中所蕴含的信息、观点、态度、立场等是否会违背真人的意愿难以考证,然而,这些话语在广泛流传过程中如果带来混淆视听的结果,这无疑会损害名人的名誉,其家人可能因此受到困扰甚至伤害。

即使没有产生名誉等方面的侵害,谁有权力来决定这些名人的数字存在方式与言行?是他们的家人,还是制作者,或是粉丝等?抑或是名人自己生前的意愿?当不同方面的愿望产生冲突时,以谁的意志为主?这些都会是未来实践中亟须解决的难题。

AI“复活”技术应避免沦为诈骗、侵权、深度伪造的工具。比如普通人被“复活”后,较之名人,查证更不容易,“他们”被利用作为诈骗或其他不端行为的工具时,后果也更严重。在AI“复活”过程中,也可能存在着复原的不完整性问题,在“复活”过程中还可能有移花接木等种种技术操控,最终“复活”可能演变成深度伪造。如何判断什么样的数字“复活”是合法的,还有待未来的法律做出明确的界定。

一些人会将AI“复活”名人视作一种创作方式,就像在电影、电视中进行创作一样。影视作品中对于名人也会有很多虚构性创作,对此,人们早已普遍接受。用数字“复活”的方式进行创作,或许在未来也会得到普遍的认可。这样的创作与伪造之间的边界如何划分?是沿用当今艺术创作的评判标准,还是有所发展与修正?尽早回应这些问题,才可能使相关应用得到规范。

未来对“复活”数字人的不当工具性应用可能还有更多表现形式,法律上也需要进一步明晰合理应用的边界。无论是对名人还是普通人,情感性“复活”与工具性“复活”之间的界限也很难划清。当人们以为只是满足情感需求时,或许在另一种意义上把“复活”数字人当成了一种工具,即人们自我安慰、自我疗愈的工具,在人们与“复活”数字人交流过程中,也难免以自我意志为导向。这样的应用是否道德,也需要进一步反思。

未来能否实现数字化“永生”?

AI“复活”技术的日趋成熟也激发出人们的一种想象,那就是主动寻求在身体消亡后用数字化方式实现自己意识的延续,从而获得数字化永生。探讨数字化永生这一话题,需要对人的本质进行探寻,特别是需要回答人的意识与身体是否可能分离这一问题。

对人的身体与意识相分离的可能景象,早有学者作出过设想。在今天,脑机接口的实验也在推进,虽然当前主要是应用在医学领域,相信未来一旦相关技术成熟,人们思维活动的某些状态可能通过一定方式被计算机感知、接收,甚至在外部存储。但是,这是否会意味着人类的意识可以与身体分离?

法国哲学家笛卡尔认为,意识与身体是两分、对立的,但后来很多哲学家对此持反对意见。现象学的代表人物,法国哲学家梅洛—庞蒂直接分析了身体对意识生成的影响。他将身体分为客观的身体和现象的身体两类,前者是一个能像物质一样进行分解的生理实体,后者则是某个“我”所经验和经历的、承载着“我”的、介入自然和社会的有机体。现象身体可以理解为肉身化的意识或是意识参与下的身体,它所知觉的空间是现象空间,由此产生了中心性、方位感、视角性、层次、深度、运动性等概念。身体并不是由所谓心灵实体或灵魂所指使的机器,而直接就是进行知觉和理解活动的主体。身体在意识形成中的作用,意味着人的意识不可能脱离身体存在,而且这种身体并非只是生理性的身体,还包括承载着人的经验、经历等的现象身体,即使未来的技术可以造出生理性的身体,也无法还原现象的身体。美国学者凯瑟琳·海勒认为,“通过对文化意义共鸣的隐喻进行阐释,身体本身也是一种凝结的隐喻,一种物理结构,它的局限和可能性是通过进化的历史形成的,而这种进化史是智能机器无法共享的。”她的观点也呼应了“现象的身体”。

在认知科学的研究中,学者们越来越多强调具身性,即认为认知不仅牵涉到中枢神经系统,还牵涉到整个身体运作。身体的体验会滋生丰富的情绪与情感,这也是人和机器的区别。没有了身体,人的情绪、情感也就失去了源泉。即使未来的数字人可拥有人造身体,但正如前文所说,这样的“身体”与认知、情感活动可能仍是分离的,装在这样的身体里的“意识”与存在硬盘里的“意识”没有区别,都只是一些代码或数据,而非真正的意识。

在一定意义上,数字化永生的话题也与NBIC技术等对人类机能甚至寿命的“增强”问题相关。NBIC技术是四大技术的简称,即纳米技术(Nanotechnology)、生物技术(Biotechnology)、信息技术(Informational Technology)、认知科学(Cognitive Science),它们共同推动着人类的增强。人类增强也成为后人类或超人类的主旋律之一。

在人类是否应该采用增强技术这一问题上,支持与反对的声音并存。支持者从个体权利、进化论、公共福利等角度为增强技术辩解,他们也将人类增强视为后人类或超人类的目标。美国传播学学者詹姆斯·A·赫里克指出,超人类主义者希望通过负责任地使用科学、技术和其他合理手段,使后人类拥有比现在人类更强大的能力。但反对者则多以违背人类天性和自然法则、自我同一性危机、身份认同危机、社会公平、对民主的威胁、对人类生存的威胁、对人的尊严的威胁等理由反对增强技术的应用。美国学者福山更是指出,后人类的世界也许更为等级森严,比现在的世界更富有竞争性,结果社会矛盾丛生。数字化永生问题也涉及到与人类增强技术相似的挑战,特别是对社会公平的威胁,以及人的尊严的侵蚀。

从AI“复活”的现实到数字化永生的幻想,人类对于技术可能性的探索欲望越来越强,这也导致人与机器、人与“数字人”之间的界限日益模糊。进一步,人类是将其发展到极致,最终完全抹去人与机器的差异,还是保持谨慎,坚守人之为人的那些本质特性?凯瑟琳·海勒认为,无论我们的未来如何,它几乎肯定会包括人类对生物过程的干预,这意味着“人性”将至少部分地取决于人类决定它应该是什么。换言之,人与机器的边界,最终应由人类划定,即使机器有越界的能力,人工干预也可以使机器不能跨越边界。

要在人机边界上作出明智的判断与抉择,需要思考的是,如何让技术真正服务于人类整体的福祉而不是少数人的利益,如何让技术帮助人类更健全、自由的发展而不是造成人类的退化。除此,还需要通过多方对话,促成对人类的底线和人机边界认知的共识,同时应通过法律等制度体系的完善,保证智能技术的发展不走向歧途。




上文略有删减
选自 | 《人民论坛》杂志2024年第11期
原标题 | 
人工智能“复活”技术应用边界反思
作者 | 中国人民大学新闻与社会发展研究中心研究员,中国人民大学新闻学院教授、博导 彭兰
新媒体编辑 | 赵光菊

原文责编 | 陈楠

人民智库
人民日报社高端智库建设平台,致力于治国理政重大现实问题和重大理论问题的深入研究
 最新文章