ChatGPT不具备同理心,科学不是玄学,为什么AI无法代替心理医生?

文摘   科技   2023-05-18 15:58   江苏  

新兴技术出现往往能引起广泛的关注和讨论。最近由于ChatGPT的持续火爆,使AI人工智能迎来了"iPhone时刻",带火了一系列AI产品,这些产品无论是在提升生产力、生产效率方面,还是提升用户体验方面,都让大家受益良多,成为了当前的热点话题。但是,在ChatGPT等AI应用的火热也引发了新的问题......

因为这是热点就会引人过来"蹭热点",为了抓住"蹭热点"机会,有些人在对AI人工智能、GPT只是一知半解的情况下,轻易做出主观臆断,并刻意夸大误导大众。某些非专业人士比如某些情感类、财经类博主在讲的AI 、GPT等技术内容时,非常像股市行情火爆的那些年,菜市场的大妈给大家讲股票的场景。从以往的经验来看,这绝不是一个好现象。甚至一些别有用心之人利用信息不对称,刻意欺骗大众、获取不正当利益。这些行为不仅会对科技的发展造成不良影响,也对公众的利益造成了损害。

科技以人为本,作为专业领域从业者,我们当心存善念发挥我们的专业能力,帮助公众去伪存真。不了解新兴技术背后朋友们,如何理性认识新技术,不被“哗众取宠”的言论误导,建议阅读我的文章:

-->> 科技热点中的迷失与觉醒:如何避免被误导和不被“割韭菜”?

我以最近在我参与过的真实事情为案例,向大家讲解某些可能存在误解的观念。

比如心理学领域一篇文章,如同一些博文夸大ChatGPT的作用,仅仅是凭借直觉感性的判断,就下了这样不科学论断。比如下图红框就是某微信公众号所发布的观点:

为什么以上说法不专业且存在误导的可能性呢?

下面我将从以下几点为大家进行分析:

首先,作为一个AI人工智能,ChatGPT没有真正的"情感"或"同理心"。然而,它被设计成可以理解和回应人类情感和需求的方式。通过在大量文本中学习,它可以模仿人类的同理心,但这仅仅是模仿,而不是真正的同理心。请注意,ChatGPT只是一个AI工具,用于帮助回答问题和提供信息,它不能代替真正的人际交往和情感支持。

为什么AI 无法拥有同理心?

从心理学角度来看,同理心(empathy)是一种理解和共享他人情感和体验的能力。它使人们能够将自己设身处地地想象他人的感受,从而产生对他们的关心和支持。同理心通常分为两种类型:情感同理心(affective empathy)和认知同理心(cognitive empathy)。

情感同理心是指对他人情感的直接共鸣,例如,当看到某人难过时,你也会感到难过。认知同理心是指理解他人的感受和需求,即使你自己并没有直接体验到这些情感。这种类型的同理心需要较高的心理理解,以便从他人的角度看待问题。

我从以下4点分析了为什么AI人工智能无法拥有真正的同理心:

  1. 缺乏真实的情感:GPT-4是AI大语言模型(LLM),它本质上还是基于算法和数据的计算机程序,不具备真实的情感和意识。它们可以进行部分模仿人类的情感反应,但并不能真正地体验或理解这些情感

  2. 缺乏个体经验:人类的同理心是基于个体经验、文化和社会背景的。AI 缺乏这些个人经验,因此无法从内在的层面理解他人的感受

  3. 数据限制:虽然AI可以学习大量的数据来模拟人类情感反应,但这些数据仅仅是一种表现,无法真正代表人类的情感世界。此外,训练数据不完整不全面,且训练数据可能存在偏见,这会影响AI对情感的理解和反应。关于数据偏见的影响可参考文章 :ChatGPT的隐患,比被抢工作更可怕的事…

  4. 目的性和工具性:AI被设计为一种工具,用于解决特定问题或执行特定任务。虽然GPT-4有一定的泛化能力,但它仍然无法建立真正的情感联系。

人类的情感分类能否完全数据化?

心理学家和计算机科学家已经开发了一些方法来量化和分析情感。目前,人类情感仅能在一定程度上实现部分的数据化。但应注意的是,情感是一种复杂的、多层次的现象,不容易完全捕捉和量化。数据化的情感可能会忽略某些微妙的情感细节和个体差异。以下情感数据分析一些常用的方法:

  1. 自我报告量表研究者可以使用问卷和量表来收集关于个体情感体验的数据。这些量表通常包括一系列问题,要求参与者报告他们在特定情境下的情感反应。尽管自我报告数据可能受到认知偏见和社会期望的影响,但它们仍然提供了有关个体情感体验的重要信息。

  2. 生理测量生理指标,如心率、脑电波、皮肤电导、肌肉电活动等,可以用来量化情感反应。这些指标可以反映身体在不同情感状态下的生理变化。通过监测和分析这些生理指标,研究者可以更客观地评估个体的情感体验。

  3. 面部表情分析:面部表情是情感反应的重要组成部分。计算机视觉技术和人脸识别算法可以用于自动检测和分析面部表情,从而推断出个体的情感状态。这种方法可以提供实时、非侵入式的情感数据。

  4. 语音和语言分析:情感可以通过语音(声调、节奏等)和语言(词汇、语法等)特征来表达。自然语言处理和语音识别技术可以用于分析这些特征,以识别和分类情感状态。

  5. 文本挖掘:文本数据(如社交媒体帖子、聊天记录等)可以用来分析人们在特定情境下的情感表达。情感分析技术可以识别文本中的情感词汇和模式,从而推断出作者的情感状态。

这些方法虽然已经取得了一些进展,在分析和应用情感数据时,但科学家提醒仍然需要谨慎对待,不能完全依赖数据。

以现在很多人关注的微表情分析来说

微表情分析和其他情感识别技术能否有效分析人类的内心活动

AI可以在一定程度上通过微表情分析来处理和理解人类情感。微表情是指人们在面部肌肉中展示的非常短暂(通常在40-500毫秒之间)和不自觉的情感反应。它们通常在人们试图掩盖自己的真实情感时出现,因此可以被认为是一种更真实、不经意的情感表达。

通过计算机视觉技术和深度学习算法,AI可以识别和分析这些微表情。这些系统通常包括:面部检测、特征提取,然后,微表情识别、情感分类。AI根据已知的情感模型将所检测到的微表情分配给特定的情感类别(如喜悦、悲伤、愤怒等)。

微表情分析和其他情感识别技术可以在一定程度上揭示人类的内心活动,但它们并不完美。以下是一些需要考虑的限制和挑战:

  1. 情感表达的复杂性:情感表达可能因个体、文化和社会背景而异。某些情感可能被压抑或掩饰,而不是通过微表情或其他可观察的信号表现出来。

  2. 多重情感:人们可能同时体验多种情感,这些情感可能相互作用并影响表达。在这种情况下,分析内心活动可能变得更加复杂。

  3. 上下文因素:理解人类内心活动需要考虑到上下文因素,包括情境、社会关系和历史背景。仅通过微表情或生理指标可能无法捕捉到这些复杂的上下文信息。

  4. 主观性:情感体验具有主观性,可能难以用客观的量化指标来完全描述。此外,情感数据(如自我报告)可能受到认知偏见和社会期望的影响。

    人类高度微妙的表情、 人类的个体差异,数据质量的依赖,微表情分析依赖于高质量的图像和视频数据。在实际应用中,数据质量可能受到光照、遮挡等因素的影响,从而降低AI的性能;以及伪装问题都是影响因素。

GPT-4等AI人工智能大模型给出的结果是依赖大量预训练数据集,那么从现有数据集来看,对于人类情感部分的数据是不完整的,且不能保证没有偏见和误差的。所以,至少从现有技术条件下来讲,AI人工智能不具备一些人所认为的同理心的,仅凭几个案例的测试就轻易断言ChatGPT的GPT-4模型版本的能力是主观的、片面的。(如下图)

注:ChatGPT产品支持两个版本的GPT大模型,一个是GPT-3.5版本,一个是GPT-4。因此,ChatGPT4的表述是不严谨的。

即使出现"涌现"(emergence),他的影响也是有限的,科学不是玄学。

在大型语言模型(LLM)领域,"涌现"(emergence)通常指的是模型在训练过程中自发地学习到一些复杂的知识、技能或行为。这些知识、技能或行为并没有直接从训练数据中获得,而是通过模型自身的学习和推理能力从训练数据中抽象出来的。随着模型规模的增大和训练数据的丰富,模型可能在未被明确设定的情况下学会一些复杂的概念和技能。

科学是通过观察、实验和理论来探索的方法,科学家们通过建立理论模型、进行实验研究和开发计算方法来让我们可以逐渐揭示人工智能现象背后的规律和机制,从而将不确定性降到最低。而不是信仰和观念,玄学通常是没有科学证据支持的信仰和观念。

前段时间一些创业者邀请我讨论关于AI心理咨询产品的规划时,很多朋友对大模型充满了期待,大家非常期望利用新技术创造商业价值,讨论“搞钱”“变现”的机会时,大家都非常热烈。当我谈到个人隐私、道德伦理和数据安全的事情时,大家居然冷了下来,很多朋友没有意识到背后的风险,这不禁让人后背发凉。

讨论中大家普遍认为的AI的优势是,觉得自己可以不面对真人吐露隐私时更加放松,但真相是,你的与AI沟通的所有数据都是有可能被记录存储下来的,成为商家用来分析的素材,这个风险很严重。

我以上的分析不是完全否定AI做心理咨询辅助,我相信AI在一些场景会产生一定的作用。

AI在处理一些简单的情感咨询方面可能具有潜力,但这需要在一定的限制和注意事项下进行。

在某些情况下,AI辅助情感咨询可能是合适的:

  1. 低风险情况:如果咨询者面临的情况相对较轻,如日常生活中的压力或困扰,AI可能可以提供一定程度的支持和建议。

  2. 信息性支持:AI可以提供一些基于数据的建议,例如压力缓解技巧、沟通方法等。

  3. 可访问性:AI可以为那些难以获得专业心理咨询服务的人提供帮助,例如因为地理位置、经济条件或文化障碍而无法获得支持的个体。

在使用AI进行情感咨询时,首先要以人为本,多加慎重,还应考虑以下事项:

  1. 专业性与安全性:AI不是专业的心理咨询师,可能无法准确识别和处理复杂、高风险的情况(如自杀倾向、严重的心理卫生问题等)。在这些情况下,寻求专业心理咨询服务是至关重要的。

  2. 同理心与人际关系:AI无法像人类那样真正体会情感和建立深刻的人际关系。在需要同理心和真诚关怀的情况下,目前科技水平下与人类心理咨询师交流可能更为有效。

  3. 隐私与伦理:使用AI进行情感咨询可能涉及敏感信息和隐私问题。确保数据安全和保护用户隐私是至关重要的。某大型打车平台的案例就是前车之鉴。

  4. 准确性与偏见:AI可能会受到训练数据中的偏见和误导信息的影响,从而提供不准确或不恰当的建议。关于数据集问题前面已有所提及。

因此,虽然AI可能在一些简单的情感咨询场景中发挥作用,但在处理更复杂、敏感的情况时,依赖专业的心理咨询师仍然是最佳选择。AI可以作为辅助工具,但不能完全取代人类专业人士在情感咨询中的作用。

在AI人工智能飞速发展的时代,这是一个巨大的机遇,也面临着诸多 风险。

AI的应用没有万能的解决方案。所有新技术都伴随着风险,如何平衡这些风险与潜在回报的选择将取决于特定的业务环境和数据。希望我们的为用户创造价值的同时,创业者、产品人坚持不以牺牲用户的信任和隐私,不使用带有偏见、有缺陷的数据集对用户提供决策服务。

不论未来有多么大的利益诱惑,我们仍然要不忘初心,坚守道德伦理底线,以人为本,科技向善

光哥说AI
站在数字化战略与工程实践交汇路口的探索者
 最新文章