AI如何撼动心理健康领域:"与其再付一次咨询费,我宁愿去找ChatGPT"

文摘   2024-09-01 15:29   新加坡  

随着对话式AI技术的日益成熟,越来越多的人开始尝试用聊天机器人来缓解情绪困扰,甚至将它们视为“心理医生”。这一趋势在年轻群体中尤为普遍,引发了业内人士的广泛讨论。


根据BBC今年1月的统计,在美国聊天平台Character.ai上,有大约475个机器人充当着“心理治疗师”的角色。其中最知名的机器人“Psychologist”自推出以来,已经与用户进行了超过1.54亿次对话。


“我从未想到它会如此受欢迎,更没想到会被其他人当成心理治疗工具。”这款虚拟“心理医生”的创建者——一位来自新西兰的心理学专业学生说道。他表示,最初开发这个工具只是为了自己使用,因为无法负担心理咨询费用,“后来我收到了大量用户的反馈,他们表示这个工具为他们带来了正面的影响,成为了情感慰藉的来源。”


30岁的Charlotte就是其中之一。去年夏天,这位巴黎郊区的居民开始使用ChatGPT作为她线下心理治疗的补充。“有时候我刚从诊所出来,脑海里还充满了问题,与其再付一次高昂的咨询费,不如直接问ChatGPT。”她回忆道,“我从未完全相信它的每一句话,而是把它当作一种思路启发,就像朋友给你建议,但你不一定都照做。”Charlotte还表示,ChatGPT在回答她的第一个问题时给出的答案非常准确,这让她很快决定投入更多时间:“这简直是一个全新的世界,我可以轻松地聊上一个小时。”


然而,这类“心理医生”型聊天机器人提供的建议有时过于令人信服,反而可能引发悲剧性后果。2023年3月,一位30多岁的比利时研究员在与名为Eliza的聊天机器人密集交流六周后自杀身亡。“那就像毒品一样,他从早到晚躲在那里面,离不开它。”他的妻子在接受采访时表示。


这种过度依赖AI工具的现象被称为“Eliza效应”,得名于上世纪60年代麻省理工学院开发的同名程序。尽管Eliza只能进行简单的模式匹配对话,许多用户却将其当作“知心朋友”,甚至深陷其中。


如今,基于大语言模型的聊天机器人不仅能够进行流畅的口语交流,还能“读懂”用户的情绪。OpenAI日前宣布,最新版本的ChatGPT已具备分析面部表情、语气和语调的能力,从而做出更具同理心的回应。


对此,心理健康领域的专家们纷纷发出警示。巴黎第七大学的心理学教授Serge Tisseron指出,“心理治疗的本质在于人与人之间的联结,AI无法取代这一点。过度使用这类工具,反而可能加剧孤独感和焦虑感。我们需要加强公众教育,引导人们理性看待AI,将其视为辅助工具,而非全能的‘心灵导师’。”


与此同时,监管机构也在行动。欧盟委员会最近发布了《AI法案》,要求在医疗和教育等高风险领域部署的AI系统必须接受严格审查,特别是要防止损害未成年人身心健康的应用。法国国民议会在今年6月通过了决议,呼吁尽快制定聊天机器人管理规范,加强算法透明度和问责制。


不可否认,随着生成式AI的成熟,以聊天机器人为代表的“算法心理医生”正悄然崛起。它们24小时在线、即问即答的特性,确实扩大了心理健康服务的可及性。然而,AI终究无法替代人际互动在情感支持方面的重要性。对于那些徘徊在孤独和焦虑边缘的人而言,与其过度依赖AI,不如尝试走出去,拥抱生活,结交志同道合的朋友,重新建立现实中的情感联结。正如一位接受治疗的网友所言:“我意识到,真正的康复之路,最终还是要靠自己去走。有了这个认知,我对ChatGPT的依赖就减少了。”

医健网
医健网,关注医疗健康行业的人和事!
 最新文章