大型语言模型试验表明,事实证据确实可以改变人们的想法。
在COVID-19疫情期间,阴谋论和虚假信息迅速传播。图片来源:Nature研究人员展示了人工智能(AI)可以成为打击阴谋论的有力工具,他们设计了一个聊天机器人,能够揭穿虚假信息,并让人们质疑自己的思维。在9月12日发表在《科学》(Science)上的一项研究中,参与者与该聊天机器人互动了几分钟,后者提供了详细的回应和论据,结果参与者的思维发生了持续数月的转变。这一结果表明,事实和证据确实可以改变人们的想法。“这篇论文真正挑战了关于我们生活在后真相社会的许多现有文献,”来自澳大利亚布里斯班昆士兰科技大学(Queensland University of Technology)的阴谋论和虚假信息研究员凯瑟琳·菲茨杰拉德(Katherine FitzGerald)说。之前的分析表明,人们被阴谋论吸引是因为他们渴望在动荡的世界中获得安全感和确定性。但“我们在这篇论文中发现的东西与这一传统解释相反,”论文的共同作者、美国华盛顿特区美国大学(American University)的心理学研究员托马斯·科斯特洛(Thomas Costello)说。“这项研究的一个可能很酷的应用是,你可以用AI在现实生活中揭穿阴谋论。”调查显示,大约50%的美国人相信某种阴谋论——从1969年阿波罗登月是伪造的,到COVID-19疫苗中含有能够进行大规模监控的微芯片。信息共享便捷的社交媒体平台的兴起加剧了这个问题。虽然许多阴谋论对社会没有太大影响,但那些被接受的阴谋论可能“确实会造成一些实际的伤害,”菲茨杰拉德说。她以2021年1月6日的美国国会大厦袭击事件为例,这部分是由于2020年总统选举被操纵的说法推动的,以及反疫苗言论对COVID-19疫苗接种率的影响。让人们改变想法是可能的,但这样做可能既耗时又费力——而且阴谋论的数量和种类繁多,使得这个问题难以大规模解决。但科斯特洛及其同事希望探索大型语言模型(LLM)的潜力——LLM可以快速处理大量信息并生成类似人类的回应——来应对阴谋论。“它们已经在互联网上受过训练,它们知道所有的阴谋论,也知道所有的反驳,因此这似乎是一个非常自然的选择,”科斯特洛说。研究人员使用GPT-4 Turbo(由位于加利福尼亚州旧金山的ChatGPT创作者OpenAI推出的最新LLM)设计了一个定制聊天机器人,该机器人经过训练能够有说服力地反驳阴谋论。然后,他们招募了超过1000名参与者,这些参与者的人口特征与美国人口普查的特征(如性别和种族)相匹配。科斯特洛说,通过招募“有不同生活经历并带来自己视角的人”,团队可以评估聊天机器人揭穿各种阴谋论的能力。每个参与者都被要求描述一个阴谋论,分享他们认为该阴谋论成立的原因,并以百分比表示自己信念的强度。这些细节与聊天机器人共享,后者随后与参与者进行了对话,指出破坏或揭穿该阴谋论的信息和证据,并回应参与者的问题。聊天机器人的回答详尽且细致,通常达到数百字。平均而言,每次对话持续约8分钟。这一方法被证明是有效的:参与者在与聊天机器人互动后,自我评估对所选阴谋论的信心平均下降了21%。25%的参与者从信心超过50%转变为不确定。对于控制组而言,这一转变微乎其微,他们在相似的时间内与同一聊天机器人就不相关的话题进行了交谈。两个月后的后续调查显示,许多参与者的观点转变仍然存在。尽管研究结果令人鼓舞,研究人员指出,参与者是有报酬的调查对象,可能无法代表那些深陷阴谋论的人。菲茨杰拉德对AI在打击阴谋论方面的潜力感到兴奋。“如果我们能够找到一种方法来干预并阻止线下暴力的发生,那么这总是一件好事,”她说。她建议后续研究可以探索评估聊天机器人有效性的不同指标,或使用安全措施较少的LLM复制这项研究,以确保它们不会强化阴谋论思维。之前的研究对AI聊天机器人“幻想”出虚假信息的倾向提出了担忧。该研究确实小心地避免了这种可能性——科斯特洛的团队请了一位专业事实核查员来评估聊天机器人提供的信息的准确性,核查员确认其陈述中没有虚假或政治偏见的内容。科斯特洛说,团队计划进一步进行实验,研究不同的聊天机器人策略,例如测试当聊天机器人不再礼貌时会发生什么情况。他们希望通过确定“说服不再起作用的实验”,他们将更多地了解是什么让这项研究如此成功。这篇报道揭示了人工智能(AI)在打击阴谋论方面的潜力,尤其是通过使用大型语言模型(LLM)揭穿虚假信息并促使人们反思自己的信念。技术影响的评估:文章通过实验展示了AI对人类认知产生的直接影响,尤其是阴谋论的信念。这种改变表明,AI不仅能理解和回应复杂的心理和社会问题,还可以通过有效的信息交流来削弱虚假信息的影响力。这一发现挑战了关于“后真相社会”的既有观点,表明在面对虚假信息时,事实和证据依然可以起到作用。这对社会学、心理学以及技术研究具有重要的启示作用,表明AI技术在打击错误信息上的实际应用潜力巨大。AI和社交媒体平台的关系:与社交媒体推动阴谋论和虚假信息传播的现象相对,AI则被证明能够通过批判性对话来对抗这些有害信息。LLM模型已展示出对阴谋论的理解与反驳能力,且这种干预效果在实验中展现了相当的持久性。这意味着,AI不仅有望应对当前社交媒体的负面影响,甚至可能为监管平台和净化信息生态提供新的工具。这一转变标志着AI技术在社交和传播领域的积极应用潜力。学术研究与伦理问题:尽管实验结果鼓舞人心,报道也提醒我们需要谨慎对待AI对人类思维的影响。参与者是经过招募的研究对象,可能不完全代表那些深陷阴谋论的人群。此类实验应该进一步扩展,研究在不同文化背景和政治倾向下的AI对话策略。特别是,未来研究需要进一步探索在真实环境中如何确保AI反驳信息的准确性和公正性,避免强化既有偏见。这也为AI伦理学的研究提出了新问题,如何设计出既有效果又能够尊重多元视角的AI应用,是一个值得进一步探讨的课题。AI对教育与社会干预的潜力:这项研究为教育领域和政策制定者提供了重要启示。AI有望作为一种教育工具,用于训练人们如何识别虚假信息并加强批判性思维能力。此外,它在公共政策和危机管理中的应用也令人期待,尤其是在需要快速、广泛地传播正确信息时,例如疫情期间的公共健康危机。AI可以作为一个智能对话者,帮助个人摆脱虚假信息的困境。后续发展与创新:未来可以进一步探索AI在不同对话风格下的效果,例如当AI采取更严厉或强势的态度时,人们的反应是否不同。此外,还应测试AI是否能够在更加分裂的政治环境下发挥作用,特别是在深度社交分裂的地区或群体。整体而言,这篇报道展示了AI在应对复杂社会问题上的广泛应用潜力,并为后续研究奠定了基础。综上所述,这篇文章展示了AI技术在对抗虚假信息、减少阴谋论信仰中的有效性和未来潜力。AI不仅能够成为社会治理和教育的重要工具,还为我们思考如何在伦理框架内发挥技术优势提供了新的视角。未来的研究方向不仅应聚焦于AI的技术改进,还应关注其社会影响和伦理责任。1. https://doi.org/10.1038/d41586-024-02966-6