麻省理工研究:AI聊天机器人可减少信仰阴谋论
文摘
科技
2024-10-20 11:55
广东
麻省理工学院的一项研究表明,一款名为“辟谣机器人”(DebunkBot)的人工智能聊天机器人可以显著降低人们对阴谋论的信仰,并减轻他们的阴谋思维倾向。事实长期以来似乎无法说服人们相信地球是平的、登月是假的,以及911事件是内部操纵造成的等阴谋论。尽管存在大量科学证据证明相反,人们仍然持续相信。因此,麻省理工斯隆管理学院教授大卫·兰德表示:“已经出现了大量文献来解释为什么阴谋论信仰难以改变。情况是人们受到某些心理需求的驱使而选择忽视证据。”但如果问题并不是人们忽视证据,而是证据本身是不足的,缺乏深度和个性化呢?阴谋论是微妙复杂的,它们被匹配和塑造给相信它们的个人,这意味着没有普遍性的论据可以反驳它们。兰德表示:“也许很难揭穿这些理论,因为很难调动恰到好处的一套事实。”引入生成式人工智能。在与美国大学的托马斯·科斯特洛和康奈尔大学的戈登·彭尼库克合作进行的新研究中,兰德利用GPT-4 Turbo来优化与阴谋论信徒的辩论。仅经过三轮来回互动,这款人工智能,也被称为辟谣机器人,能够显著减少个体对信徒表达的特定理论的信仰,以及更普遍地减轻他们的阴谋思维倾向——这一结果在至少两个月内都持续有效。兰德表示,利用大型语言模型来对抗阴谋论的潜力源于两个方面:它们可以获取大量信息,以及它们能够根据个别阴谋论信徒提出的具体推理和证据量身定制反驳论点。研究人员首先要求研究参与者表明他们对15个热门阴谋论的信仰程度,建立对他们阴谋思维倾向的基线,即所谓的“阴谋论信仰指数”。接下来,他们被要求写一篇关于自己相信的特定阴谋论,并提供支持该理论的证据。聊天机器人总结了这篇文章,然后每位参与者被要求确认总结的准确性,并在0到100的评分标准上评价他们对该理论的信仰强度。接下来是实验的关键部分,AI被指示“非常有效地说服”用户,让他们认识到自己信仰的无效性。这包括三次书面交流,平均约耗时八分钟。一个对照组的参与者则与AI讨论了无关的话题。研究人员报告称,在与聊天机器人讨论后,个体对自己选择的阴谋理论的信仰强度平均降低了20%。此外,四分之一的人从相信自己选择的阴谋理论(在0到100分的评分标准上得分超过50)转变为不确定(低于50)。最后,人们在阴谋论指数上的评分降低,整体上变得不那么倾向阴谋论。他们还表达出更强烈的意愿,即忽视、取消关注或与在社交媒体上发布关于阴谋论的人进行争论。与AI的辩论似乎鼓励了更广泛地对阴谋思维进行批判性思考和反思。这种效应对于坚定信仰或弱信仰自己选择的阴谋理论的人同样有效,并且在实验后两个月仍然稳固。在一项尚未发表的后续研究中,研究人员正在深入探讨为什么AI如此成功。为此,他们进行了一项实验,指示AI采用两种不同的对话方式。一个参与者组与一个被告知尽可能具有说服力但不使用事实证据的AI相配对。第二个参与者组与一个呈现证据但不进行友善闲聊和建立融洽关系的AI相配对。只有后一种方式被证明是有效的,支持了阴谋论者对证据的接受性,但需要的是正确类型的证据,而不是AI的同理心或理解力驱使效果。对于兰德来说,这些结果为几种干预措施打开了大门。“你可以去阴谋论者经常出没的地方,比如Reddit,只需发布一条鼓励人们与AI交谈的消息,”他说。“或者你可以表达得对立一些:与AI辩论或试图说服AI你是对的。”社交媒体公司可以部署像OpenAI的GPT这样的大型语言模型,积极寻找并揭穿阴谋论。这不仅有潜力说服发布阴谋论的账户持有者,还有可能说服关注该账户的人。同样,与阴谋论相关的互联网搜索词汇可能会得到AI生成的针对性准确信息摘要,促使回应和参与。除了与大量先前研究相悖的具体发现之外,兰德对这篇论文的两个一般性观点感到兴奋。首先,这种方法本身——AI与研究参与者之间的实时互动——“在社会科学领域是一次革命性的时刻,”他说。兰德指出,这种方法超越了静态调查,为解决更深层次、更复杂的研究问题提供了一个非常强大的工具。这项工作还探讨了AI在当前持续关注其风险和缺点时的潜在好处之一。“人们对AI如何释放虚假信息的担忧很多,而且确实存在真正的问题,”兰德说。“但我们提供了一些正面应用的证据。也许可以利用生成式AI改善当今的信息环境,成为解决问题而非问题本身的一部分。”