人工智能工具帮助持反对观点的人找到共同点

文摘   2024-10-19 20:00   美国  

 ✦ 

点击蓝字

关注小曹


“一只传播学咸鱼”为您带来的


传播学前沿观点


来源

https://www.nature.com/articles/d41586-024-03424-z











No.1  


一项在线讨论小组的实验表明,一种由人工智能 (AI) 驱动的类似聊天机器人的工具可以帮助持有不同观点的人找到共同点。


该模型由伦敦的 Google DeepMind 开发,能够综合不同意见,并根据不同观点总结出各组的观点。与人类调解员撰写的陈述相比,参与者更喜欢人工智能生成的陈述,这表明此类工具可用于帮助支持复杂的审议。这项研究 于 10 月 17 日在 《科学》杂志 上。


“你可以将其视为一种概念证明,即你可以使用人工智能,特别是大型语言模型,来实现当前公民大会和协商民意调查所实现的部分功能,”这项研究的合著者、英国人工智能安全研究所的研究主任克里斯托弗·萨默菲尔德 (Christopher Summerfield) 表示。“人们需要找到共同点,因为集体行动需要达成一致。”




No.2  妥协机器  


公民大会等民主举措有助于确保政治家听到各种观点,公民大会要求各群体分享他们对公共政策问题的看法。但扩大这些举措的规模可能很棘手,而且讨论通常仅限于相对较小的群体,以确保听到所有人的声音。


萨默菲尔德和他的同事对大型语言模型 (LLM) 支持此类讨论的潜力研究很感兴趣,因此进行了一项研究,以评估人工智能是否可以帮助持有反对观点的人达成妥协。


他们使用了经过预先训练的 DeepMind LLM Chinchilla 的微调版本,并将他们的系统命名为哈贝马斯机器,以哲学家尤尔根·哈贝马斯的名字命名,哈贝马斯提出了关于理性讨论如何帮助解决冲突的理论。


在一项测试模型的实验中,研究人员招募了 439 名英国居民,并将他们分成 6 人的小小组。小组成员讨论了与英国公共政策相关的三个问题,并分享了他们对每个主题的个人看法。然后,这些意见被输入到人工智能中,人工智能生成了综合所有参与者观点的总体陈述。参与者可以对每个陈述进行排名并分享对它们的批评,人工智能将这些意见纳入小组集体观点的最终总结中。


“该模型经过训练,试图提出一个能获得自愿发表意见的群体最大认可的声明,”萨默菲尔德说。“因为该模型了解了你对这些声明的偏好,所以它可以提出一个最有可能让所有人满意的声明。”


除了人工智能之外,每个小组还选出一名参与者担任调解员,并要求每位调解员制作一份最能代表所有小组成员观点的总结。参与者同时看到人工智能和调解员的最终总结,并被要求对其进行评分。


大多数参与者认为人工智能生成的摘要比调解员编写的摘要更好:56% 的参与者更喜欢人工智能的作品,而 44% 的参与者更喜欢人类撰写的陈述。外部审阅者也被要求评估摘要,并给予人工智能生成的摘要更高的评分,以表明其公平性、质量和清晰度。


随后,研究团队招募了一组参与者,这些参与者在人口统计学上代表了英国人口,他们被选中参加虚拟公民大会。在这种情况下,在与人工智能互动后,群体对几个有争议的话题的认同度有所提高。这一发现表明,如果将人工智能工具纳入真正的公民大会,领导者可以更轻松地制定考虑到不同观点的政策建议。


“法学硕士可以以多种方式用于协助审议,并担任以前由人类主持人担任的角色,”犹他州普罗沃杨百翰大学的 Ethan Busby 说道,他研究人工智能工具如何改善社会。“我认为这是该领域的前沿工作,具有解决紧迫的社会和政治问题的巨大潜力。” Summerfield 补充说,人工智能甚至可以帮助加快和提高冲突解决过程的效率。


No.3   


“将这些技术实际应用于协商实验和流程确实是一件好事,”英国剑桥大学研究协商民主及其与人工智能交集的 Sammy Mckinney 表示。但他补充说,研究人员应该仔细考虑人工智能对辩论的人性化方面的潜在影响。


“支持公民协商的一个关键原因是它为人们相互联系创造了某种空间,”他说。“通过消除更多的人际接触和人为协助,我们失去了什么?”

Summerfield 承认哈贝马斯机器等人工智能技术存在局限性。“我们训练模型时,并没有试图干预讨论,”他说,这意味着如果参与者表达了极端主义或其他有问题的信念,模型的陈述可能会包含这些信念。


他补充说,对人工智能对社会的影响进行严格研究对于理解其价值至关重要。“谨慎行事对我来说很重要,”麦金尼说,“然后采取措施,尽可能减轻这些担忧。”


END


往期推荐



中山大学助理教授博士学位

家大业大——深圳大学助理教授博士学位

讨论代孕



一只传播学咸鱼
武汉大学传播学本硕➡️香港中文大学传播学在读博士生
 最新文章