谷歌DeepMind开发“哈贝马斯机器”:化解社会冲突的AI系统

文摘   2024-10-26 21:00   四川  

谷歌DeepMind的

“哈贝马斯机器”

用AI化解社会冲突的全新尝试

一种基于哲学理论的AI调解系统,

能否让我们在分歧中找到共识?



01. 

社会分裂的现状:

AI调解为何必要?

近年来,全球各地在移民、医疗、气候、文化认同等议题上的社会分裂愈演愈烈,特别是在美国和欧洲,这种分裂逐渐演变成一场价值观上的对立。
2023年Gallup调查显示,80%的美国人认为他们的国家在核心价值观上存在严重分歧。与此同时,欧洲国家也在类似问题上面临日益扩大的社会分歧。
DeepMind团队意识到,这些分裂不仅源于观点的不同,更在于缺乏有效的沟通渠道。许多情况下,人们因沟通方式不当或缺乏理性对话,而变得对立加深
因此,DeepMind开发了“哈贝马斯机器”,希望通过AI帮助人们在复杂议题上达成一定共识,从而缓和社会紧张情绪。



02. 

哈贝马斯哲学:从理论到实践

“哈贝马斯机器”源于德国哲学家尤尔根·哈贝马斯的“交往行为理论”。他认为,理性的沟通应该基于平等、尊重和相互理解,这样才能达成共识。
因此,AI调解的核心理念在于创建一个理想的沟通环境,帮助不同观点的个体找到共识。
“程序问题”而非“本质问题”
哈贝马斯认为,分歧往往源自沟通过程中的程序缺陷,而非议题本身的不可调和性。换句话说,只要沟通机制合理,几乎所有问题都可以通过对话解决
基于这一理念,DeepMind将其技术实现应用于调解领域,开发出一个尝试“模拟理性沟通”的AI系统,力图化解现实中的复杂对立。



03. 

哈贝马斯机器的工作原理

1)核心调解机制:生成与奖励模型的双重协作

“哈贝马斯机器”采用了一种被称为“核心调解机制”的调解模式。它不仅扮演调解员的角色,还利用AI的强大文本处理能力,从各方观点中提炼出核心共识,形成群体声明。这一过程基于两个核心AI模型:
  • 生成模型:基于DeepMind的“Chinchilla”大语言模型,通过汇总不同参与者的观点生成多个候选的群体声明。

  • 奖励模型:分析每位参与者对候选声明的接受度,并预测不同声明的接受概率。最终系统会选择接受率最高的候选声明。

2)多轮反馈机制:从分歧到共识的动态调整

当AI生成群体声明后,参与者可以对声明进行反馈,AI再根据反馈生成新的声明。这个循环过程反复进行,直到所有人都能接受最终的群体声明。这种多轮反馈机制允许系统逐步缩小分歧,通过多次迭代调整,让参与者逐渐达成共识。



04.

实验验证:AI调解的成效如何?

为了测试哈贝马斯机器的调解能力,DeepMind团队进行了多轮实验,首先在众包平台上选取5000多名参与者,并设置了“AI调解”和“人类调解”两组。
结果显示,AI调解组的接受率为56%,人类调解组为44%。不仅如此,许多参与者反馈AI生成的声明在措辞上更为精炼和清晰。
此外,
DeepMind还与英国的Sortition Foundation合作,招募了更具社会代表性的一批参与者,涵盖不同年龄、性别、族裔和社会经济背景。
在200名符合英国社会多样性的参与者中,AI的调解效果依然良好,特别是在某些议题上显著提高了人们的接受度。例如,关于“降低投票年龄”的议题,从讨论前的60%支持率提高到75%。



05. 

争议性话题的取舍:

AI调解的安全考量

为了保护参与者的心理安全,团队选择避开了如跨性别权利这样的高度争议性话题。跨性别议题往往涉及人们的深层文化认同,如果处理不当,容易引发情绪化对抗。
项目负责人克里斯托弗·萨默菲尔德解释说,他们希望尽可能减少情绪化的反应,防止参与者感到被冒犯或不适。
尽管这种筛选保证了实验的平和性,却也带来了新的质疑:现实中的社会分裂往往集中在最具争议的议题上,如果避开这些话题,AI调解的成效是否真的具有代表性?



06.

AI的中立性:真相还是偏见?

随着AI调解走上公共议题的舞台,其“中立性”逐渐受到质疑。部分批评者认为AI存在特定政治偏向
例如,马斯克曾公开质疑AI存在“觉醒偏见(woke bias)”,并推出了“反觉醒AI”Grok。这类言论让部分公众怀疑AI是否真的可以在公共议题上做到客观中立
DeepMind的科学家对此表示谨慎乐观。
他们认为,只要设计严谨,AI可以在开放式问题上保持中立和客观。尽管在某些多项选择测试中可能会表现出微小偏向,但实际操作中,AI在开放性讨论中的表现相对中立。
因此,DeepMind团队相信,哈贝马斯机器仍然能够成为调解冲突的可靠工具


07. 

未来展望与伦理考量:

AI调解的双刃剑

作为调解工具,哈贝马斯机器展现出在化解分歧和促进共识方面的潜力。然而,这种技术也可能被政治或商业力量滥用。
AI调解工具不仅可以帮助公众理解复杂议题,也可能被用来设计迎合大众的政治言论。这使得“哈贝马斯机器”可能在某种程度上成为“社会调控”的工具,引发伦理考量。

“人类的未来:走向共识还是强化分裂?”

在哲学家哈贝马斯的理论中,社会由“生活世界”和“系统世界”构成。生活世界强调沟通与共识,是家庭、朋友、社区等非正式场域的所在;系统世界则围绕金钱、权力和效率运作,通常通过控制和博弈达成目标。
“哈贝马斯机器”究竟能否帮助我们在生活世界中寻求共识,还是会被系统世界所利用,还需进一步观察。


结语:

AI调解的潜力与限制

DeepMind的哈贝马斯机器开创了AI调解冲突的可能性,它能以理性和公平的方式帮助人们在复杂议题上达成共识。
然而,这款AI调解工具的未来,既充满希望,也伴随挑战。
它能否在现实社会中推广?是否会被特定政治和商业力量滥用?这些问题都需要在未来的实践中不断探讨和验证。

快客硬核AI
“速递AI前沿,解读智能科技”
 最新文章