一项新研究探索了人工智能如何融入我们的思维,从而创建一个个性化的认知层,塑造决策并影响人类的能动性。(Chiriatti, M., Ganapini, M., Panai, E. et al. The case for human–AI interaction as system 0 thinking. Nat Hum Behav 8, 1829–1830 (2024). https://doi.org/10.1038/s41562-024-01995-5)
ChatGPT 4 根据以下提示生成了此图像:“生成一张你认为代表你自己的图像”
马西莫·基里亚蒂
朱塞佩·里瓦
马西莫·基里亚蒂、 朱塞佩·里瓦
发布日期:2024 年 11 月 14 日,下午 3:06
人们在决定穿什么衣服之前会查看手机的天气应用,使用谷歌地图导航,并让 ChatGPT 起草电子邮件,这些都变得越来越普遍。这些日常的人工智能互动变得如此无缝,以至于它们现在将我们的认知能力扩展到了自然极限之外。
这一现象是由米兰圣心天主教大学的研究人员在 《自然人类行为》杂志 上 发表的一项新的多学科研究中发现的,他们将其称为“系统 0”。
理解“系统 0”
探索人工智能系统如何运作至关重要,因为它们的影响扩展了人类的认知能力,但缺乏道德主体性。这种不平衡在个性化方面会成为问题,个性化可能会将用户限制在“过滤泡沫”中,从而限制批判性思维并可能削弱独立判断。人工智能算法的不透明性使问题进一步复杂化。
一支在人工智能、人类思维、神经科学、人类互动和哲学方面拥有专业知识的研究团队将“系统 0”描述为一个自主的人工智能层,该层日益嵌入到我们的思维和决策中。
要理解系统 0,必须考虑思维的工作原理。丹尼尔·卡尼曼等心理学家 将人类思维描述 为两个系统:系统 1(快速、直觉)和系统 2(缓慢、分析)。
系统 1 处理常规任务,例如识别面孔或驾驶熟悉的路线,而系统 2 处理复杂问题,例如解决数学方程式或计划旅行。
“系统 0” 如何适应我们
然而,系统 0 引入了一个新的层,为两个系统提供数据,以适应个人习惯。
例如,在选择餐厅时,系统 1 可能会回应 Yelp 上的照片,而系统 2 会评估评论和价格——但两者都会根据就餐偏好、预算限制和过去的选择与 AI 定制推荐进行交互。
人工智能不仅仅提供一般性的建议;它还会根据您的互动历史创建个性化的信息格局。
同样,在使用 Google 地图导航时,用户的直觉和计划依赖于 AI 处理的数据。这些数据还结合了旅行习惯,从而创建个性化的预测性指导。System 0 不仅处理实时数据,还利用用户的历史偏好。然而,将 AI 集成到认知过程中带来了有记录的挑战。
系统 0 在多个领域中保留着选择、行为和偏好的持久记忆,从而产生了研究人员所称的“认知阴影”——一个由人工智能驱动的层,它不仅可以跟踪当前的行为,还可以保留过去的选择。
人工智能在决策中的伦理问题
然而,这种记忆增强认知层的意义深远。系统 0 基于记忆的设计意味着它不仅能帮助处理当前数据,还能从 AI 对过去行为的记忆中获取信息。这提出了关于自主权和隐私的关键问题,因为决策越来越多地受到对个人模式的数字洞察的影响。此外,与人类认知不同,系统 0 的功能不同。
正如 Pearl 和 Mackenzie 在 《为什么之书》中所讨论的那样,人工智能可以识别数据中的模式,但无法理解因果关系——这是人类推理的基本部分。这种限制意味着,虽然人工智能可以识别模式,但它可能会错过人类自然掌握的根本因果关系。
这种差异引发了人们对人工智能在我们的决策中所扮演的角色的担忧。 研究人员指出,尽管人工智能能产生类似于人类思维的反应,但它缺乏真正的语义理解。
“黑匣子”问题
人类认知过程对系统 0 的依赖性越来越强,这引发了人们对人类自主性和信任的基本担忧,研究人员对此进行了广泛的研究。Taddeo 和 Floridi (2011) 提出了“电子信任”的概念 —— 一种独特的信任动态,其中人工智能可以发挥影响力但不具备道德主体性。
这种不对称在人工智能个性化中会成为一个问题,它缩小了我们的信息接触范围,可能将用户限制在限制批判性思维的“过滤气泡”中。
即使人工智能的建议与个人偏好相冲突,用户也经常会接受这些建议,这种趋势被称为“算法同质化”,可能会削弱独立判断。
人工智能算法的不透明性加剧了这个问题。由于复杂的人工智能流程通常对用户隐藏,理解人工智能结论变得困难,影响了我们做出明智判断的能力。
这种“黑匣子”问题引发了人们对人工智能辅助决策中责任和人类行为的严重担忧:随着系统 0 越来越深入地融入我们的决策过程,责任的分配变得越来越不明确。当通过人机协作做出决策时,就会产生“责任鸿沟”,无论是人类还是人工智能系统都无法对结果负全部责任。
或许最重要的是,系统 0 的整合影响了人类作为思维生物的根本性质。尽管系统 0 增强了认知能力,但它也有可能削弱人类的能动性。
平衡人工智能的潜力与人类的自主性
由于人们依赖人工智能进行决策支持,他们可能会失去磨练认知技能的重要机会。
这可能会导致 一种有问题的认知卸载形式,即对外部系统的依赖会损害智力发展。出于这些原因,设计支持自主性而不越界的人工智能对于维持这种强大的人机伙伴关系至关重要。
随着人工智能的发展,理解和塑造我们与系统 0 的关系将变得越来越重要。挑战在于如何利用其潜力,同时保留人类的特质——创造意义、做出判断和保持智力独立的能力。
Massimo Chiriatti是联想首席技术与创新官。他专注于人工智能解决方案,旨在为人工智能帮助人类发展更好的世界做出贡献。他因其在人工智能战略方面的专业知识而受到认可,并曾在天主教圣心大学和路易斯大学等全球知名大学任教。
Giuseppe Riva 博士是意大利米兰天主教大学人文技术实验室主任,也是该校的普通和认知心理学全职教授。人文技术实验室 (HTLAB) 是天主教大学的实验室,旨在研究人类经验与技术之间的关系。人文技术实验室研究与数字技术(尤其是人工智能和机器人技术)日益普及相关的心理社会、教育学、经济、法律和哲学方面的问题。