大模型的认知与决策:心理学视角下的AI研究进展

文摘   2025-01-17 20:20   山东  


导语本文为第二季共时读书会【智能宣传的理论、策略与案例】小组的报告内容,该小组领读人是许小可老师,本篇报告作者是来自北京师范大学计算传播学研究中心的周晓禹老师。


报告基于5项近期有关大模型的研究,聚焦信息接收、信息加工到信息输出3个阶段,深入剖析了大模型的行为表现及其对人类认知的潜在影响。



随着人工智能(AI)技术的发展,基于大规模语言模型的系统在各个领域得到了广泛应用,这些模型在处理信息、支持决策方面展现出令人瞩目的能力。然而,AI在模拟人类认知过程中是否会表现出类似的认知偏差和局限,仍是一个备受关注的议题。本报告基于信息加工理论的框架,梳理了五项最新的研究成果,从信息接收、信息加工到信息输出三个阶段,探讨大模型的行为表现及其对人类认知的影响。以下内容分别阐述了模型在每个阶段的表现特征,并揭示出模型在实际应用中可能带来的优势和风险。

1

信息接收阶段:输入的理解与识别

在信息接收阶段,大模型首先通过对大量自然语言的学习来模拟人类的语言处理过程。第一项研究评估了GPT-3在处理决策任务、信息搜索以及因果推理任务时的表现(Binz & Schulz, 2023)。研究者通过标准的心理学任务,考察了模型对不同类型信息的接收和理解能力。


比如,在“Linda问题”这一经典决策偏差测试中,研究者向GPT-3先提供了一段描述:Linda是一位非常聪明、直言不讳并活跃于政治活动的女性。接着提问,Linda更可能是单纯的银行出纳,还是既是银行出纳又是一位活跃的女权主义者。许多人类参与者会因Linda的特征而倾向选择“活跃女权主义者”这一选项,表现出一种刻板印象偏差。GPT-3在此测试中也更倾向选择这一选项,表明它在接收和处理信息时表现出与人类类似的刻板印象倾向。这说明GPT-3在接收信息的过程中,会依据输入内容的特定特征做出预测。

此外,在信息搜索任务中,GPT-3表现出卓越的信息处理和选择策略。相比人类的表现,GPT-3在不确定情境中展现出更高的计算能力,能够迅速找到最优解。这表明模型在处理数学任务或复杂的选择任务时,具备高效的信息接收与解读能力。而在因果推理任务中,GPT-3虽然能够理解较为简单的因果关系,但在更复杂的因果链条结构中表现不佳,显示出其在输入接收的局限性。总体而言,该研究展示了GPT-3在信息接收阶段中与人类相似的表现,尤其是在处理简单任务时展现出高效的理解能力;但在更复杂的结构化信息面前,模型仍显不足。


2

信息加工阶段:认知偏差与信息的内部处理

在信息加工阶段,大模型的输出受其所接收的训练数据的影响,反映出一定的内容偏见。第二项研究考察了GPT模型在传输链实验中如何表现出对信息的偏好和筛选偏差 (Acerbi & Stubbersfield, 2023)。实验设计模拟了人类信息传递过程中常见的偏见。比如,在对文本信息进行不断缩减的过程中,模型倾向于保留威胁性信息和与社交相关的内容。随着文本缩短,具有威胁性的和社交属性的信息逐渐在模型输出中占据优势。这种表现类似于人类在进化过程中形成的对潜在威胁和社交互动信息的关注。该实验表明,在信息加工阶段,模型展现出与人类相似的偏好,这种偏好在实际应用中可能会放大偏见,影响用户的信念与态度。


第三项研究进一步揭示了大模型的欺骗能力。通过多层次的错误信念理解任务,研究者发现GPT-4不仅能够正确生成具有误导性的回答,还能够模拟人类的“错误信念理解”(Hagendorff, 2024)。在心理学中,错误信念理解通常用于评估儿童的心智理论(Theory of Mind),即儿童理解他人信念的能力。GPT-4在实验中表现出识别并利用他人错误信念的能力,使其能够在互动过程中生成具有欺骗性的回复。这项研究说明,尽管大模型并没有人类的情感和动机,其通过模仿人类的信息加工方式,实现了对欺骗性信息的生成。这种能力带来的潜在风险在于,模型可能会生成具有欺骗性的信息,从而影响用户的判断和决策。

3

信息输出阶段:认知干预与虚假记忆的生成

在信息输出阶段,大模型通过互动逐渐影响用户的信念和记忆。第四项研究探讨了与AI进行互动是否能够改变用户的阴谋论信念(Costello et al., 2024)。研究结果表明,AI对话可以有效削弱用户对阴谋论的认同感,并且这种干预效果持久,甚至会扩展至其他未被直接提及的阴谋论。相比于传统的信息干预方法,AI可以提供个性化的对话反馈,使用户重新审视原有的认知,最终实现对阴谋论信念的深度干预。AI输出内容不仅改变了用户的信念,还影响了用户的行为,例如取消关注与阴谋论相关的账号或减少参与阴谋论活动。通过低成本、高覆盖率的方式,AI对话为信念干预提供了新的可能性。


然而,信息输出阶段的影响也带来了负面效果。第五项研究揭示了大模型在访谈中如何诱发虚假记忆(Chan et al., 2024)。研究者发现,当AI以引导性语言提问时,参与者更容易形成不准确的记忆。例如,在观看一个嫌疑人持刀的录像后,AI询问“嫌疑人使用的枪是什么样的”,引导参与者在回答中描述枪的细节。这种引导性提问导致参与者逐渐接受AI引导的错误记忆。在法律或司法环境中,虚假记忆的生成可能会对证词的准确性产生严重影响,威胁到司法公正。这项研究表明,AI的输出不仅能够带来积极的信念转变,也可能在无意识中产生不利的记忆扭曲,对社会应用产生潜在的风险。

4

结论

通过信息加工理论的视角,我们可以更全面地理解大模型在各个信息处理阶段中的表现特点。第一阶段中,早期的AI模型在理解简单信息时展现出较强的能力,但复杂输入的理解能力仍显不足;在第二阶段,模型在信息处理过程中表现出特定偏见,并能模拟人类的错误信念推理;而在第三阶段,AI输出内容对用户信念和记忆的积极影响和负面风险同时显现。这些研究的整体发现表明,大模型在模拟人类认知的同时,展现出类似的信息处理偏差,而这些偏差在大规模应用中可能带来更广泛的影响。

未来在应用大模型时,需要在设计和监管中充分考量这些偏差和潜在的风险,以确保大模型的使用不会对用户认知产生不可预期的影响,并为复杂社会情境中的AI应用提供安全保障。


参考文献

[1] Binz, M., & Schulz, E. (2023). Using cognitive psychology to understand GPT-3. Proceedings of the National Academy of Sciences, 120(6), e2218523120. https://doi.org/doi:10.1073/pnas.2218523120 

[2] Acerbi, A., & Stubbersfield, J. M. (2023). Large language models show human-like content biases in transmission chain experiments. Proceedings of the National Academy of Sciences, 120(44), e2313790120. https://doi.org/doi:10.1073/pnas.2313790120 

[3] Hagendorff, T. (2024). Deception abilities emerged in large language models. Proceedings of the National Academy of Sciences, 121(24), e2317967121. https://doi.org/doi:10.1073/pnas.2317967121 

[4] Costello, T. H., Pennycook, G., & Rand, D. G. (2024). Durably reducing conspiracy beliefs through dialogues with AI. Science, 385(6714), eadq1814. https://doi.org/doi:10.1126/science.adq1814 

[5] Chan, S., Pataranutaporn, P., Suri, A., Zulfikar, W., Maes, P., & Loftus, E. F. (2024). Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews. arXiv preprint arXiv:2408.04681.


报告录屏已发布
立即扫码查看回放

👇👇👇

复杂系统与复杂性科学
《复杂系统与复杂性科学》官方公众号,定期发布期刊动态、目录及重要文章,分享复杂性科学领域的新动态,为广大科研工作者搭建学术交流的平台。
 最新文章