来源 https://psycnet.apa.org
大家是否想过,那些在数字世界中游刃有余的大型语言模型(LLM)们,比如GPT-3.5,是否也能像我们一样,在游戏中展现出人类的决策智慧呢?别急,让我们一步步揭开这层神秘的面纱。首先,让我们来认识一下今天的主角——Chat GPT,一个基于GPT-3.5的对话代理。这个由OpenAI打造的AI系统,经过了大量的自然语言数据训练,已经能够生成类似人类的回答。但问题来了,它是否真的能理解我们的决策游戏呢?在做决策的时候是否会出现一些小“毛病”呢?
我们先来看看LLM 是怎么生成语言的。它就像一个聪明的小精灵,通过分析大量的文本,识别出语言中的模式,然后根据上下文生成最有可能的下一个单词。这不是死记硬背,而是一种超厉害的“魔法”。但是,它没有人类那种能理解事物的认知能力,也没有情感,就像一个没有感情的答题机器。那启发式在 LLM 里到底存不存在呢?有人说,启发式和相关效应那都是依赖人类的认知和情感过程,LLM应该没有。可又有人说,语言和认知、情感过程有双向交互,说不定 LLM 能从人类的文本里学到语言模式,也表现出类似的决策效应。这是一个值得思考的问题,语言到底在人类的决策里起啥作用呢?为了搞清楚这个问题,咱就开始了四项超级有趣的研究。第一个研究是锚定启发式。给Chat GPT 和人类都出了个小难题,让他们估计孟菲斯一个调酒师家里的书的数量。结果我们发现Chat GPT 和人类都被锚定了,高锚的时候估计的数量就多,低锚的时候就少。这就像我们去买东西,商家标个高价,我们就觉得这东西应该挺值钱;标个低价,我们就觉得可能不咋地。看来Chat GPT 也跟咱人类一样,容易被这些随机的数字影响呢。第二个研究是代表性和可得性启发式。我们弄了个类似琳达问题的合取谬误提示,还有个买手机的提示。结果Chat GPT 和人类都容易掉进合取谬误的“坑”里,还会被那些容易得到的信息影响。就像我们买手机的时候,听到别人说某个手机不好,就很可能不买那个手机了,哪怕它其实挺不错的。Chat GPT 也一样,容易被这些轶事信息左右。第三个研究是框架效应。在临床背景下,让Chat GPT 和人类评价一种药物的疗效。我们发现信息呈现方式一变,他们的评价就不一样了。就像我们看问题,从不同的角度看,感觉就完全不同。Chat GPT 也不例外,它也会被这框架效应影响。第四个研究是禀赋效应。我们弄了个硬币的问题,让Chat GPT 和人类选择捐出哪一枚硬币。结果,他们都更倾向于保留自己拥有时间长的那枚硬币。这就像我们对自己的东西总是更有感情,觉得它更值钱。Chat GPT 也有这种“恋旧”的小毛病呢。在这四个研究中,我们不仅让Chat GPT参与了游戏,还让它与人类玩家同台竞技。我们发现Chat GPT跟人类有很多相似的地方。有趣的是,Chat GPT自己对此却有着不同的看法。它认为自己没有展示认知偏见的能力,因为它缺乏人类的认知和情感因素。但同时,它也承认,它的回答可能反映了训练数据中的某些偏见或启发式。这让我们不禁思考,这些决策效应是否真的是由语言模式和联想驱动的。如果连没有情感的AI都能展现出这些效应,那么在拥有丰富情感和认知能力的人类中,语言可能扮演着更加重要的角色。当然,我们的研究还只是初步的,还有许多局限性。我们没有使用先前测试过的提示,而是创建了新的提示来测试这些效应。我们的工作集中在GPT-3.5上,而对其他模型的测试还有待进一步研究。此外,Chat GPT对提示的敏感性也让我们意识到,未来的研究需要更加细致和深入。尽管如此,我们的研究为理解LLMs与人类认知的关系提供了新的视角。这些发现不仅对心理学家和认知科学家具有重要意义,也为人类与AI的互动提供了新的启示。最后,让我们以一个幽默的比喻来结束这篇文章:如果AI是新世界的探险家,那么语言可能就是那张能够引领它们发现新大陆的古老地图。而我们的研究,不过是在这张地图上标记了第一个“X”。未来的探险,才刚刚开始。所以啊,小伙伴们,让我们一起期待未来的研究,看看这语言和人工智能到底能给我们带来多少惊喜吧!本文内容来源于网络,不代表三仓心理学界观点,如有侵权请联系后台。
如您或朋友有专著/期刊出版计划
请留言“出版”
或添加小编微信:SC-Psy咨询
✓ 拉您进心理学学术交流微信群,
群组主要交流期刊经验和发表互助,
能及时了解期刊动态,与同专业学友交流学习。
(有落灰痕迹 低价包邮)
三仓学术出版是国内学术出版领先的专业出版商。十年来,秉承"专业学术 精于学术”的理念,一心致力于学术出版的发展,以优秀学术论著为主要出版方向。力图为作者创造更为优质的出书体验,为作者提供方便快捷的出版服务。