2024年12月21日至22日,首届ADEFT-XueShuo冬季学术研讨会“社科人工智能与人工智能经济学”在线上成功举办。
此次会议由清华大学孵化的学说平台主办,康奈尔大学商学院金融科技中心和斯坦福金融科技高阶实验室等全球多个研究机构和研究中心提供学术支持。
研讨会联席组委由康奈尔大学约翰逊商学院Rudd家族管理学讲席教授、金融学教授及《Management Science》金融主编叢林(丛林),与斯坦福大学管理科学与工程系终身教授Markus Pelger组成。
行为经济学视角下的AI研究:偏差与矫正
在2024年冬季AI研讨会上,华盛顿大学奥林商学院的黄杏教授进行了一场关于AI行为经济学的深度演讲。黄教授开场指出,行为金融和经济学领域在过去多年致力于描述和理解人类行为,而现在面临着一个新的挑战:如何帮助个人做出更好的决策。这个目标可以通过三种途径实现:通过教育赋能投资者、设计"助推"机制引导决策,以及提供个性化建议。而AI技术在这些方面,特别是在提供个性化建议方面展现出巨大潜力。
黄教授指出,随着AI技术的进步速度远超预期,其在金融和经济活动中的应用日益广泛,从个性化客户服务到风险管理。特别是生成式AI的出现,使其被视为一种"异类智能"(alien intelligence)而非简单的人工智能,可能具有与人类完全不同的能力和动机。这使得理解AI的决策机制和识别其潜在偏差变得尤为重要。
为了研究AI的决策行为,研究团队首先借鉴了经济学家对人类决策行为的分析框架。在此基础上,他们从认知心理学和实验经济学两个领域精心设计了一系列实验问题。认知心理学实验包括研究偏好(如前景理论中的递减敏感性)和信念(如样本量忽视)的问题。同时,他们也采用了更贴近实际场景的实验经济学任务,如预测金融时间序列和评估投资吸引力。
研究分析了包括GPT、Claude、Gemini和Llama在内的四个主要LLM家族的模型,每个家族选取了不同版本和参数规模的模型进行对比。研究发现了一个有趣的对比:在涉及信念的问题上,更先进和规模更大的模型表现出更理性的决策;而在偏好相关的问题上,这些模型反而表现出更多的非理性和类人类特征。这种差异可能源于AI系统的三个基本组成:数据、架构和训练方法。信念类问题通常有客观的正确答案,可以通过更大的训练数据和更好的模型架构来提升性能。相比之下,偏好问题更加主观,且在训练过程中使用的人类反馈学习(RLHF)可能强化了模型与人类偏好的一致性。
针对观察到的偏差,研究团队探索了多种矫正方法,包括角色启动、结构化指导等。研究发现这些方法的效果存在异质性,某些方法在特定类型的偏差矫正上更有效。例如,在前景理论相关的决策偏差中,结构化指导和角色启动的效果各有优势。
黄教授在演讲最后探讨了这项研究对人机交互的启示。她指出,虽然AI可能帮助减少决策偏差,但也可能带来一些意想不到的后果,如企业可能利用算法放大既有偏差,或过度依赖AI导致认知能力退化。更广泛地看,AI对社会不平等的影响也值得关注:它可能通过民主化高质量决策工具来减少不平等,但也可能因为高质量AI的获取与个人财富和能力相关而加剧不平等。这些发现为理解和改进AI辅助决策提供了重要的理论指导,也提醒我们需要谨慎考虑AI在决策过程中的角色。
疯狂暗示↓↓↓↓↓↓↓↓↓↓↓