NBER:评估求职推荐系统中的偏见:对算法的审计

学术   2024-12-07 22:28   美国  

本期推荐一篇最新发表在NBER上的论文《评估求职推荐系统中的偏见:对算法的审计》。近年来,随着互联网的发展,推荐系统在电商、流媒体以及求职平台等领域得到了广泛应用。这些系统通过算法为用户提供个性化推荐,帮助用户在海量信息中快速找到符合需求的内容。然而,这类系统也引发了公平性方面的担忧,尤其是在求职领域。现有研究表明,即使没有设计者的歧视意图,推荐算法可能仍会因为数据或模型本身的偏向性而强化性别或其他刻板印象。本研究旨在探索求职推荐系统中是否存在性别偏差,以及这种偏差的来源和机制。

该研究使用了算法审计的方法,借鉴了传统简历审计的思路,但将研究对象从招聘者转向推荐算法本身。研究者在中国四大求职网站上创建了2,240个虚拟简历,这些简历成对出现,唯一的不同点是性别字段和与性别匹配的姓名。通过多轮实验,研究者观察到了这些虚拟求职者收到的职位推荐,记录了职位的薪资、要求的工作经验、公司规模等特征,并分析了职位描述中使用的语言。实验分为多个阶段,包括在简历发布后立刻收集推荐结果的初始阶段(即第0轮)以及之后随着简历“申请”职位和“互动”逐步变化的推荐结果。

研究发现,性别在推荐系统中被直接用作输入变量,导致同等条件下男性和女性收到的职位推荐存在显著差异。男性收到的职位推荐普遍薪资更高(平均高出约1.54%)、要求更多的工作经验,并更倾向于来自大公司。而女性收到的职位推荐往往含有更多与性别刻板印象相关的语言,例如“耐心”“细心”等,而男性职位则更常出现“领导力”“决策”等词汇。研究还发现,这些性别差异主要由基于内容的算法匹配造成,即系统直接使用性别字段作为职位与求职者匹配的依据,而非由求职者的行为或招聘者的反应驱动。

这项研究表明,尽管推荐系统在技术上能够提升求职匹配效率,但如果不加以干预,其算法设计可能会无意中加剧劳动力市场中的性别不平等。研究为如何审计和改进算法的公平性提供了参考,并为政策制定者和求职平台提供了实际建议。

论文原文:
NBER,August 2024
Measuring Bias in Job Recommender Systems: Auditing the Algorithms
Shuo Zhang,Peter Kuhn


唧唧堂学院推荐订阅


以下专栏及课程,安卓手机用户可通过下方小程序链接订阅,苹果手机用户请通过文末“阅读原文”链接访问唧唧堂学院H5页面订阅。


论文导读


**经济金融**

经济金融论文导读会员(年度)

2024 经济学顶刊论文导读/数据库

2024 金融学顶刊论文导读/数据库

中国主题经济学论文导读专栏

AER百年最经典论文导读专栏

人工智能主题论文导读专栏


更多经济金融论文导读专栏请访问

唧唧堂学院



数据库


管理学论文理论数据库

管理学论文数据集数据库

管理学论文量表数据库



方法班课程


AMJ(2022)微观研讨班

计量经济学论文研讨班

行为和心理科学顶刊听读研讨班

中介调节顶看方法班-单层(学生)

中介调节顶刊方法班-多层(学生)

经验取样顶刊方法班(学生)


更多方法班直播课程请访问

唧唧堂学院



咨询+开票+团购



唧唧堂
从数据到洞见,全面解读学术研究!
 最新文章