机器人会如何看待你的简历?昆士兰这篇研究让你看清招聘中的人工智能偏见!

文摘   2024-07-08 18:01   四川  

人工智能 (AI) 革命已经开始,几乎蔓延到人们职业和个人生活的方方面面,包括招聘。

昆士兰大学管理学高级讲师阿里·因特扎里梅西大学高级数据分析师梅丽卡·苏莱曼尼等研究表明

人工智能(AI)已经开始改变我们的工作和生活——尤其是在招聘方面。

艺术家可能担心他们的作品会被侵犯版权或被取代,但企业越来越意识到,AI能在供应链管理、客户服务、产品开发和人力资源(HR)管理等领域提高效率。

很快,所有企业都会面临使用AI的压力。但AI的本质——它的编码过程和背后的筛选机制——意味着人类的偏见可能会被嵌入其中。

我们研究了AI在招聘中的应用,这个领域已经广泛使用AI来自动筛选简历并对求职者的视频面试进行评分。

AI在招聘中的承诺

AI在招聘中承诺通过消除人为偏见和提高决策的公平性和一致性,实现更大的客观性和效率。

但我们的研究表明,AI可能会微妙地——甚至明显地——加剧偏见。人力资源专业人员的参与可能会使这些影响更严重,而不是减轻。这挑战了我们对人类监督可以控制和调节AI的信念。

放大“人为偏见”

虽然使用AI进行招聘的原因之一是它应该更客观,但多项研究发现,这项技术实际上非常可能存在偏见。这是因为AI从用于训练它的数据集中学习。如果数据有缺陷,AI也会有缺陷。

支持AI的算法可能会使数据中的偏见更严重,因为这些算法在设计中通常包含人为偏见。

在对22位HR专业人士的采访中,我们发现了招聘中的两种常见偏见:“刻板印象偏见”和“类似我偏见”。

“刻板印象偏见”是指决策受到对某些群体的刻板印象影响时,例如更倾向于同性别的候选人,导致性别不平等。

“类似我偏见”是指招聘人员更喜欢与自己有相似背景或兴趣的候选人。

这些偏见嵌入到历史招聘数据中,然后用于训练AI系统。这导致了有偏见的AI。

因此,如果过去的招聘实践有利于某些人口统计数据,AI将继续这样做。减轻这些偏见具有挑战性,因为算法可以根据其他相关信息中的隐藏数据推断个人信息。

例如,在男性和女性服兵役时间不同的国家,AI可能会根据服役时间推断性别。

这种持续存在的偏见凸显了仔细规划和监控的必要性,以确保人类和AI驱动的招聘过程的公平性。

人类能帮忙吗?

除了HR专业人士,我们还采访了17位AI开发人员。我们想研究如何开发一个AI招聘系统,以减轻而不是加剧招聘偏见。

根据访谈,我们开发了一个模型,在这个模型中,HR专业人士和AI程序员在检查数据集和开发算法时将会交换信息并质疑对方的想法。

然而,研究结果表明,实施这种模式的困难在于HR专业人士和AI开发人员之间存在的教育、专业和人口统计学差异。

这些差异阻碍了有效的沟通、合作,甚至相互理解的能力。虽然HR专业人士传统上接受过人员管理和组织行为方面的培训,但AI开发人员擅长数据科学和技术。这些不同的背景在一起工作时会导致误解和错位。在新西兰等较小的国家实施时也将带来麻烦,因为这些国家的资源有限,专业网络也不太多样化。

面对机器人的审视和评判,我们该如何见招拆招、脱颖而出?

匠人学院致力于为澳洲华人就业保驾护航,能够为学员提供个性化简历指导流程,由行业领袖亲自审查并对简历中的专业内容提供宝贵建议,让学员踩中AI审核通过点,面对机器人不迷茫。只有了解AI,才能打败AI。加入匠人学院,掌握最新最细节的就业指南,助力找工拿offer。

IT行业找工遇冷?
7月招聘季 海量GP开放中!!

领取方式👇

扫码加微信,分享海报

免费领取完整表格

实用指数







2024年课程群已开启

扫码添加匠人学院官V

邀请你加入组织哦👇~




UQ课代表
一个由昆士兰大学在校生组织的信息资源共享平台,只关注昆士兰大学UQ学习,生活,认识你的同学,定期发福利
 最新文章