人工智能系统会放大人类自身偏见

百科   2025-01-09 22:01   湖北  


来源 中国社会科学网-中国社会科学报

近日,英国伦敦大学学院官网发布最新研究称,人工智能(AI)系统在“继承”特定数据集中的人群的偏见后,还会放大人类偏见。该研究已经发表在最新一期《自然·人类行为》(Nature Human Behaviour)期刊上。

文中提到,人类和人工智能系统中存在的偏见会形成一个反馈循环,使得最初的微小偏见被不断放大,最终导致使用人工智能系统的人持有更多的偏见,增加了他们作出错误决定的风险。例如,与有偏见的人工智能系统互动的人更有可能低估女性在工作场所的表现等。

该研究的主要作者、伦敦大学学院心理学与语言科学系教授塔利·沙洛特(Tali Sharot)表示,人类天生就会有偏见,因此当我们利用人类产生的数据集训练人工智能系统时,人工智能算法就学会了偏见。然后,人工智能系统通过不断地利用和放大这些偏见来提高其预测的准确性。我们发现,与有偏见的人工智能系统互动后,人可能会变得更加偏见,从而产生潜在的“滚雪球”效应,即原始数据集中的微小偏见会被人工智能系统放大,进一步增加使用人工智能系统的人的偏见。

研究人员对1200多名参与者进行了一系列实验,其中一个实验是让一组参与者判断照片中面孔是悲伤还是欢乐。结果显示,这组参与者中的大多数人将面孔判断为悲伤,然后研究人员利用这组数据训练人工智能系统。人工智能系统学习了这种偏见之后,另一组参与者需要完成相同的任务,但同时告知他们人工智能系统对照片中面孔的判断。这组人在与人工智能系统互动一段时间后,强化了人工智能系统存在的偏见的同时,他们甚至比与人工智能系统互动前更有可能判断照片中的脸看起来是悲伤的。这表明人工智能系统从人类衍生的数据集中学习了偏见,然后放大了另一组人的固有偏见。研究人员还进行了另一项截然不同的实验,也发现了类似的结果。

该研究的共同作者、伦敦大学学院心理学与语言科学系博士莫舍·格利克曼(Moshe Glickman)表示,有偏见的人不仅会导致人工智能系统出现偏见,而且有偏见的人工智能系统还会改变人们自己的信念,进一步让使用人工智能系统的人在从社会判断到基本感知等领域变得更加偏见。然而,重要的是,我们还发现,与准确的人工智能系统互动可以改善人们的判断力。因此,完善人工智能系统,使其尽量做到公正和准确至关重要。

沙洛特认为,算法开发人员在设计人工智能系统方面负有重大责任,随着人工智能系统在我们的生活中变得越来越普遍,人工智能系统的偏见可能会产生很多负面影响,因此需要政策制定者、开发者、学者和公众共同参与,制定相关法规,完善人工智能应用环境。

    

本文内容来源于网络,不代表三仓心理学界观点,如有侵权请联系后台。

如您或朋友有专著/期刊出版计划

请留言“出版”

或添加小编微信SC-Psy咨询



推荐阅读:


· 华南师范大学 · 刘学兰 | 构建促进孩子成长的亲子关系边界

· 西北师范大学 · 赵鑫教授课题组 | 揭示执行功能与小学生数学能力之间的关系

· 北京师范大学 · 龚高浪研究组 | 左右大脑的微观结构不对称性对人类听觉语言功能偏侧化的支撑作用


—— 好书荐购 ——


(有落灰痕迹 低价包邮)

三仓学术出版是国内学术出版领先的专业出版商。十年来,秉承"专业学术 精于学术”的理念,一心致力于学术出版的发展,以优秀学术论著为主要出版方向。力图为作者创造更为优质的出书体验,为作者提供方便快捷的出版服务。





三仓心理学界
专注科研,荟萃心理学各领域新进展、新动态。关注了我们,就关注了整个心理学界。
 最新文章