网络首发 | 人工智能决策性别公平研究:构件、模式与生态系统

文摘   2024-10-06 20:00   湖北  


网络首发时间

2024-09-26

网络首发地址

https://link.cnki.net/urlid/42.1085.G2.20240926.1145.002

引用本文

吴丹,郭清玥,刘静.人工智能决策性别公平研究:构件、模式与生态系统[J/OL].图书情报知识(2024-09-26). https://link.cnki.net/urlid/42.1085.G2.20240926.1145.002

Photo by Get Illustrations on Unsplash.


吴丹

武汉大学信息管理学院,武汉,430072

武汉大学妇女与性别研究中心,武汉,430072

郭清玥  刘静

武汉大学信息管理学院,武汉,430072




目的 | 意义

_

深入探讨人工智能伦理问题,明确性别公平视角下人工智能决策研究现状,发掘该主题未来研究方向,推动人工智能决策迈向性别公平。


研究设计 | 方法

_

采用系统性文献综述方法,从国内外8个数据库检索2000年至今的相关主题文献,共计3,869篇,经过初筛与复筛,最终将50篇高相关文献列入分析,识别当前人工智能决策性别公平研究的主题、构件与模式,并引入信息生态理论构建研究生态系统。


结论 | 发现

_

社会技术视角下,当前人工智能决策性别公平研究聚焦于四大主题,分别涉及宏观层面的人工智能决策性别偏见现象剖析、细分领域的人工智能决策性别偏见问题、人工智能决策对性别公平的促进作用以及人类对决策性别公平的感知主题;研究构件涉及信息、信息主体、信息环境以及信息技术4个维度;研究模式则包含价值观辐射的传统模式、技术驱动的探索模式以及多维交织的协同模式。


创新 | 价值

_

系统剖析了当前国内外关于人工智能决策性别公平的研究,从信息生态视角构建起一个全方位、重协同的人工智能决策性别公平信息生态系统,从信息循环交互机制、多元主体合作机制以及人智交互协同机制为未来研究提供参考。


关键词

_

人工智能;人工智能决策;性别公平;性别偏见;信息生态系统








_

1

引言


_


公平是人类社会发展进程中无法绕过的重要议题,也是实现技术与社会协调发展的一大挑战。近年来,基于人工智能的决策系统正广泛渗透各行各业,一方面为公众决策提供便利支持;另一方面,由于其对复杂世界中各类现象进行降维处理,加剧了社会偏见与歧视,挑战人类社会的公平性。2024 年国际妇女节前夕,联合国教科文组织发布研究报告揭示大型语言模型存在性别偏见,在生成式人工智能的描述中,女性常与“家”“孩子”等词汇联系,而男性则更多与 “商业”“管理层”等词汇关联,而这种性别刻板印象在招聘雇佣领域产生了实质性的影响,如谷歌广告服 务更倾向为男性用户展示高薪职位的广告,亚马逊自动简历筛选系统对男性应聘者有明显偏好。


马克思主义将“男女平等”“妇女解放”视作社会文明进步的基本标志。一个不具备性别公平性的人工智能决策系统往往会加剧性别歧视,强化性别刻板印象,使女性群体在信息、物质、机会等资源分配中处于不利地位,阻碍人类社会的健康可持续发展,因此人工智能决策中的性别公平问题成为近年来国内外研究的热点话题。为从社会技术视角全面理解人工智能决策中的性别公平问题,本文采用系统性综述方法梳理当前研究,明确该领域的研究主题,提取主要构件以厘清相关研究模式,并在此基础上结合信息生态理论构建一个指导实现人工智能决策性别公平的信息生态系统,以期为未来理论及实践研究提供参考。



_

2

研究背景及问题


_


使用人工智能进行决策被认为是人工智能历史上最重要的应用之一。狭义上人工智能决策被描述为 “在没有人类参与的情况下通过技术手段做出的决定”,而从更广泛的意义来看,其可被视为通过算法处理数 据并做出数据驱动决策的过程。由此可见,人工智能既可以用来辅助人类决策者,又可以取代人类直接做出选择。在不断增长的客观数据和人工智能技术的推动下,人工智能被广泛用于决策实践,如利用算法进行个性化的新闻推荐、广告推荐、简历筛选,并进一步深入对决策精度要求更高的医疗保健领域以及司法判决 领域。但人工智能决策在实践应用中也暴露出系列伦理问题,如在犯罪率判断、招聘决策、图像分类、自然语言处理任务中以某种方式偏向某些社会群体,引发了社会各方对人工智能决策公平问题的持续关注。“公平”成为当前人工智能伦理研究中的热点话题。


所谓“公平”,通常被理解为矫正不公平做法以使其公正,以及减少偏见的举措、文化以及现象。性别公平是其中至关重要的一方面。相关研究不断证实人工智能决策系统确有性别偏见问题。一方面,人工智能决策算法从客观数据中习得社会中的性别偏见,另一方面,人工智能从业者的伦理观念和价值标准又嵌入了算法开发设计中,使人工智能决策性别公平问题兼具技术和社会的双重属性,超越了人工智能的单纯技术方面,成为一个社会技术问题。


伴随人工智能技术社区的进步,研究人员认识到相应的技术系统总是嵌入在丰富的社会关系中,技术是社会实践、行动以及决策的产物,特定的组织制度和社会文化总是会体现在设计到应用的阶段中,因此倡导以社会技术的视角批判性思考计算实践中隐含的或无意识的价值观。这种社会技术的观点强调技术系统(由技术和流程组成)与社会系统(由人员和关系组成)之间的联系,为理解人工智能伦理问题带来了全新视角,启发来自社会学、法学、信息管理等领域研究人员对人工智能决策性别公平问题的进一步探讨,使他们关注人工智能技术组件和社会环境之间的交互和协调。当前研究虽从社会技术角度对人工智能决策系统中性别公平问题的成因、偏见的潜在危害以及偏见防范和解决进行了不少讨论,但研究中涉及主体或要素过多,尚未针对人工智能决策性别公平研究进行系统化梳理,从而未形成较全面的认知,也较难为解决未来人工智能发展中的性别问题提供框架支撑。


由此,本文采用系统性文献综述方法,探究如何从社会技术角度对人工智能决策性别公平提供更全面的理解,通过梳理总结当前该领域的研究主题、构件与模式,试图从社会技术视角为未来研究框架的构建提供支持。具体而言,包含以下三个研究问题:


(1)当前该领域涉及哪些研究主题与构件?

(2)当前该领域包含哪些研究模式与方法?

(3)如何从社会技术角度构建一个系统化的未来研究框架?



_

3

研究设计及分析


_


3.1   研究方法


本文采用系统性文献综述方法。系统性文献综述被认为可以“识别、评估和解释与特定研究问题、主题领域或感兴趣的现象相关的研究方法”,该方法有助于理解大量研究,并回答明确的研究问题,同时具备透明和可复制的特点。


3.2   文献采集


为保证查全率,本文将“公平”平等”偏见”歧视”等关键词与“人工智能“”算法”进行组配以构造检索式。选取国内2个综合类数据库中国知网和万方数据,国外2个综合类数据库Web of Science和Scopus,2 个计算机与信息技术领域数据库IEEE 和ACM Digital Library, 2 个信息资源管理领域数据库Library & Information Science Abstracts(LISA)和Library, Information Science & Technology Abstracts(LISTA),总共8 个数据库作为数据源。检索域限定为标题、摘要及关键词,其中中文检索式为:(' 性别'*( ' 偏见' + ' 歧视'+' 公平'+' 平等')*(' 人工智能'+'AI'+' 算法')),英文检索式为:(gender AND(discrimination OR inequality OR bias* OR fair* OR equity)AND(algorithm* OR "artificial intelligence" OR AI))。文献检索类型限定为期刊或会议论文,语种限定为中文或英文,时间范围为2000年至今,检索时间为2024年1月30日。通过初步检索得到3,869条数据,去重后共得到2,341条数据。


3.3   文献筛选及流程


为确保研究质量和准确性,本文建立以下纳入和排除标准(见表1),对每篇论文进行审查以确定其是否适合分析。



_

表1   纳入和排除标准


_


在此基础上,本文采用PRISMA审查流程(图1)进行了两轮筛选,以选择符合标准的文章。第一轮筛选是标题和摘要筛选,若标题和摘要清楚地表明检索结果超出研究重点,将被排除在外;若标题和摘要未清楚揭示研究内容,则纳入第二轮筛选进行全文内容审查。本文共进行了两次筛选流程,两次筛选间隔两个月如果两次出现差异,则引入另一位研究人员进行评判,最终就文章收录达成共识。



_



_
_

图1   PRISMA 审查流程

_


经过第一轮标题和摘要筛选,排除了2,273项,剩下68项,经过第二轮的全文内容审查与筛选阶段,排除了18项,最终共有50项研究被纳入系统性文献综述中。


3.4   人工智能决策性别公平研究的一般信息


在发表时间方面,尽管本文在检索时将时间范围限定为2000—2024年,但最终得到的文献时间范围为 2018—2023 年。2018—2019年发表的相关文献为5篇,均为英文文献;2020—2021年相关文献共10篇,其中只有1 篇为中文文献;2022—2023年该话题文献数量大幅增长,共35篇,其中有10篇为中文文献。实际上, 20世纪70年代以来,女性主义研究开始注意到现代技术中蕴藏的性别歧视问题,性别研究才逐渐发展成为集日常体验、政治诉求、文学书写、文化表征和批评理论为一体的跨学科话语体系。而当将视线聚焦于人工智能这一现代技术时,有研究表明自2017年以来,关于人工智能决策公平感知的研究不断增长,研究者在关于公平问题的研究中逐渐注意到性别公平这一细分领域。随着2019年联合国教科文组织提出首个应对人工智能性别偏见的建议书,社会各界从人本理念出发,强调人工智能发展中的性别公平问题,也吸引了更多的研究力量投入。


在文章类型方面,会议论文共15篇,多集中于计算机科学与信息科学领域,法学、心理学也有少量涉及,同时出现了跨学科领域的专设会议,如国际先进人工智能协会(Association for the Advancement of Artificial Intelligence, AAAI)举办人工智能、伦理与社会会议(AI, Ethics, and Society, AIES)讨论人工智能伦理问题。期刊文章共35篇,除计算机科学、信息科学、法学、心理学外,经济学、社会学、传播学等学科也加入了该话题的讨论,其中中文文献多侧重从法学、社会学视角进行探讨,而英文文献对该话题的讨论涉及面较广,包含以上提及的各类学科。



_

4

人工智能决策性别公平研究构件

及模式


_


4.1   研究主题与构件


人工智能决策性别公平主要集中于四大主题,分别是:①人工智能决策领域性别偏见的现象、来源及治理;②具体实践领域的人工智能决策性别偏见问题;③人工智能决策对性别公平的促进作用;④人类对人工智能决策性别公平的感知。这四大主题一定程度上反映当前该话题从人工智能领域的性别偏见宏观问题出发,进行概念、理论、原则性研究,接着深入具体实践领域,通过实证探索揭示人工智能决策具体应用中的性别偏见问题;随后研究者在实证研究中逐步发现,部分人工智能决策通过打破父权社会固有偏见,在实践中偶见缓解社会性别刻板印象的情况;之后伴随人类对人工智能决策的认知深化,研究者关注人类对人工智能决策性别公平的感知,为迈向人智协作的智能决策时代埋下研究伏笔。


对四大主题下的细分主题进行内容分析可进一步洞悉各类主题的构成,因此本文梳理了不同主题类别的特征组成,以便理解各项研究的具体内容。本文参考计算机科学领域对“构件”的理解,认为其是各细分主题的基本组成部分,是独立的、有价值的,构件的不同组成以及作用方式形成了关联但又各有侧重的细分研究主题(如表2所示)。



_

表2   人工智能决策性别公平研究主题与主要构件


_


4.1.1  人工智能决策领域性别偏见的现象、来源及治理


关于性别偏见的现象类研究多陈述现状及特征,为偏理论性的研究。“性别偏见观念”是出现频率较高的构件,反映了研究者认为人工智能决策领域的性别偏见实质上是现实世界长期存在的性别偏见观念在虚拟世界的延伸。实际上,从认识论角度思考,人类大脑习惯将接收到的信息进行分类,从而降低认知处理工作量,但却造成了男女从生物学角度的首次区分;第二次区分发生在社会角色的期望形成中,社会对男性的工作期望高于女性,而对于女性的家庭角色期望高于男性,这导致女性在历史上绝大多数时期居于次要、从属地位参与社会实践。由此可见,现实世界的性别偏见观念是人类认知局限和社会环境在长期发展中共同作用的结果。当前人工智能决策算法与人类认知还有较大距离,它仅能根据数据从统计学角度做出判断,无法通过自主意识分辨性别分类的社会意义,同时基于数据的交互又会再次放大性别偏见。因此现阶段的人工智能决策性别偏见本质上是人类价值观念对决策系统入侵,而人工智能技术的强大的数据分析与学习能力则对性别偏见起到了继承、放大和固化的作用。


具体而言,性别偏见观念通过技术系统与社会系统的交互,渗透人工智能算法设计、训练、应用阶段,引发研究者从“技术- 社会”互动视角对人工智能决策算法实践的讨论,如结合技术开发应用实践总结当前人工智能决策中的性别歧视包含镜像同构、耦合互动、关联交叉三种类型,认为人工智能决策系统性别偏见具有设计实施过程化、社会化、机构性的特征。而在人工智能技术与社会互动的过程中,性别刻板印象、有偏见或偏差的数据集、欠缺多样性的开发团队、准则法规的欠缺、反馈数据集强化偏见、数据标注人员的价值观 等方面都会加剧人工智能决策中的性别偏见。


对于人工智能技术与性别伦理的治理研究最终都应指向“人的解放”这一目标的实现,将人从固有社会分工结构以及传统价值观念中解放。为实现这一目标,可通过具备前瞻视野的治理行动解决技术发展中产生的负面溢出问题,从而消解男性中心主义的单一性与压迫性。首先应摆脱两性二元对立的思维模式,防止陷入男性与女性谁更优越的争论。应当从“解放伦理” 的角度,明确性别问题是社会结构不平等的表现,根源在于男性中心主义社会结构以及伦理体系对于男女角色的强制性规定,从而着重分析人工智能决策性别问题产生的社会原因,明确解决该问题的首要措施是逐步纠正性别偏见观念,并通过国家、政府、组织的多方之力从立法体系、机制设计和治理实效层面进行细粒度的规制。技术领域则应进一步探索修正数据比例、增强决策透明度、使人类参与循环的策略,提高人类技术团队的性别公平价值判断能力,对人工智能决策的社会嵌入进行伦理调适。


4.1.2  具体实践领域的人工智能决策性别偏见问题


在具体实践领域中,雇佣招聘、司法判决、信贷衡量、广告投放、视听数据是研究者们开展实证研究的主要场景,其中雇佣招聘领域的性别偏见问题最为明显,广告投放和视听数据中性别不平等问题更加隐蔽。该主题的构件主要包含性别刻板印象、原始数据集偏差、社会实践偏差、数据交互过程等,进一步证实人工智能决策领域的性别偏见实际源于现实世界的性别偏见观念。对于不同领域的人工智能决策性别偏见问题而言,主要原因都来自两方面,一是人类价值观在实践中的映射,二是人工智能训练数据集的偏差。首先在人类价值观方面,人工智能算法由设计者开发,在技术流程中算法设计者的价值观往往反映在其设定的算法目标中,易将个人偏见或“伪中立”的判断置入目标和需求的转译当中。而设计者对数据的基本处理,如数据清洗和特征工程,仍可能为性别偏见提供途径,如数据标注人员的传统性别刻板印象,将着装偏中性的女性标注为男性,导致后期决策算法出现偏差。除人类价值观外,原始数据集偏差 或抽样偏差 也是影响人工智能决策性别公平的最常见因素,当用于训练模型的数据不能准确代表目标问题领域时,样本偏差将导致有偏见的结果,造成“垃圾入,垃圾出”的现象,如用人单位过往对男性工作者做出比女性工作者更高的评价,或多雇佣了远多于女性工作者的男性员工,都会导致人工智能决策算法识别其中的历史偏好与选择模式,在无意中复制偏见。


社会实践场景中,传统价值观与数据集偏差还将相互影响并共同作用于人工智能决策性别偏见问题。这是因为人工智能以人类认知规律为基础,通过分类、聚类从历史数据集中识别事物类别,并在此基础上实现新数据的归类与对新对象的预测。因此可将人工智能决策理解为一种以历史预测未来的计算程式,输入端是代表过去社会状况的数据集,而输出端则是面向未来的决策结果,只要社会中存在性别偏见观念与现象,人工智能算法就将借由历史数据,使现有社会的性别歧视延伸至未来,同时在社会与技术的不断交互中,将性别偏见观念嵌入在广告、电影、音视频等大众传媒中,影响女性身份的文化建构,使性别不平等现象陷入恶性循环。因此应加强对数据集的多样性检测,从不同角度揭示现实世界特征,避免仅从单一性别维度进行特征分类造成的偏见问题。


4.1.3  人工智能决策对性别公平的促进作用


当前数据已成为重要的社会资源,每个人都参与数据的生产过程,使数据世界具有开放性,也为基于数据进行决策的人工智能带来多样性,某种意义上可以说人工智能的计算能力可提升人类对性别伦理的认知水平,促进性别公平。传统性别伦理主张从抽象原则和普遍原则出发,将具体的伦理主体与具体的情境和情感互动剥离,缺乏对社会以及问题情境中性别问题的回应,难以针对性地解决社会实践中的性别偏见问题,而人工智能技术降低了信息搜集与分析的成本,可以更加全面地揭示现实世界中的差异性内容,识别具体情境中的性别问题并提出潜在的解决方案,从多样性、包容性的角度调节人们的思维与行为方式。例如在雇佣招聘场景中,研究者证实招聘决策者的性别刻板印象导致女性比男性获得中性职位的面试机会低 69%,而基于人工智能的简历筛选系统可将此性别差距缩小43%,反映了人工智能决策对人类认知的补充和增进,某些情境下可带来更加公平的性别决策。


从人智协作的未来发展视角来看,当人工智能决策系统中的潜在偏差可以被识别和控制时,也许其可提供更加公平的选择。而在此过程中,为了更好地释放人工智能决策的潜力,可通过将认知科学的发现和机器学习的见解集成到语义网络中,以实现对人工智能决策过程的透彻理解,或通过介入技术全生命周期对人工智能决策实现全过程的伦理检测与调适,从而形成更加透明的决策系统帮助决策者避免性别偏见。


4.1.4  人类对人工智能决策性别公平的感知


解决人工智能决策性别公平问题应面向“人的解放”,明确人类的主体地位,协调人-人、人-智以及智能体之间的互动关系。现有对人工智能决策性别公平感知角度展开的研究,主要可分为性别相关、过程相关和情境相关。首先,不同性别群体对人工智能决策偏好具有差异性,如更多女性相信人工智能技术有潜力缓解雇佣招聘中的性别偏见。当女性因人为性别歧视经历而对歧视现象更敏感时,或认为人工智能相比男性评估者更加客观,更可能选择人工智能进行工作机会的评估。同时采用人工智能算法对候选人进行评估将鼓励女性申请由男性主导领域的工作,这表明人工智能决策有可能缓解女性在竞争环境中面临性别歧视的恐惧。其次,当为人类提供更多的人工智能决策过程信息时,其感知公平性会更高,即使该决策过程是不公平的,这也从侧面印证前文观点,提高人工智能决策的可解释性将推进实现性别公平。此外,人类对人工智能决策性别公平存在情境感知的差异,如人类会倾向质疑金融服务和招聘领域中人工智能决策的性别公平性,而在医疗保健环境中对人工智能决策性别公平的质疑可能性最低。针对这些细分的情境,应当加强性别公平感知的研究,利用人工智能技术精准获取不同性别群体的多元化诉求;同时强化人工智能在人类情感、心理状态等方面的分析与计算能力,从人类主体视角识别数据的情境化特征,为公平决策提供更全面的支撑。


4.2   研究模式


结合研究主题和构件解读,本文发现社会技术视角下,人工智能决策性别公平问题的主要构件聚集于 “信息”“技术”“主体”“环境”四方面,构件间交互影响形成不同的研究主题,具备复杂性、动态性与开放性的特征,正符合信息生态理论的观点。信息生态理论借以生态学的基本原理和方法分析信息系统的功能、结构及演化问题,认为信息生态系统包含信息、信息主体、信息环境、信息技术等组成部分。对于人工智能决策性别公平研究而言,信息生态系统的各部分起到了关键性作用,数据以及信息是人工智能进行决策的基础性资源,信息主体如人工智能开发者、使用者、监管者是各利益相关方,信息技术和信息环境分别对应人工智能相关技术以及人工智能的伦理和准则。鉴于此,本文基于信息生态理论以及人工智能决策性别公平现实情境,从信息、信息主体、信息技术以及信息环境四大维度进一步探讨当前研究。根据构件作用规律将当前研究划分为三种模式,分别是价值观辐射的传统模式、技术驱动的探索模式以及多维交织的协同模式,如图2所示。



_



_
_

图2   人工智能决策性别公平研究模式

_


4.2.1  价值观辐射的传统模式


价值观辐射的传统模式如图2中橙色构件和箭头作用路径所示,主要从各类信息主体及其所处的信息环境出发,分析其对人工智能算法或数据集的性别偏见影响,侧重探讨性别伦理的重新建构与人工智能决策间的关联,提倡加强人工智能伦理规范以实现性别公平。主要体现为人工智能开发者、数据标注者以及决策者的性别观念在数据集和决策算法模型的折射,或客观世界中的不平等现象在数据集和算法设计逻辑中的直接表征,同时信息主体与信息环境存在交互作用,如各类信息主体的性别观念在群体内传播形成社会态度,而社会认知反过来又影响信息主体的价值判断。例如,Ahmed通过分析发现性别偏见普遍存在于各行各业,导致女性在许多行业中的代表性不足,而人工智能系统往往从这些具有性别偏差的现实世界中学习,不断加强传统偏见,并使偏见在社会中逐渐根深蒂固,形成一个偏差循环。该研究模式是当前研究领域中最常见的类型,主要研究方法涉及描述性研究法、案例分析法、实验法、定量分析法、文献研究法、经验总结法、调查法等,研究方法较多样,从理论层面论证并从实践层面验证人工智能决策性别公平问题,强调社会环境及人类性别平等观念的重要性,反映了研究者意识到性别公平的内涵的时代性,认为人工智能决策性别公平的内核是动态发展的,并不断关注新技术背景可能萌生的伦理问题。


4.2.2  技术驱动的探索模式


技术驱动的探索模式如图中蓝色圆环标识的构件所示,指倾向从人工智能技术角度分析其对社会正面或负面作用的研究。例如,通过智能去偏技术优化原始数据集以确保训练数据具备性别特征的多样性和代表性,或通过加强人工智能技术的可解释性和透明度以实现人工智能伦理准则。该研究模式当前是多学科的探索方向之一,除计算机科学领域外,信息管理、法学、社会学等人文社科也在交叉领域不断尝试,主要研究方法涉及实验法、定量分析法、跨学科研究法 等。该模式主要通过用户实验或者定量分析验证优化后的算法或模型的有效性,如Hofeditz等人开发一个可供用户了解各种算法和决策分析过程的原型,并检查人工智能建议对于减少性别歧视的作用。Marinucci等人从人工智能系统的认知维度检测其中的性别偏见,将词嵌入技术与Framester语言数据中心的性别概念结合,构建可公开获取的知识库,以帮助揭示人工智能和认知过程之间相互交织的性别偏见。技术驱动的探索模式体现研究者逐步意识到技术方案的社会伦理风险,开始追求在人智交互过程中引入认知工具,以促进决策系统的伦理感知和选择能力。


4.2.3  多维交织的协同模式


多维交织的协同模式则在技术驱动的探索模式上更进一步,强调人类以及人类社会与技术在性别公平中的协同作用,推动该话题的社会属性与技术属性深度融合,涉及多维度构件,在图2中表示为浅绿色区域。该模式目前处于发展初期,研究方法较单一,主要为文献研究法 和跨学科研究法,关于各信息主体、信息技术以及信息环境的交互作用分散于研究的讨论及未来展望中,个别研究进行了实证探索,如Njoto在雇佣招聘决策领域将社会学与数据科学结合,观察由人类主导的招聘小组特征并从头开始构建可解释的决策算法,以实现对性别偏见的量化并确定偏见的引入阶段。实际上,信息主体、信息技术以及信息环境的交互乃至协同作用在人工智能公平这一大领域早有迹可循,可在此基础上以性别公平为目标展开具体行动,如各类信息主体基于积累的优质数据集灌输人工智能以良好品质来克服性别偏见,并引入领域专家的参与提高人工智能的可解释性;同时以人工智能增强人类的分析和决策能力,识别决策中的性别偏见,在长期发展过程逐步形成人智协同解决方案,缓解决策中性别歧视带来的社会影响。



_

5

人工智能决策性别公平信息生态系统


_


5.1   人工智能决策性别公平信息生态系统框架


通过前文分析可发现,各构件分散于不同主题之下,尚未见对人工智能决策性别公平进行系统化剖析的研究,因此出现相关治理策略难落地、治理效果难评估的问题。同时,研究模式多为价值观辐射的传统模式,提倡从社会结构层面入手,从根本上解决性别平等观念问题。但应意识到人工智能决策性别公平具有有限性,决策中的性别歧视作为技术与社会互动的结果,根植于社会结构中隐藏的性别偏见,即使采取各类行动矫正社会结构,仍将面临治理成效迟滞的问题。因此,试图在中短期内消除人工智能决策中的性别偏见是非理性的,应立足技术发展与社会实践条件,充分系统发挥各主体能动性,实现相对限度的性别公平治理。基于此,本文秉承可持续发展的理念并从社会技术视角出发,强调技术系统(数智信息和数智技术)与社会系统(数智主体和数智环境)间的联系,基于前文分析的研究模式提出一个动态发展、协同交互的人工智能决策性别公平的信息生态系统框架(如图3),以期为未来相关研究提供框架支持。



_



_
_

图3   人工智能决策性别公平信息生态系统框架图

_


人智协同的发展趋势下,数智化技术作用于信息设施、服务、应用、行为等方面,不断拓展信息类型和形态,涉及文本、图像、音频、视频等多种信息资源,因此将前文研究模式中的“决策信息”拓展为“数智信息”;传统技术不断升级迈向更高级的自主学习、智能决策阶段,因此从可持续发展的角度出发,将“信息技术”拓展为“数智技术”;“信息主体”和“信息环境”也将在人工智能环境下进阶,产生新的信息主体如人工智能体或新的社会风尚等,因此将其对应升级为“数智主体”和“数智环境”以符合未来发展特征。


该生态系统是三种研究模式在人工智能新发展阶段的重组扩展与延伸。图3中的橘红、浅绿以及天蓝色模块与图2中同颜色代表的模式相对应,如“强调性别公平的可持续数智环境”主要对应“价值观辐射的传统模式”。其中价值观辐射的传统模式在该系统中表现为强调性别公平的数智环境和关注性别伦理的数智主体之间的相互作用,以及两类构件对面向性别公平目标的数智技术和数智信息的影响;生态系统在传统模式基础上考虑到人工智能机器人的投入使用将直接作用于决策,因此将人工智能体纳入考虑,并注重数智主体内部的协同作用。技术驱动的探索模式体现为数智技术的内部升级对数智信息和数智环境的作用,为明确技术流程内部的性别偏见源头,同时更好发挥人类主观能动性,生态系统从时间线角度将数智技术划分为预处理技术、处理中技术和后处理技术,为从决策形成过程角度解释和评估性别公平提供可能。多维交织的协同模式体现为数智主体、数智技术以及数智环境的关系,该模式逐渐接近完整的人工智能决策性别公平信息生态系统,但其未充分意识到数智信息在弥合性别差异中的重要作用;性别公平信息生态系统在多维交织的协同模式基础上,明确数据生产要素地位并将其沿用至性别公平话题,将关于包含性别属性的历史数据、交互数据、观测数据以及其他数据等纳入分析。


5.2   人工智能决策性别公平信息生态系统运行机制


构件间的协作关系和互动规律形成了整个信息生态系统的运行机制,良好的运行机制可对各交互环节中的性别公平问题起到有效保障。整个生态系统秉承系统观、互动观和人本观的理念,如图3 所示,人工智能决策性别公平生态系统中的四类要素之间有六条相互作用的路径,可根据特征划分为三种作用机制,对应图例中的三种类型箭头。其中以“数智信息”为中心向下辐射的三条双向路径对应信息循环交互机制,以 “数智环境”为中心向下辐射的两条双向路径对应多元主体合作机制,“数智主体”和“数智技术”之间的双向路径对应人智交互协同机制。研究者可基于信息生态系统的运行机制发掘着力点,结合自身优势,秉承 “重点突出,专攻所长,交叉融合,集中突破”的理念扩展未来研究。


5.2.1  以多样性为核心的信息循环交互机制


数智信息是该信息生态系统中的基础性资源,也是人工智能决策的来源依据,各类带有性别属性的数据将产生于信息生态系统运行的各流程,并通过数据表达对面向性别公平的环境、主体和技术提出需求、增强认知。对此应提高数据集多样性弥合性别差异,避免数据集的性别偏差影响决策公平。在历史数据方面,训练数据集包含着社会既有性别刻板印象,或因为历史遗留原因造成数据集中男女比例分布不均的情况,导致依赖历史数据产生的决策将性别不平等投射至未来;在观测数据方面,人工智能系统通过社会观测将现实中由固有偏见导致的男女差异延伸至新的数据集,加大性别歧视风险;在交互数据方面,数智主体的交互数据以及由交互产生的生成式数据仍需关注,此类数据隐含数智主体的性别观念,易将其性别偏见投入决策循环加剧负面影响。未来研究应多方面从信息生态系统全流程获取数据,避免人工智能时代女性数据的缺失,消除性别数据鸿沟;明确数智信息的特征和流动规律,认识到数据的异质性、虚假相关性和偶然内生性特征,不简单地以性别为分类标准,进行公平的数据分组,并加强独立性筛选,避免偶然同质性产生的与性别相关的错误判断;加强数据质检,明确数据质量检测标准,通过既有数据分析判断女性受到不应有的区别对待,及时修正数据集;公平科学地管理数智信息,规避人工清洗和数据标注中嵌入的性别歧视。


5.2.2  以协调性为导向的多元主体合作机制


由强调性别公平的社会准则、伦理道德、法律规范等形成的数智环境影响各类主体在面临性别公平问题时的行为,约束技术与性别平等伦理的边界;各类数智主体以及数智技术在实践进程中反映的不同情境下的性别偏见现象,也将促进数智环境更加协调与完善。多元主体合作是该机制的运行保障,协调运行是该机制的理想状态,该机制主要包括扩大多元主体参与、提升监督管理效能以及善用技术评估工具等方面。在多元主体参与方面,应意识到人工智能决策性别公平问题中的各类主体如决策相关方、数据处理方、设计开发方等的行为特征,依照数智环境中的法律法规作出明确规定,界定不同行为主体的责任与义务;关注主体内部合作机制,加强人工智能设计开发方与伦理学家、法学家、女性主义者或者监管机构、政策制定机构等的合作,形成一个完善的人工智能性别公平行动者网络以更好地理解技术黑箱。在提升监督管理效能方面,加强性别公平监管效能评估,如利用“人工智能监管的四层模型” 针对人工智能决策性别偏见的监管效果进行评价。在善用评估工具方面,一方面可探讨新技术环境下的性别公平的量化指标、评估工具,如 IBM 的AI Fairness 360、Waston OpenScale、微 软 的 Fairlearn 以及DataRobot 的Bias and Fairness等的使用和优化;另一方面可结合影响评估工具识别人工智能项目设计、开发和部署过程中可能对性别弱势群体造成的不良影响,将抽象化的性别公平伦理原则转化为可具象的标准。相关研究可在体系化的理论建设如多学科理论融合、人工智能性别公平伦理准则和法律法规建设、多利益攸关方性别公平治理合作等方面发力,实证研究可从性别公平评估指标、评估工具方面入手寻找解决方案。


5.2.3  以可解释性为目标的人智交互协同机制


人智交互协同是人工智能的未来发展趋势,该机制是释放数智信息潜能、发挥人工智能技术优势的重要依托。该机制将人工智能使用者、人工智能体以及人工智能技术关联,通过人类对人工智能决策的性别公平感知、人类与人工智能体的协作以及人类参与人工智能决策流程,推动人工智能决策在性别特征方面的可解释性增强,形成公平、透明、负责任的人工智能系统。具体而言,在人工智能使用者层面,研究如何提升用户算法素养 以及人工智能素养,摆正其审视决策性别公平的态度,使其理解人工智能决策的运行逻辑,从根源上摆脱决策中潜在的性别偏见;同时探讨用户在不同情境下或者不同情绪下的性别公平感知差异,了解其对于人工智能决策性别公平的看法和影响因素,从感知角度将“性别公平”具象化,为改进人工智能决策提供方向。在人工智能技术层面,根据人工智能在决策任务中的不同阶段细分为预处理技术、处理中技术以及后处理技术,在三个阶段中较均衡地融入男性和女性参与,使用户理解人工智能决策过程,同时可更直接地了解用户需求,帮助开发者发现性别偏见问题。例如,在预处理阶段通过问卷调查或访谈探究如何对用户性别公平需求进行标准化表达;在处理中阶段,通过用户实验以测试人工智能决策的性别公平性,基于用户反馈调整完善解决方案;在后处理阶段捕获真实使用场景中的用户性别公平评价,分析其性别公平感知变化,针对开发阶段的用户性别公平需求与实际使用差距进行调整弥合。在人智协同方面,人类将与人工智能体产生包含文本、语音、图像等多模态数据的交互,因此其隐藏的性别偏见将对性别弱势群体产生威胁,应从行为层面系统地研究人智协同中性别偏见的后果;同时考虑将人智协同中的人类生理信号纳入研究范围,如通过眼动仪和脑电仪观测用户对人工智能决策的性别公平认知过程,依据客观指标开发设计性别公平的决策系统。



_

6

结语


_


数智时代中人类成为可量化的数据,在人工智能决策中被逐步“物化”,使原有性别弱势群体更易受到人工智能决策的侵害,同时这种决策的负面影响将渗透到社会各方面,为未来社会埋下隐患。未来时代中,人工智能决策对性别公平的促进或恶化作用,将影响女性在人工智能时代的社会地位。本文描画人工智能决策性别公平话题下的研究现状,并结合信息生态理论探讨现有研究模式,以系统化的观点串联该领域中的构件,形成一个面向人工智能决策性别公平的信息生态系统,并从系统的运行机制角度出发,探讨未来可深入研究的方向。从可持续发展社会的目标来看,人工智能决策的性别歧视关乎女性的生存处境,同时也反映人类在面对技术冲击时的生存处境。在技术统治带来巨大的危险前,人类应当重新审视所处境地,通过多方行动驾驭新兴技术以实现人与技术和谐共生,而在这一共生关系中,女性不可被遗忘。



_

*参考文献略,请详见原文。


_




END







版式设计

陆澜


制版编辑

王淳洋





关注公众知识状态 / 引领学科发展潮流

Focusing on the State of

Public Knowledge

Leading the Development Trends of

the Discipline


网络首发 | 楚门的世界:短视频虚假信息多模态特征及其传播效果

网络首发 | 大模型“涌现”视域下的智能健康医疗知识管理体系变革与创新发展

网络首发 | 我国新型公共文化空间发展现状与未来展望

网络首发 | “附近”视域下城市书房建设创新路径——以武汉市为例

网络首发 | 检入新境:大语言模型引领的信息检索主题与知识关联演化分析


图书情报知识
教育部主管,武汉大学主办,武汉大学信息管理学院和信息资源研究中心承办的“图书馆、情报与档案管理”综合性专业学术期刊。系全国中文核心期刊、CSSCI来源期刊、中国图书馆学优秀期刊、人大复印报刊资料重要转载来源期刊、国家社科基金资助期刊等。
 最新文章