《宁夏社会科学》2024年第4期文章推介 | 徐偲骕:智能社会语境下的数据治理如何助力性别平等

文摘   2024-10-18 15:04   宁夏  

社会



智能社会语境下的数据治理如何助力性别平等



作者:徐偲骕,男,上海大学新闻传播学院讲师,上海大学全球人工智能媒体研究院研究员,主要研究方向为传播政治经济学、数据政策与平台社会。


摘要:智能技术广泛应用下,性别歧视开始溢出传统范畴并向线上空间蔓延,广泛存在于人脸识别、搜索推荐、智能招聘、金融授信等场景中。现有治理思路偏重算法规制,靠近技术生命周期末端,事后监管色彩较浓,而数据采集、分类和输入过程中的源头质量问题和隐蔽的权力关系却尚未引起足够重视。弥合“性别数据鸿沟/缺口”或可解决部分问题,但性别数据治理是一个场景颗粒度非常高的综合性工程,有的问题(特别是生理/生物性别领域)可依靠增加女性数据供应来解决,而有的问题(往往是社会性别领域)则恰恰需要降低算法的性别敏感度,取消数据的性别分类,让机器“安能辨我是雄雌”。克服算法性别歧视并让人工智能为女性赋能,治理者需要根据实际情况来调整数据治理目标,在“差异平等主义”之下灵活识别哪些领域应该训练机器对性别充分敏感,给出技术的“女性可供性”,哪些领域可以通过强制性的技术力量来矫正人为制造和主观上的不平等因素。

关键词:智能社会;性别平等;性别数据鸿沟;数据治理;数据女性主义





一、引言

2023 年,联合国妇女署将国际妇女节的主题定为“数字包容:创新和技术推动性别平等”[1]。世界范围内,性别平等问题正日益与数字媒介技术关联在一起。一方面,不断创新的ICT技术在推动性别平等和妇女赋权方面潜力巨大,特别是智能手机、电商平台、移动银行等大大方便了妇女充分获取信息,提高了她们的社会经济生活参与度;另一方面,数字变革的潜能不会自行转化为性别平等的成果,在技术创新中缺失性别视角和维度,可能会固化现有的不平等和权力失衡结构,激化针对妇女和女童的歧视与暴力,加剧不平等现状。妇女权益倡导者呼吁道:“数字空间急需一场女权主义革命。”[2]

不过,数字空间的性别平等议题,目前还比较集中于互联网的接入和使用、女性掌握数字化技能的机会、数字空间存在的性别刻板印象、技术和创新部门的女性工作者比例偏低、针对妇女和女童的网络暴力等常规范畴。这些问题基本上是两性不平等的传统社会结构在数字技术时代的直接延续和“自然”迁移,治理路径更多依赖公共政策的外部干预和非技术手段。如果说这是性别问题同数字时代的“正面”遭遇,那么人工智能时代的算法性别歧视可能是一匹“特洛伊木马”,在高效、便利的掩护下,以映射、渗透、沉淀和再表达等方式,产生更为隐蔽和难以察觉的差别对待后果[3]。在经济活动和工业生产等领域,当技术性偏见和社会性偏见耦合在一起,导致纸面上的反歧视规范体系应对失效并产生“治理真空”,歧视风险就会向“实害结果”转化[4]。数字化条件下女性权益与技术变革之间的张力将对人工智能系统的普惠性、公平性和非歧视性造成挑战,这种性别歧视开始溢出文化符号和价值观念领域并向线上空间蔓延,广泛存在于人脸识别、搜索推荐、电商购物、智能招聘、平台劳动、金融信贷以及政务服务等场景的算法实践中。一些根深蒂固的社会性别观念也已经演化成算法的内在机制,不仅放大了人的歧视,而且固化为体制化和规范化的机器秩序,造成新的不平等[5]

因此,最大的数字鸿沟很有可能是两性之间的。鉴于性别不平等是“被数字革命放大的最显著的不平等之一”[6],有学者建议:学界应当从互联网和移动接入及其限制因素,转向更广泛地考虑数字排斥与其他形式的社会、经济和政治排斥之间的反馈循环,这些反馈回路使妇女陷入“低包容均衡”(Low-inclusion Equilibrium)和几乎不可能摆脱的交叉性不平等泥淖中[7]

但是,在理论化的过程中,绝大部分文献都将上述问题定义为“算法歧视”,认为这是一种由传统“男性凝视”发展而来的“编码凝视”[8]。算法偏差、算法滥用和机器学习中的偏见等因素造成了不公正的性别歧视[9]。性别偏见被转换成一种名为“算法分格”的数字化算术政治,学者们主张用打开算法黑箱、确立性别平等的算法伦理和追求算法正义等方法来应对,如发展针对算法性别偏见的审计与评估等措施[10]。问题是:智能社会的性别不平等仅仅是由算法造成的吗?这种比较单一的归因方式以及据此制定的应对方案能够完全奏效吗?

二、人工智能治理≠算法治理

(一)当前人工智能规制的主要对象:算法

在人工智能治理的一般性讨论中,学界通常也以算法歧视来统摄其公正性论题,并将算法治理视为应对智能风险的主要进路[11]。因复杂的技术构成、黑箱式的运行特点,以及包括法律在内的传统治理手段无力干预等因素,算法被很多学者视为要“驯服”的对象[12]。具体方式无外乎:建立问责机制,要求企业承担自律义务和法律责任,定期披露设计理念,并在造成损害时设立救济渠道;构建算法备案、审计和评估制度,令其保持透明、可解释并达到合规状态;制定行业标准、吸纳多元主体参与;等等。

在学术观点和企业治理实践的作用下,现有人工智能规制的主要对象被束缚在算法模型和计算机代码这两类客体之上。客观地讲,这种治理思路已经靠近技术生命周期末端,是在算法已经“跑”起来之后进行干预,事后监管色彩较浓,此时伤害或许已经发生,多少有点补救的意味。而数据采集、分类和输入过程中的源头质量问题和隐蔽的权力关系却尚未引起足够重视。就像解决食品安全问题,只关注厨房清洁程度、餐具是否消毒、烹饪方式健康与否是不够的;采购渠道是否正规、有没有优先考虑本地农产品、食材是不是新鲜等才是关键。忽略数据原材料的后果是:人类社会无论优劣善恶的因子都可被机器和智能应用毫无区分地习得。出了问题后,末端治理思维也只能做一些应激性的修补[13]。况且,以各国现有的数据治理水平,明显不足以生产和供应足够高质量的巨量规模数据(集),只能听任超级大模型从现实生活中提取已有的数据开展训练。所谓的“价值对齐”,可能只是在复制人类社会的糟粕。

(二)补足拼图:人工智能治理的数据之维

人工智能治理不能被简单地等同于算法治理,算法只不过是数据的“配方”,它们共同构成了程序和新媒介[14]206-212。吴恩达(Andrew Ng)为代表的学者观点认为,人工智能是以数据而不是以模型为中心[15]。但是数据原料本身并不那么纯净无瑕,机器学习中常见的数据问题有:数据量不足、不具代表性(采样偏差)、低质量(充满错误、异常值和噪声)、无关特征、过拟合(模型复杂度高于实际问题和数据结构)、欠拟合(模型不能在训练集上获得足够低的误差)[16]32-38,以及标准化程度低等。有的是纯技术原因导致,有的则与数据生成环境及其背后的社会权力结构存在千丝万缕的关系。例如,女性体内塑化剂含量是男性的近6 倍,男女饮食偏好和消费习惯等变量的差异无法解释这个异常情况,香水、指甲油等女性常用的化妆品才是罪魁祸首[17]。如果不进行基于性别的数据比较,我们将大大低估该物质对女性的伤害,进而按照平均水平来制订塑化剂污染对人体危害的防治方案,间接将她们置于危险之地。一旦这类问题“迁移”到智能社会中,就不是用改进算法和代码的办法可以解决的,数据治理必须先行。

但是,中国现有数据治理的政策工具多是规格和效力较高的成文法,比如已施行近两年的《中华人民共和国数据安全法》和《中华人民共和国个人信息保护法》,其正当性主要源自对网络平台的私有数据进行制约,维护信息基础设施的公共性[18]。深层次的目标是在保护公民人格权和国家安全的前提下,促进数据资源流转,发展数字经济。这与从规制人工智能出发进行的“数据治理”或“治理数据”是两种逻辑。本文语境下的数据治理是指为了提高数据质量、改善数据代表性、消除数据中潜在的不公正因子而进行的狭义上的治理数据活动。

相比之下,我国香港地区的人工智能治理体系以“数据道德”为核心。香港特区政府要求:从个人信息处理过程中获利的企业或组织在开展业务时,应恪守尊重(透明度、个人控制权)、互惠(识别并评估持份者的风险及利益、降低风险)和公平(避免偏见和歧视)这三个基本的“数据管理价值”,最终在管理过程中贯彻“数据道德”[19]。监管当局推行的“道德数据影响评估模式”非常强调“全生命周期管理”,即人工智能治理的第一步是从“收集数据”和“准备数据”开始的。

英国阿兰图灵研究院发起的“推进数据正义的研究和实践”项目认为,相比高可见度的算法正义,“数据正义”(Data Justice)[20]尚未引起足够的重视。比如:数据采集和应用的信息不透明;受影响群体能否全程参与到数据标准制定,数据的采集、处理、应用等数据创新活动中;遇到数据不公正时,普通人有无方法去纠错、投诉、改进,以维护自身的数据权益;数据权力结构的失衡、数据实践的不公正、数据画像对人类身份的简化与歪曲;如何提升普通人的数据知识和素养、鼓励负责任的数据共享、促使法律法规和企业制度等针对数据不公正的源头进行介入和规制。

三、数据工作:被忽视的第一道防线

研究者们并非不清楚,数字化就像一种对社会表征的“现实挖掘”(Reality Mining),算法则是“嵌入代码的观点”。AI可以继承设计者的所有偏见和喂养它们的数据中存在的任何瑕疵,然后重现旧的权力关系。可以说,数据在很大程度上决定了AI 系统的性能、公平性、稳健性和安全性,对于复杂问题而言,数据比算法更重要,无法通过后续修补模型来解决[21]。人工智能面对的治理性挑战,本质上可能是经由模型训练等环节不当强化的“数据问题”。但主流学界却仍然将算法作为人工智能治理的首要对象,“不约而同”地绕开了“为获取与理解数据所投入的工作”,即数据生产[22]。这是为什么?

(一)方法论

人工智能产业广泛存在“被低估的数据”和“被高估的模型”。与模型开发相比,数据工作是“耗时且无法追溯的繁琐工作”,一向遭到普遍忽视。其后果会引发严重的“数据库级联”(data cascades),即因上游数据问题产生负面下游影响的复合事件,后果往往不透明而且有延迟[23]。数据库级联在高风险领域部署的AI 中日益增多,特别是复杂的人道主义领域,譬如孕产妇健康、道路安全和气候变化等明显缺乏现成高质量数据集的领域,危害公众和特定群体。很多数据工作要深入田间地头,挨家挨户地从头开始,需要耗费大量人力物力采集原始数据原料,甚至有危险。这也可以解释为什么监管者会认为算法相比数据而言更容易治理——治理算法可能只需要在办公室中检查企业上报的备案文件,或者模型中的漏洞,而治理数据则涉及数字化转型中的大量政治选择、行政协调和基础设施投入。

(二)激励机制

与开发模型相比,数据工作不可能带来多少声望和“学术阶级”的向上流动,一般是落到普通研究人员,甚至外包临时工的头上。关心和改进数据质量的人往往不容易被“看到”,沦为吃力不讨好的幕后英雄,做着检查和清洗数据集这样的“肮脏工作”[24]。单纯的数据项目也很难获得市场青睐和资金投入,更依赖国家支持的公共调查和基础设施。成本、风险在内的各种困难是显而易见的。从业人员也很少接受数据质量和道德规范方面的充分培训,对在高风险领域创建数据集的复杂性准备不足,于是“脏数据”畅行无阻。

重模型、轻数据的行业文化和重末端、轻源头的治理偏好,从根本上造成了“垃圾进,垃圾出”[25]的现状,引发和放任了包括数据库级联在内的问题,产生负面的下游影响。因此,治理人工智能的偏见问题如果仅从算法入手,相当于把第一道防线拱手相让,直接暴露在线下社会的固有歧视面前,任由其“原汁原味”地数字化后长驱直入到智能世界中,结果不断出现意料之外的歧视性计算输出,治理者只得疲于奔命地“打地鼠”。应用程序本就是计算逻辑和文化逻辑融合、妥协的产物,数字(据)化就是将外部非数学形式的社会与文化秩序、事件“翻译”进软件内部的头道“关口”。因此,在机器秩序中,数据权力是比算法权力更先发挥作用的前置因素,它与“代码外的世界”联结得更紧密[26]35,因而也是更难缠的对手和不好啃的“硬骨头”。

(三)“数据性别平等”的权力视角

掌握数据权力的组织,如政府和企业有权决定哪些东西可以优先被数字化,传感器装在什么地方、重点收集哪些数据,以及开放哪些特定的数据集以供社会和市场使用。在其之下,数据工程师们也能决定采用哪些数据来训练目标AI,用什么样的方式清洗、加工、筛选和取舍数据,以及将哪些数据视为“噪声”和需要被剔除的“废料”,甚至最底层标注员的不规范操作和人员之间的误差也能影响AI的最终呈现。这些主观操作过程十分关键,看似是“中立”的决策和无害的技术过滤,但它们同后续的模型设计和代码编辑一样,具有高度政治性和文化性,夹带着某种隐秘的固有偏见和价值观念。数据原料一旦被输入算法,输出时就无法保持其本来面目,正因中间过程发生了难以清晰解释和追踪的“质”变,对数据质量的前置性干预和把关才更为重要。

因此,“数据性别平等”和“算法性别平等”应该是两个问题,前者并非后者的子集或处于次要地位。如果是在收集、输入、清洗和标注数据时产生的问题,那就应该是“数据歧视”。数据权力造成的偏颇可能比纯技术性的算法黑箱更易识别,针对它的约束方案也更易懂和可操作。世界范围内针对数据的治理已驾轻就熟,域外实践已经开始不断解耦算法、使之分离成各自皆易于解释、可以治理的若干部分。其中,“数据表征”正日益成为数据和算法间的执法连接点,在容易治理的数据和难以治理的算法之间架起了桥梁,成为当下算法治理的“牛鼻子”[27]。譬如,从当前无法理解的人脸嵌入或矢量中,将“眼睛”、“鼻子”、“嘴巴”等表征找到,并将人脸识别算法表达成这些表征的关系,现有数据法就可以适用了,从而丰富了治理工具,提高了执法能力。

当然,这只是一种无奈的“数据逆推”,使之可被纳入既有的数据治理框架,所以有必要在“用数据进行操作之前对数据进行操作”[28]37。有必要将狭义的数据治理引入智能社会性别平等议题中,改良数据权力和数据生产的现状,提高数据质量,从整体上营造一种基于数据正义的数字化环境。性别数据治理亦是一个场景颗粒度非常高的综合性工程,其对敏捷治理的要求也很高。只有先搞清楚某种特定的歧视或缺陷到底是因为数据学习过少还是暴露过多而引起的,才能进一步灵活判定哪些领域应该训练机器对性别充分敏感,突出“数据性别”,给出技术的“女性可供性”,哪些领域可以通过强制性技术力量模糊性别画像,矫正人为制造和主观上的不平等因素。

四、一种方案:弥合“性别数据鸿沟”

在数字空间中,刻板印象导致的偏见和污名化集中在语言文化与心理层面,受损的往往是人格和自尊,而机器内部的数据(计算结果)交换和“算法识别性”[29]才是智能社会语境下的紧迫问题。因算法的输出结果往往以自动化决策和工业成品的形式出现,“计算机刻板印象”可以造成实际上的机会不平等、增加女性在使用某些产品时的风险,恶化她们的健康状况[30]。比如搜索结果中含有偏见可能并不致命,但当这种偏见汇聚成可供其他场景使用的数据集,就会影响招聘算法的公正性,降低人脸设备对深肤色女性脸部特征的识别速度,抑或是钻进量产的可穿戴设备中,造成女性急慢性身体损害。这些偏差已经广泛出现在预测性警务、信用卡额度、医疗福利系统等场景中[31],暴露在同一种智能决策或硬件设备前的男女境遇可能完全不同。

当然,人工智能行业并非视数据质量为儿戏,数据集的全面、准确和清洁几乎是基本共识。但性别领域的问题恰恰是:压根不存在这样的数据集。类似“准确”、“清洁”的概念也值得进一步推敲。这些概念的标准才是问题根源。对很多模型而言,收集和加入女性数据反而造成了“不精确”,带来了噪声和异常值,“污染”了数据集,增加了成本,阻碍了高效率的实现。

(一)“消失的女性”和数据的性别政治

阿马蒂亚·森曾提到一种“女性消失”现象:根据实际性别比,亚非地区有超过一亿本应存在的女性人口。堕胎、杀婴、弃婴等因素导致了这种过高的损失率[32]。森还区分了“真正”和“名义”上消失的女性,后者是指出生后未被登记的女性人口,即她们从统计数字上消失了。性别数据鸿沟也是这样一种“统计不存在”。以往,没有身份和户口可能导致个体无法在现实生活中正常行使居住权、受教育权、劳动权;而在数智化时代,这种数据缺失显然正在更多方面造成对女性不利的局面,让她们再度成为“消失的女性”。

佩雷斯在《看不见的女性》一书中系统性地阐述了这一现象。在前算法时代,人类世界就存在“性别数据鸿沟”(Gender Data Gap),大量有关妇女的数据不可见。大到城市公共厕所布局、积雪清扫顺序和出行的交通规划,小到办公室空调温度、明显不合身的防护装备、难用的吸奶器、过大的手机屏幕尺寸和钢琴键盘设计、容易产生晕车感的VR 设备,再到用于测试汽车碰撞的假人等等——它只是一个缩小版的男性假人(因为司机被默认为男人从事的职业)。我们的世界严重缺乏基于性别的分类数据,因为这是一个以男性数据为基础而设计的世界。男人是世界的“默认设置”。各个领域都充斥着妇女(数据)的“不在场”,导致对妇女永久性、系统性的歧视,令她们生活在一个没有考虑她们需求的制度和物质环境中,面临大量不尽如人意的服务、别扭的产品和糟糕的经历。科学界在疾病治疗和药物使用方面,也将雌性排除在试验之外或视为附带,而这意味着生与死的区别,因为男女差异绝不仅止于体型,而是肌肉纤维和细胞分子水平上的不同。研究证明,有性别刻板印象的医疗预测模型准确度偏低,这些模型对少数群体的治疗方式与实际病情不匹配,可能会造成严重的医疗事故[33]。例如,被低估的麻醉风险可能会导致无法挽回的悲剧[34]。直到今日,药品说明书的“用量”部分还是只分幼儿和成人,没有男女之别。技术发展的某些不良政治面向并不必然就是设计者存心不良或有意伤害他人所致[35],他们只是压根没有考虑女性的需求是否会有所不同。性别数据缺口是一种数千年思考方式的产物,它源于双重的不思考:男人不言而喻,女人不被提及。

未来,不管是医学研究、药物开发,还是可穿戴人机交互设备的设计,都将大量应用计算机智能模型来辅助产品的研发和生产。很多时候这并不涉及推荐或评分算法,但缺乏按照性别分类的数据,势必导致依然以男性为标准和对女性不友好的数字世界,让“不被看见的妇女”始终处于“第二性”。

“数据”其实只是被某种测量工具捕捉到的无穷世界的一个子集[36]210,既非客观,也不中立,只是固有收集惯例的结果。它本该在微观层面解放出大量日常实践和代表性不足的声音[37]。但实际情况几乎都是主观、随意的,数据很容易就在不知不觉中受到各种力量的左右,透明度和异质性并无保证。哪怕是看起来最科学中立的科学数据,都是某种经过选择的简化结果。有选择之处便有权力。

数据点是我们生活世界的快照。一方面,巨大的性别数据差距可能源于绝对的性别数字鸿沟。例如,全世界使用手机上网的女性比男性少约3亿,中低收入国家的女性拥有智能手机的可能性比男性低20%[38]。这些设备每天都在产生用户数据,妇女较少使用的事实必然会使数据集出现内在偏差。北美的一项研究表明,如果一对夫妻经济状况堪忧,女性更有可能放弃拥有手机和使用社交媒体,转而共用伴侣的手机[39]。另一方面,即使产生了数据,国家政府、科研机构和公司企业也将决定是否收集和女性相关的数据、收集什么数据、以什么方式使用(或不使用)她们的数据来辅助决策和设计。这种决定往往还涉及成本—收益计算,要在原有的数据口径之上增加一个性别分类,其工作量和支出可能翻上一倍,但却并不能马上看到回报。因此,要想弥合性别数据鸿沟,创建性别平衡的数据集用于公平算法开发[40],是一件相当艰巨的任务。

(二)数据女性主义与性别数据生产

传统应对措施如提高妇女的互联网接入率,让她们不再“脱线”等,依然可以发挥重要作用,这是保证女性数据生产的第一步。在性别数据生产方面,国际上近年来兴起的“数据女性主义”(Data Feminism)思潮则倡导审视、挑战数据领域中不平等的权力结构——来自全球北方的白人精英男性掌握大部分数据权力,并追问:“谁的信息需要成为数据,才会被视为事实并转化为行动”[41]。《女性主义数据“说不”宣言》呼吁拒绝将数据理解为无实体和非人性化的东西,要用对性别、种族、阶级、残疾、国籍和其他形式具体差异的敏锐眼光,来审视数据的生物政治含义,致力于用女性主义数据伦理来理解和改变权力的运作方式,明确寻求公平和要求正义[42]。在世界开放数据运动中,性别议题也越来越显著,《开放数据发展现状》专门辟出一章讨论性别平等,提出:没有数据平等就没有性别平等,必须解决数据收集和发布中的性别偏见,挑战根深蒂固的父权态度和规范,采取实际步骤和明确的政策来创建更好的数据[43]287

中国语境中,当务之急是探索如何将性别数据议题同国家宏观数据政策和数字中国战略进行有机对接。首先,开展对关键领域科研型数据口径的改造,将性别变量纳入收集、分类和分析的过程中,重新定义数据质量和可用性的标准,在特定领域建立性别数据库。其次,加大对性别领域数据项目的资金和政策支持,在数据生产要素化和市场化的进程中嵌入平等理念。再次,从数据正义的理念出发,重新界定数据活动“合规”的标准,设置渠道鼓励受影响群体,特别是女性全程参与到数据标准制定、采集、处理、应用等生产活动中,积极纠错,防止数据画像简化和歪曲女性,以维护自身的数据权益,扭转数据实践的不公正。

此外,在将“她经济”当作消费主义加以批判之时,不妨吸收市场经济的积极力量。对能够敏锐发掘女性使用者需求,注重开发“适女智能产品”的初创企业予以大力支持,给予政策优惠,鼓励这些市场主体成为制度化数据生产之外的良好补充,堵上全世界另一半人口的数据缺口。当女性产业随着妇女可支配收入的提高而获得经济成功,这些公司就能站稳脚跟并吸引到风险投资,进入良性循环。这部分女性数据将来很有可能反哺政府治理活动,增加公共决策中的性别权重,并且成为数据要素市场中不可或缺的一类重要产品。

改良数据生产体制的关键是将人们置于群体的相互关系之中,使数据关系民主化,防止它使不公正的社会关系具体化[44]。这需要社会各界,从公共机构到私人企业,从政府治理到市场调节共同努力。

五、木兰从军:什么情况下我们需要性别不敏感

(一)数据是越多越好吗

2022 年6 月,美国最高法院推翻了半个世纪前“罗诉韦德案”的裁决,堕胎变成了非法行为。对此,有科技组织担心警方将获得授权,以获取用户的搜索历史、地理位置和其他表明其计划终止妊娠的“数字证据”,比如记录经期的应用。换言之,科技公司收集数据的做法可能成为执法部门的“帮凶”,让寻求堕胎者获罪。据报道,密西西比州检察官就曾指控一名母亲二级谋杀,因为手机搜索记录显示她在孕晚期曾寻找堕胎药物[45]

可见,数据并非越多、越详细越好,数据库之间的壁垒也并非越打通越好。训练不足和训练太足都有问题,在思考哪些数据是可以并且应该导入系统的时候,也应该反向考虑“哪些数据是不能导入的”[46]69。适当保持一些性别数据鸿沟,设计一道隔离墙,斩断一些关联,防止性别变量成为显性指标,反而是防止歧视发生,保护妇女的一种办法。研究发现:增加女性数据覆盖规模,管用的主要是生理与生物性别发挥作用的场景(往往对应生活领域的社会服务和消费活动),此时需要凸显差异性;反之,需要模糊性别特征的时刻,往往是那些社会性别开始接替生理性别发挥作用的场景(或是男女面临机会竞争的生产性领域),要求尽量抹平男女差异[47]。女性要承担的母职是一个非常复杂精细甚至会有内在冲突的问题,生物性别和社会性别并非截然对立,而是一体两面。一旦特殊场景要求模糊性别属性,前期做的加大女性数据供应的工作,可能就会帮倒忙,增加后续去性别化的难度。在医疗智能算法领域,临床应用上的性别差异被弥补了,但医疗赔偿的性别差异也跟着演化出来,女性可能被保险公司要求缴纳更高的保费[45]。这种情况究竟属于不平等的范畴,还是正常的市场价格信号,尚难下定论。

长期以来,妇女受到数据、设备和实践的约束是不争的事实,它们跟踪和监控女性,试图规训出性别化和具有不同能力的身体。努力反对“有害的数据制度”,还因为更多的不公正发生在我们熟悉的诸如教育、刑事司法系统、就业、住房、贷款等日渐交由技术系统来作决策的日常领域。相同知识水平和业务能力的女性在各类算法的秘密评分中总是被男性压一头,这就降低了她们和男性获得相同学历、职位和其他社会地位与经济机会的可能,被锁死在较低的社会阶层,或者更有可能堕为罪犯。如果说前智能时代,女性较少担任高级职务、晋升困难、在学术职业生涯中也很难获得和男性同行相同的成就,可能是因为诸多社会性别刻板印象和家庭责任的拖累,那么今天,这些因素可能化为数据,成为自动化决策系统一票否决或降低评价的依据。

(二)“优绩主义”的无知之幕

佩雷斯提到一种“优绩主义”,也就是不以出身论英雄,通过个人能力就能取得成功的社会氛围,要做到这一点,除了决定他人命运者持身以正,可能还需要一些特殊的方法,譬如在各种竞争性场合中人为地插入一块“无知之幕”,将个人能力、工作表现与其生物特征分离。20 世纪70 年代,纽约爱乐乐团就开始使用“盲试制度”来遴选成员,在面试时竖起一道隔板,面试官看不见演奏者,效果非常之好,到20 世纪80 年代初,女性就开始占到新录用员工的50%,如今,该乐团的女音乐家比例超过45%[48]。还有公益组织实验性地将两份同样的简历数据发送给企业,一份包含姓名、经历和背景细节,另一份则将这些细节隐去,结果前者只有5%的女性获得面试机会,而后者则达到54%[49]95。此后,盲招系统应运而生。

盲招思路在我国其实已经内含于反就业歧视的一般性规制中,体现为“不打探”、“不考虑”、“不卸责”。不过,这三项防御规则在自动化歧视中均存在被洞穿的风险[50]。比如,算法从已知数据中推测求职者的婚育状况,让“不打探”形同虚设,又因算法执行人事决策时具有自主性,很可能不当使用了已获取的信息,导致“不考虑”规则也失效了。

不过,升学、招聘等决策类算法中存在的主要还是“镜像同构型”和直接或间接“复现”型歧视[51],不涉及人机交互和被“教坏”等二次污染的问题。比较简单的做法是在自动化招聘系统中加入传统纸质化招聘中“可撕页”(Tear-off Sheets)的类似设计,即在流程中,将受保护的人口统计信息与剩余线上申请流程隔离开,用人单位在做出决策之前都无法访问这类信息[52]。集体协商机制也要发挥作用,工会等组织应该代表劳动者出面,了解哪些数据被收集、用途是什么,代行控制权并阻止共享。与数据可携权相反,不保留、不转移求职者的数据画像是防止劳动者在申请不同岗位时遭到“反复”歧视的办法。

2022 年3 月,我国实施的《互联网信息服务算法推荐管理规定》赋予网民“理解机器如何理解自己”的权利,用户将拥有更细颗粒度的自主控制权,可以有针对性地删除用于算法推荐服务的个人特征标签[53],相当于切断了某一类特定数据反作用于自己的途径。这一进步应以内容推荐算法为起点,逐步向外拓展至其他场景,比如筛选和评分类算法,普通人也应当有权了解数据来源和数据构成(比如朋友圈晒的结婚证、二孩政策搜索记录、叶酸网购痕迹等)如何形成了特定类型的标签,并自主删除那些明显构成歧视的和性别相关的画像。

(三)“安能辨我是雄雌”:性别的隐私计算

对于算法自主学习其他关联信息(比如是否上过女子中学,平时购买个护商品的频率),形成集合查询(Aggregation Queries),发起链接攻击或差分攻击(Differencing Attack),导致间接出现的歧视性决策,传统的匿名化手段就失效了,需要引入更多技术性手段予以阻击,降低算法的性别敏感度。但是现有法律框架下,性别变量很难被定义为隐私或敏感的个人信息。对性别信息的保护力度显然不及姓名、身份证件号码、生物识别信息、住址、电话号码等关键个人信息,一般的数据脱敏操作“脱”不到性别这一维度上。然而,在招聘等特殊场景中,性别却成了“关键”的个人信息,关系到计算结果的公正性,在治理思路上,完全可以拓展已经较为成熟的隐私计算技术,发展出一种性别的隐私计算来覆盖上述问题。

隐私计算其实是一种云计算技术,将敏感数据隔离在一片CPU“飞地”中加以保护,“飞地”中的内容只能通过已授权的编程代码访问[54]。通俗来讲就是数据“可用而不可见”,用技术手段分离数据本身和其使用价值。参与各方通过安全的算法协议进行联合机器学习,用数据源提供模型推理与预测服务,各方只交换密文形式的中间计算结果或转化结果,不交换数据,保证数据不出本地[55]。隐私计算已经广泛落地在风控、医疗、政务、营销、人脸识别等需要利用敏感个人信息数据的领域。性别—职业领域的计算需求,虽然不会造成“明显而即刻的危险”,不能被归为传统的数据安全问题,但也完全可以朝着隐私计算的方向发展,交由中心化的数据控制者集中统一保护、提供服务,阻止算法通过锁定具体身份,扩大收集范围,自行学习某人的其他关联信息。

限制集合查询的方式也有可能出现漏洞,进一步引入差分隐私技术就很有必要,它通过添加随机性保护个人隐私,无论一个人是否在某一数据库中,这个数据库中查询的结果都只有微乎其微的变化[56]。换言之,企业无法确定某个人是否在某个数据库中,就不能通过差分攻击获取用户隐私,这样就能保证用户个人数据的隐私。比如,招聘算法的使用者可能只能知道某一简历数据库中存在不少女性特征,但无法将这些特征和具体某位应聘者联系在一起,如果硬要盲猜,只会“误伤”男性。将来,正在兴起的数据信托类机构或可代表求职者个人利益,监督市场主体对个人简历数据的采集、加工和使用,或由数据信托直接承担原始数据保存工作,只向招聘企业提供符合职位要求的计算结果,满足企业需求的同时不公开简历数据本身。如果控制了几乎所有数据变量,算法还是作出歧视性决策,那就属于前文所述的算法、代码和模型的干预阶段了,要依靠中末端治理手段。

我们希望在特定场景下,女性就好像一身戎装的“花木兰”,让机器“不能辨雄雌”,确保智能辅助决策下的机会公平。如果有人要“调查”她,能够推断出性别的信息已经不可见,或者只能判定数据库中有女性,但并不知道到底哪一个是木兰,尝试逆推性别的学习过程也会被后续算法治理的各道工序禁止。此时,弱势人群恰恰需要一个“算法黑箱”或一座“数据孤岛”。

可能有人会认为,模糊性别的策略是一种对支配性性别秩序的屈服。但至少在机器秩序中,先使用技术手段淡化性别作为筛选和准入机制的作用,是值得尝试的。就好比禁止产科医生向孕妇透露胎儿的性别一样,取消“最初时刻”的人为选择,尽最大努力确保两种性别的新生命可以拥有同等的机会来到这个世界,让女性不再凭空“消失”。北欧科技开发者已经设计出了无性别语音助手。或许这种创新也可以给性别隐私计算提供一种思路,招聘、录取等给人评分的环节,也可以是无性的。

六、余论:妇女的数据也“顶半边天”

在《发明人类:平等与文化差异的全球观念史》一书中,西佩·斯图尔曼提出:在历史的大部分时间里,不平等是习惯性的、合理的,无处不在、真实可感,而平等则是需要理由的,它“需要被想象、争论和凭空构想出来”[57]。换句话说,“平等需要被发明”。

智能社会的性别平等首先应该是“数据平等”,这尚需我们去积极“发明”。在本文的语境中,“差异政治”和“平等政治”并不对立,恰好可以通过数据这一客体形成奇妙的联结并同时实现。这就需要我们在数据生产、供应和治理的过程中,灵活识别和巧妙平衡生理或生物性别和社会性别。在兼具生产和生活、公共和私人特征的复杂领域,可能还要审时度势地打“组合拳”,防止一种干预措施反向消解另一种努力的成果。最终目的是引导机器“硬规则”向人道化和性别友好的方向进化,将我们身处的人机交互环境乃至生活世界都改造得更为包容、“柔软”和公正,让人工智能在“差异平等主义”[58]之下为女性赋能。这绝非追求两性在社会分工和性别文化上的无差异绝对平等,相反,这种平等恰恰建立在对差异的充分识别、尊重和维护之上。

(参考文献略)

注释:

①在人工智能监管上,香港特区政府虽未出台有强制约束力的法律文件,但围绕“数据道德”这一核心目标陆续发布了多份重要的指导文件:包括《中国香港的道德问责框架》、《开发及使用人工智能道德标准指引》、《人工智能道德框架》和《应用人工智能的高层次原则》。参见《香港与AI:持道德为核的监管,怀包容开放的心态》,https://mp.weixin.qq.com/s/wbgz9TIk-F3fNZB0dvB8zw.




宁夏社会科学
《宁夏社会科学》(双月刊),是由宁夏社会科学院主管、主办,《宁夏社会科学》编辑部编辑出版的综合性人文社会科学学术期刊,开设当代马克思主义哲学、政治、法学、经济、管理、文化与传媒、历史等栏目,并根据国家发展战略开设专题研究栏目。
 最新文章