我是一个规律去健身房,爱好户外跑,可以在长线徒步中拉爆很多男性的女生。
然而,在AI眼中,我竟然就是个男的?!
在用黏土人滤镜时,我发现穿裙子的照片粘土化后没有问题,但一遇到徒步照片,运动照片等,黏土人化后的我就成了“男的”。
图为 户外照片中的女性被识别为男性|图源 小红书@老kay
怎么回事,难道AI觉得只有男性才能拉得起引体向上,才会背着十几公斤的包去荒野徒步?
而女性,就只能是待在家里照顾小孩的形象?
图为 《后翼弃兵》女主粘土化前后对比|图源 小红书@relgnarts
生成式AI,似乎在诞生之刻就成为了“先进”的代名词,但在性别问题上,它又出乎意料的“落后”。
为什么会这样?难道说,代表着人类未来的AI也逃脱不了“厌女”的命运吗?
01
“厌女”的AI
事实上,当前所有AI图像生成器都存在某种程度上的“性别歧视”。
一部分问题是AI的性别刻板印象导致其判断失误。如前所说,粘土人滤镜会把很多运动场景中的女性在粘土化时识别成男性,AI会把涂口红的男性误判为女性,无法生成比男性高的女性等等。这些歧视性例子归根结底都是一种技术上的“出错”。
当然,这些“错误”背后的潜台词仍然是女性远没有男性爱运动,只有女性会涂口红,女性不可能比男性高等刻板印象。
图为 AI无法生成比男性高的女性|图源 小红书@广外萌萌
另外一部分问题不是单纯的“出错”,而更加反映了社会本身就存在的性别问题。
在一项实验中,研究人员要求DALL-E和Stable Diffusion(两个知名的AI图像生成器)对工程师、科学家和IT专家进行绘图,结果两个AI都生成了高达75%到100%的男性形象。
图为 DALL-E生成的工程师图像|图源 作者
而当要求绘画“护士”时,出现的往往是女性形象。可以说,AI的图像生成结果正反映着我们对这个社会中不同职业的刻板印象。
图为 DALL-E生成的护士图像|图源 作者
这种“性别歧视”很难说是一种错误,但它通过复制性别偏见,可能会进一步加剧当前的性别鸿沟。随着AI的发展,它创造的图片还会变得越来越“真假难辨”。如果带有偏见的照片融入我们的生活,我们可能会在潜移默化中加深偏见。
同时,带有性别偏见的图像可能会作为训练数据重新进入未来的模型,导致下一代AI模型变得歧视性更强,产生累积偏见的滚雪球效应。
02
为什么AI也“厌女”?
某种程度上,AI和人类一样。我们成长于一个“厌女”的社会中,在海量信息的影响下,总难以避免地产生“厌女”的行为和想法。
相似的,AI不会凭空创造内容,它需要通过学习来变得“智能”,而它学习的就是人类充满性别歧视的历史,因此它也很难逃脱“厌女”的命运。
表情包 屹立于宇宙中的小熊
同时,由于AI学习的内容往往跨越古今,所以它在生成一个综合性的结果时,体现的也是当前和过去的整体情况,而不是最新的社会状况。
比如,当前在很多传统男性主导的行业中,女性的比例都有所提升,女律师女医生不再像以前那样少见。
但AI会综合长久以来律师、医生行业的性别比例进行判断,对社会中新出现的女律师女医生就变得没有那么敏感。因此,AI的生成结果相较于社会发展,可能存在滞后性。
表情包 无语
一个更难以避免性别歧视的原因是生成式AI本身使用的生成策略。为了让生成结果有更高的准确性,工程师们通常会让大概率事件变得更大概率。
在性别问题上,这种生成策略就会强化现存的性别刻板印象。更广泛地说,不仅是女性,所有少数群体或弱势群体都会在这种生成策略下变得更加稀少和弱势。
表情包 措手不及
除了这些AI自身难以避免的问题之外,人为干预的不足也让AI的性别歧视雪上加霜。
当前,人工智能领域仍然由男性主导。在全球范围内,只有约22%的人工智能专业人员是女性。知名公司OpenAI的创始人也都是男性,目前的八人管理团队中只有Mira Murati一名女性成员。
图为 OpenAI
女性的缺席往往导致了性别视角的缺失。AI相关的技术在设计是否考虑到了女性的使用体验?训练AI的数据来源由谁决定?如何筛选更加性别平等的数据以减少对某些群体(包括女性)的伤害?这些问题尚未得到解答。
03
“厌女”的AI还有救吗?
AI的“性别歧视”值得关注,但也不必过于担心。就像我们可以通过各种渠道学习性别知识,AI一样可以学习。
首先,AI出错的问题可以通过一些手段进行改善,比如“基于人类反馈的强化学习(RLHF)”。简单来说,这是一个奖励模型——当AI给出我们满意的回答时,我们给予奖励,反之,则不给奖励。
表情包 再这样试试呢
通过不断的学习强化,AI会越来越了解我们想要什么。我们可以利用这种奖励,来让AI获得更多“性别意识”,打破它的固有性别偏见。
当然,这种优化训练依旧建立在人类的性别意识之上。我们必须先意识到AI可能存在哪些性别刻板印象,才能有针对性地对AI进行优化。
因此,在开发各类AI之前,应当首先在战略层面考虑性别问题,制定明确的性别中立目标,以指导AI的开发过程并评估其产出。在此期间,除了AI相关从业人员,也应该让社会学相关人士参与到决策中。
图为 AI治理|图源 IMDA
具体来说,多样化的数据集是一个“性别友好”型AI不可或缺的原料。当前很多数据集都由人工筛选而成,创建数据集的操作人员自身的性别歧视可能会直接影响AI。
比如,如果操作人员认为只有拥有丰满乳房的女性才算“女性”,在筛选数据时只将这部分女性囊括进数据集,那么由此训练出来的AI就无法生成平胸的女性形象。
图为 曾经华为pura70的AI消除功能(现已修改)
所以,在收集和注释供AI学习的数据集时,应该保证操作人员的多样性,让数据集体现性别以及其他各类社会身份的多样性。在这种情况下,数据的清理、预处理以及扩充都有助于减少数据中的偏见。
而对于生成策略所导致的歧视问题,也会随着AI的发展而得到改善。当AI模型的能力提升,这种放大大概率事件的生成策略就会被减少使用。
表情包 OK Fine
最后,最根本的解决渠道仍然是减少社会中的性别歧视问题。我们需要更多女性研究人员,需要更多性别友好视角去发现问题,需要创造出更多性别平等的“数据”供AI学习……
当社会进步,AI自然也会进步。
虽然生成式AI有能力复制性别偏见,但放慢或者暂停AI的科技创新并不能扭转社会不平等现象。我们需要从源头上解决问题,而不是解决AI。
本质上来说,AI仍在为人类服务。如果AI生成的东西要投入现实中使用,仍由人来进行把关。AI的优化、发展也依然由人类决定方向。所谓AI的性别歧视,归根结底还是人类社会的问题。
p.s. 如果想互动但不想留言被放出,可以写上【请勿精选】哦~
参考文献:
编辑:解决问题而不是解决AI的白菜🥬
👇点击阅读原文也可进入游戏