制定正确的AI伦理政策对组织至关重要。如果招聘算法或求职结果中存在性别偏见,那么这件事情一旦被公布,就有可能会损害公司的声誉,使公司受到监管审查,甚至招致巨额的政府罚款。感受到这种威胁后,越来越多的企业开始创建专门的结构和流程,来积极主动地贯彻AI伦理。一些公司甚至更进一步,建立了AI伦理的制度框架。
然而,许多努力都忽略了一个重要事实:不同文化背景下的道德观是不同的。首先,一种文化中的是非观念可能根本无法转换到不同的文化背景中。其次,即使在是非对错上达成了一致,在道德伦理方面,不同文化间也可能存在重要差异。文化规范、宗教传统等都需要考虑在内。最后,AI和相关数据法规在不同地域也无法保持一致,因此,AI伦理的合规性也会产生差异。这些因素都会对公司、客户以及业务造成影响。
目前,新兴的全球AI伦理标准主要是以西方视角制定的。例如,“全球AI伦理指南目录”(AI Ethics Guidelines Global Inventory,AEGGA)是一个集中了报告、框架和建议的数据库,截至2024年4月,它已经收集了173项指南,并表示:“绝大多数[指南]来自欧洲和美国。”由此可见,AI伦理标准并不像人们想象的那么全球化。然而,许多公司只是简单地采用了这些标准,并将其应用于全球。
西方视角也被隐晦地编码到AI模型中。据估计,ImageNet上只有不到3%的图像代表了印度和中国的移民社群,但这两个国家的人口加起来却占全球人口的三分之一。从广义上讲,缺乏高质量的数据可能会导致预测能力低下、对代表性不足的群体产生偏见,甚至根本无法为某些群体开发工具。比如,目前,人们还无法用互联网上使用率不高的语言训练大语言模型(LLM)。最近,一项对印度IT组织的调查显示,缺乏高质量的数据仍然是阻碍AI伦理实践的最主要因素。
随着AI的普及和其对业务运营的管理,不加节制地使用AI,同时缺乏道德考量,可能会损害公司及其客户的利益。
为了解决这个问题,公司需要制定一个有针对性的全球AI伦理模型,优先与本地团队和利益相关者合作,并将决策权下放给本地团队。如果公司的业务遍布多个地区,这一点更加重要。
为AI伦理增添内涵
许多公司都有能力从头开始建立一个全球化的、有针对性的AI流程。这主要是因为,它们目前还没有这样的流程——他们没有需要拆除或重新设计的内容,也没有需要对员工进行再培训的协议。相比已经推出了单一、统一的AI伦理政策的公司来说,这些公司反而处于更好的阶段。这些正在制定新政策的组织,实际上有很好的机会做好这件事。
根据我们的工作经验,以及对来自不同地区的AI用户和开发人员等利益相关者的采访,我们发现,制定和实施适合的AI伦理政策需要三个步骤。
首先,公司需要就适用于各个地域的驱动原则达成一致。在我们考察的大多数案例中,全球领导团队负责这项工作:他们与世界各地的团队合作,共同制定、讨论和完善这些指导原则。
其次,需要在公司的不同地区设立相关团队。如果公司在某一地区有重要业务,或者计划在不久的将来在该地区扩张,那就需要在本地成立一个跨职能的团队(至于如何组建这个团队,将另文讨论)。这个团队将负责落实全球领导团队制定的AI伦理框架,并应获得相应的奖励——否则,组织就可能将更多的责任推给边缘团队。在某些情况下,组织可能需要引入外部人员,尤其是在缺乏经验的地区。
最后,全球领导团队在开发初期需要与本地的AI伦理团队进行一系列对话。对话的反馈意见需要纳入公司的整体AI战略,然后再传递给这些本地团队,授权他们根据自身情况进行调整。这些调整也需要与全球领导团队沟通,并根据反馈进行完善。
以惠普企业公司(Hewlett Packard Enterprise,HPE)为例。在HPE,首席合规官与AI研究实验室合作,同时从每个职能部门和产品部门抽调代表,一同编写了全球AI原则。由于团队具有地区多样性,这份原则中所考虑的伦理因素更有可能适用于所有公司运营的地区。因此,HPE的合规团队创建了一个横跨全球的原则矩阵,结合了地区特定的法规和政府框架,确保HPE的全球原则在本地视角下依旧通用。
持续让AI伦理更符合实际情况
在开始时,我们还必须考虑到,最高管理层可能对各地区的具体情况了解不足。因此,他们可能会将与全球AI伦理标准不符的行为视为错误行为。比如,一个全球AI伦理团队在检查员工薪酬的算法时,可能会规定,不得将员工休假的多少纳入其晋升标准。这样做的动机是鼓励男性和女性在必要时休育儿假和病假,同时不必担心休假对职业生涯的影响。然而,在日本等国家,这样的政策很可能会被修改。希拉里·霍尔布罗(Hilary Holbrow)的突破性研究表明,日本公司的员工认为这样的政策极不公平。从文化角度来看,在不投入大量资源来获得各方认同的情况下,直接推行这样的政策是不合适的。
这个例子表明,虽然在全球大部分地区,为了平等而设立政策是一种有益的变革,但在AI算法中,这种做法可能不会带来同样积极的反馈。不过,在一些组织中,本地的利益相关者正在创建数据资源,来帮助组织更准确地感知当地环境。例如,加拿大原住民社区(Canadian First Nations communities)建立了关于数据收集和使用的框架和培训项目,这对任何想在该地区开展业务的组织来说都是至关重要的。
持续参与AI伦理的建设,除了可以提高全球领导层对不同地区的认识外,还可以让他们在某些情况下服从本地团队,但在另一些情况下又能凌驾于本地团队之上,从而使两者的关系达到微妙的平衡。HPE建立的自动化流程就是一个例子。在启动涉及AI的新项目或招标流程时,他们的合规软件会自动安排团队人员与当地的AI治理小组举行会议。本地团队为对话提供背景信息,而全球团队则就HPE的原则和AI治理框架提供更高层次的专业知识。随着时间的推移,这让HPE内部建立了一套可以处理不同AI道德问题的“案例法”。
HPE面对的挑战是,全球管理团队无法预知地方出现的问题,以及组织本身固有的、无法预见的例外情况。HPE并没有尝试创建一个详尽列出各种情境的AI伦理政策,因为这个政策必然会遗漏一些内容。它选择建立一个通用的框架和流程,这个框架和流程可以解答具体问题,建立记录,并持续跟踪记录。这种方法还有一个好处,就是可以应对一个本身就处于动态变化的世界——即使今天的某些行为是符合伦理的,但将来可能会发生变化。而建立一个能追踪和调整伦理决策的流程,HPE就可以更好地应对这种固有的动态性。
遗憾的是,并没有硬性规定来告诉公司如何建立这些流程。即使是在上面的例子中,领导层也有可能因为公司的核心价值是公平性,从而推翻本地团队的反馈意见。一般来说,如果全球领导层能明确传达其目标和战略,这种情况应该很少发生,而且应至少每年审查一次这些决策。定期审查对AI治理至关重要——技术在变、当地的环境在变、治理效果的数据被持续不断地收集、公司战略也在转变。定期讨论和审查对于AI伦理的可持续性至关重要。
建立关于AI伦理的愿景
除了AI伦理的具体实施过程外,我们在访谈中还发现了另一个重要问题:公司缺乏远见。一位AI伦理团队成员表示(他来自印度一家技术公司协会),大多数组织采用的是一种基于合规性的伦理观。因此,只有在客户(主要位于西方)或本地监管机构的要求下,组织才会落实AI伦理政策。
麻省理工学院和波士顿咨询公司最近举行的一次专题讨论会也得出了与此有关的结论。与会者一致认为,目前的重点是AI的经济效益。而这场由AI引发的淘金热已经降低了对于伦理的考量,或将其简化为单纯的合规问题。这种狭隘的做法不仅与组织公开表明的立场背道而驰,而且可能将制定AI伦理政策简化为“应付差事”,进一步让组织不够重视政策的全球化和因地制宜。
HPE原计划在6周内制定其AI伦理原则。他们花费了一年多的时间来制定一个适合HPE的框架,并创建了能够让当地团队调整政策的流程。其中,大部分时间用于解决看似简单的声明背后的棘手问题——例如,“我们遵守法律”看似简单,但当真正思考这句话时,就又会产生无数问题。遵守哪种法律?如何平衡当地法律和全球人权原则?做这些决定需要征求哪些利益相关者的意见?如果公司没有准备好认真参与这些讨论,那么就表明,公司的投入不足,结果反而会创建一个无效的、应付差事的框架。这不仅会延长进入新市场的时间,还可能导致产品质量下降,而且也无法解决许多公司关心的法律责任问题。
用技术落实AI伦理
最后,我们在访谈中发现了一个有趣且积极的趋势,即技术产品正在迅速填补外部开发的AI模型与组织内部用户之间的空间。通过这种方式,技术产品将抽象的AI伦理概念转化为数字化的、可配置的参数。例如,一位产品经理告诉我们,他们的LLM安全产品将AI伦理的应用分成了四个类别:宗教、性别、种族和健康。该产品监控外部开发的LLM在每个类别上的表现,这四个类别在使用提示时又被进一步归类为更具体的术语。因此,用户组织可以配置这些类别,来定义符合伦理要求的LLM使用方式,并以此作为其AI伦理政策的一部分。这种配置界面不仅可以提高效率,还能扩展到LLM之外,让本地AI伦理团队更容易将高级管理层制定的AI伦理框架“本地化”。
HPE的方法虽然在技术方面可能不那么“前沿”,但它采用了算法和自动化流程,积极主动地让一线开发人员和销售人员提出AI伦理问题,确定他们提出的案例是否涵盖在现有的“案例法”之内,并跟踪处理结果。各公司应效仿HPE,重点利用技术来强化自己的AI伦理流程,而不是模糊地将技术和自动化结合在一起。
结论
从上述讨论中可以看出,AI伦理的本地化是一项重要挑战。虽然有很多原因支持AI伦理的本地化,但AI用户组织的反应却不尽相同。尽管HPE等组织已经走在了前沿,为AI伦理的本地化制定了周密的流程和框架,但其他组织似乎还在摸索一些基础问题,比如如何构建AI伦理相关的实践;而有些组织仅仅把它当作一个合规问题。然而,随着AI的快速发展,如何制定和落实因地制宜的AI伦理措施,则是所有企业面临的挑战。
解决这些问题的一个办法就是组建本地AI伦理团队,并持续与之合作。为此,我们提出三点建议。首先,公司应与当地员工一起制定AI伦理规范。HPE对不同地区的AI伦理和治理方法进行了详尽的调查,并与当地团队持续互动,这就是一个很好的例子。其次,在早期,公司应就自身价值观与各地区普遍价值观的冲突点进行协商,就比如上文提到的日本文化价值观与算法干预晋升决策之间的冲突。最后,尽管公司对AI的使用有一套整体的观点,但也可以赋予地方领导者一定的自主权,让他们在伦理的基础上实践AI,同时也能应对AI伦理的监管差异。当然,能在多大程度上给予这种自主权还需要进一步协商。
在采纳这些建议时,重要的是,不要将AI伦理视为一条客观存在的“终点线”。相反,与AI技术的组成部分一样,AI伦理也在不断变化。因此,公司永远不会“完成”AI伦理和治理。这是一个持续的过程。
斯瓦南德·德奥达尔(Swanand Deodhar) 法沃·博罗基尼(Favour Borokini) 本·韦伯(Ben Waber)| 文
斯瓦南德·德奥达尔是印度管理学院艾哈迈达巴德分校(Indian Institute of Management Ahmedabad)的副教授。他植根于与实践的深度合作,以研究数字平台和数字转型等主题。他的研究成果发表在《管理信息系统季刊》(MIS Quarterly)、《信息系统研究》(Information Systems Research)和《国际商务研究期刊》(Journal of International Business)等全球知名期刊上。法沃·博罗基尼是诺丁汉大学计算机科学学院Horizon Centre for Doctoral Training的博士生。她的研究兴趣是解决沉浸式环境中伤害问题的伦理框架。她拥有尼日利亚贝宁大学法学学位,是尼日利亚律师协会成员。她成功利用自己的法律背景调查了技术对人权(尤其是妇女权利)的影响、AI对非洲妇女的影响,以及非洲妇女在各领域从事AI工作的经历。本·韦伯是麻省理工学院媒体实验室的访问科学家,也是立命馆大学的高级访问研究员。他的研究和商业工作侧重于管理、AI和组织成果之间的关系。他还是《人力资本分析》(People Analytics)一书的作者。
DeepL、ChatGPT | 译 张雨箫 | 编校
推荐阅读
往期推荐
社会阶层上的劣势,真的很难弥补吗?
聪明的逆向思维者,擅长做个“局外人”
闭目塞听,是领导者的第一大忌
《哈佛商业评论》中文版 联系方式
投稿、广告、内容和商务合作
newmedia@hbrchina.org
↓点击阅读原文进入哈评中文网,阅读更多精品内容