本期编译简介
编者按
哲学家尼克·博斯特罗姆(Nick Bostrom)提出了一个“回形针最大化问题”的思想实验:一个以制造回形针为目标的超级智能的AI系统,最终将在没有任何限制的情况下把地球上的所有资源,甚至整个宇宙,全部转化为回形针或生产回形针的机器。2024年,诺贝尔物理学奖授予两位在人工智能领域的学者,经济学奖得主阿西莫格鲁对AI潜在负面影响的深刻关注更是引发了广泛讨论。本期为大家带来的是发表于Perspectives on Public Management and Governance的文章“Artificial Intelligence and Administrative Evl”。该文章不仅回应了当前关于AI伦理的热点话题,且强调了在快速发展的AI技术面前,公共管理者需要加强自我反思和伦理规范,以确保技术进步真正服务于公共利益,防范潜在的行政之恶。
文章简介
文章标题:《人工智能与行政之恶》(Artificial Intelligence and Administrative Evil)
来源期刊:Perspectives on Public Management and Governance
发表时间:2021年8月
作者简介:
Matthew M. Young,荷兰莱顿大学公共管理学院助理教授,研究方向为公共部门人工智能和相关技术的创新实施;
Johannes Himmelreich,美国雪城大学麦克斯维尔公共事务学院助理教授,研究方向为应用伦理和人工智能伦理;
Justin B. Bullock,美国华盛顿大学布什政府与公共服务学院助理教授,研究方向为人工智能和数字裁量权;
Kyoung-Cheol Kim,美国佐治亚大学公共管理与政策学院博士研究生,研究方向为官僚制与人工智能。
编译速览
01 引言
“回形针”思想实验表明,追求看似无害的目标也可能会产生不良后果,这是人工智能(Artificial Intelligence,AI)价值对齐的问题,也与行政之恶紧密相关。行政之恶理论(The theory of administrative evil)起源于汉娜·阿伦特关于“平庸之恶”的概念,认为普通的官僚系统通过执行非恶意的日常任务,也可导致不公正或不必要的痛苦。恶行的根源通常是结构性的,诸如规范、惯例和“技术理性”文化等因素解释了为何恶行会发生。通过将行政之恶理论与代理理论相结合,文章揭示了信息不对称和道德风险等机制如何在公共组织中影响AI的应用,进而影响行政行为的伦理性。
文章在微观、中观、宏观三个层面详细阐述了行政之恶理论的因果路径,并在此基础上发展出描述性和规范性的命题,探讨AI在公共行政中可能降低或增加行政之恶风险的机制。研究旨在从公共行政视角看待日益增长的关于人工智能安全和价值对齐问题,并警示公共部门谨慎应用人工智能以规避潜在风险。
02 行政之恶
行政之恶理论并非着眼于个体恶意,而是关注导致不公正或不必要痛苦的结构性和组织性因素,强调在官僚系统中,即使缺乏明确的恶意,日常的、例行公事的行政行为也可能造成伤害。行政之恶主要特征有三:它源于组织层面的行为而非个体恶意;技术理性文化通过强调效率和程序而忽视伦理考量,从而助长了行政之恶;行政之恶的隐蔽性和渐进性需要组织成员持续的自我反思。行政之恶的两个核心概念是:掩盖(Masking)指通过使用委婉语、模糊术语或制造心理距离,使行政行为的负面后果难以被识别;道德倒置(Moral Inversion)则是将有害行为重新定义为善行,通过去人性化等手段,使得这些行为在伦理上得以合理化。
1. 代理理论和行政之恶
通过将行政之恶理论与代理理论相结合,能够揭示信息不对称和道德风险如何成为行政之恶的潜在驱动因素。代理理论关注委托人与代理人之间的关系,特别是信息不对称和道德风险问题。信息不对称指代理人掌握比委托人更多的关于其活动和能力的信息,而道德风险则表明代理人的行为动机可能与委托人的期望不一致,导致代理人可能不按预期行事。在行政之恶的语境下,掩盖现象被视为信息不对称的具体表现,即AI系统的技术复杂性和不透明性使得委托人难以全面理解代理人的决策过程,从而难以识别潜在的恶行。同时,道德风险则表现为代理人可能因目标和价值观的不一致,而在无意间或有意地偏离组织目标,导致行政决策的不公正
2. 组织决策与技术
委托问题在于如何确保代理人忠实执行委托人的意图,而信息不对称和利益冲突则可能导致道德风险和逆向选择。裁量权赋予行政人员在不完全法规和复杂情境下做出决策的自由,但也可能导致决策的不一致和不公正。尽管信息与通信技术(ICTs)被视为缓解这些问题的技术手段,通过增强数据分析能力和减少信息不对称,提升决策的透明度和准确性。然而,技术的快速发展和广泛应用也引入了诸如“大数据”系统的信息过载与简化问题,使得决策者可能忽视关键信息,同时自动化偏差(Automation Bias)也可能使决策者过度依赖技术建议,从而忽视自身的判断和伦理责任等问题。这些因素的共同作用使得技术在提升组织决策效率的同时,也可能通过掩盖和道德倒置,加剧行政之恶发生的风险。
03 人工智能在行政之恶不同层面中的作用
AI对行政之恶的影响并非单一维度,而是会与个体属性、组织结构以及更广泛的文化背景相互作用,从而产生复杂的影响。具体而言,微观层面关注个体代理人的属性如何与AI技术相互作用,影响行政之恶的风险;中观层面强调组织结构因素和关系动态对AI与行政之恶之间关系的影响。宏观层面关注更广泛的文化背景,特别是技术理性文化和科学分析思维模式对AI使用和行政之恶的影响。
1. 微观层面:个体代理人及其属性
在微观层面,AI对行政之恶风险的影响主要体现在个体代理人的属性和行为上。AI系统凭借其卓越的分析能力,能够帮助个体决策者发现隐藏的危害,从而降低行政之恶发生的可能性。例如,社会服务机构利用AI系统评估绩效,可以揭示现行资格标准中存在的系统性不公,从而防止不必要的问题。然而,AI同时也可能通过引入自动化偏差增加行政之恶的风险。当个体决策者过度依赖AI系统的建议,而缺乏批判性审视时,尤其是在面对边缘案例时,可能会导致错误决策。此外,AI的应用往往减少了个体决策者的裁量权,集中决策控制于更高的组织层级。这种控制的集中化在一定程度上取决于组织领导层的伦理倾向,如果领导层缺乏道德约束,AI可能会助长行政之恶的发生。
2. 中观层面:组织结构因素与关系动态
在中观层面,AI对行政之恶的影响通过组织结构和内部关系动态体现。AI系统的引入往往伴随着决策权的集中化,即将更多的裁量权从一线员工转移至高层管理者。这种集中化可能根据组织领导层的伦理倾向,进而增加或减少行政之恶的风险。例如,如果高层管理者倾向于追求效率和成本最小化,而忽视伦理和公正,AI系统可能被用于优化这些指标,从而忽视对弱势群体的公正待遇。此外,AI系统的技术不可测性(Technical Inscrutability)使得组织内部难以全面审查和理解其决策过程,增加了行政之恶的隐蔽性。量化偏差(Quantification Bias)也是中观层面的一个重要因素,即AI系统过度依赖可量化的数据,导致关键的定性信息被忽视,从而引发偏见和不公平决策。
3. 宏观层面:文化因素
在宏观层面,AI对行政之恶的影响主要通过塑造和强化特定的文化模式和社会规范表现出来。AI的广泛应用在一定程度上加强了技术理性主义(Technical-Rational Problem Solving)和科学分析思维模式(Scientific-Analytic Mindset),即过度依赖定量数据和技术解决方案,而忽视复杂社会问题的多维度和非量化特性。这种文化倾向促进了“解决方案主义”(Solutionism),即倾向于通过技术手段解决社会问题,而忽视了问题本身的复杂性和多样性,从而可能掩盖潜在的行政之恶。例如,AI系统在公共服务中的应用,如果不考虑社会背景和人文关怀,可能会通过机械化的决策流程忽视个体的特殊需求和伦理考量,导致对特定群体的不公正待遇。此外,AI的量化偏差又进一步限制了政策制定者对非量化信息的重视,推动组织和社会优先考虑易于测量的指标,忽视了更为复杂和难以量化的伦理和社会价值。这种文化上的技术理性化不仅使得恶行被掩盖,还通过强化技术权威,压制了受影响群体的声音,进而助长了行政之恶的滋生。表1总结了AI在不同层面增加或降低行政恶行风险的命题。
表1 按分析单元划分的AI增加或减少行政之恶风险的命题
04 讨论
文章正式提出了六个命题(表2),总结AI在伤害发现、技术复杂性、量化偏差、AI狂热、组织价值错位和控制集中化方面的潜在影响。这些命题既涵盖了AI可能通过提升信息质量来减少行政之恶的机会,也揭示了AI因其不透明性、过度依赖定量数据和技术理性文化可能加剧行政之恶的风险。未来的实证研究应检验这些命题,并为不同层级的公共管理者提供具体的策略建议。在微观层面上,个人决策者需要转变角色以监督和审计AI系统;在中观层面上,管理者需确保AI的使用符合组织的伦理和价值观;在宏观层面上,公众需认识到量化偏差和AI狂热带来的潜在风险,并提高自我意识以避免自动化偏见的陷阱。
05 结论
本文的主要贡献和发现在于:一方面扩展并应用了行政之恶理论,通过使用代理理论并明确地将所述路径映射到不同的分析层面,阐明了其因果路径;另一方面文章提出了六个命题,涵盖了AI在公共组织中可能增加或减少行政之恶风险的多方面因素。这些命题共同构成了一个明确的警示:政府如果没有在AI采用和实施前、中、后进行重大干预和监督,AI 可能会助长行政之恶。公共管理者在引入和实施AI时,必须采取极大的审慎态度,需要确保以下几点:(1)明确任务:仅在任务明确且AI技术适配的情况下使用AI;(2)数据多样:确保决策过程中使用多样化且高质量的数据,避免量化偏差;(3)提高透明:尽可能提高AI系统的透明度和可解释性,减少技术复杂性带来的不良影响;(4)明确责任:建立清晰的法律和文化责任机制,确保AI系统的错误和意外后果能够被有效追责和纠正。
文章呼吁,公共部门在采用AI技术时,不应盲目追求技术解决方案,而应深刻理解其伦理和社会影响,确保AI的应用能够真正提升公共服务的公平性、有效性和效率,避免成为“行政之恶”的助推器。
栏目声明
公共管理共同体海外栏目以增进学术交流为目的,编译内容代表志愿者编辑对文章的理解,对文章全文有一定的删减。如果您对于此文的编译词汇或内容有更好的理解,欢迎各位读者留言。如有任何不当之处,请留言反馈或私信后台。如需转载请注明出处。点击阅读原文输入“h77c”即可获取原文的PDF版。
编辑 | 朱 亮
校对 | 林 森
审核 | 高光涵
往期推荐
1/GIQ编译|如何应对公共行政中的“自动化偏差”?——来自法学和心理学的跨学科视角