类别:数字治理
导言
人工智能(AI)已越来越多地应用于公共组织的决策过程中,但我们对它如何影响街头官僚的感知行政问责知之甚少。最近电子科技大学邓怡和北京师范大学孙宇教授对此开展了一项全国性调查实验研究,本研究以我国190 名交警为代表性样本,进行了一项组内调查实验,探讨 AI 的使用如何影响感知行政问责。研究发现,人工智能的使用通过感知自由裁量权对行政问责感知产生负面影响。研究结果为以前的研究提供了实证证据,并促进了我们对街头官僚的行政问责感知如何受到影响的机制的理论理解。论文发表在公共管理类顶级期刊PMR上面。
(文献来源:Deng, Y., & Sun, Y. (2024). How does the usage of artificial intelligence affect felt administrative accountability of street-level bureaucrats? The mediating effect of perceived discretion. Public Management Review, 1-21. DOI: https://doi.org/10.1080/14719037.2024.2370982).
研究问题
人工智能是收集知识和信息并处理宇宙智能的机械模拟系统:以可操作智能的形式整理、解释和传播给符合条件的人(Grewal 2014),或者简单地说是麦卡锡等人(2006)说的“智能机器”。过去几十年来,人工智能在公共组织中的应用数量急剧增长,人工智能应用的影响也得到了广泛的讨论,包括政府机构改革和街头官员的自由裁量权等问题。然而,除了这些最吸引眼球的话题之外,人工智能在公共组织的一些核心规范中的作用并未得到足够的重视。最重要的问题是“谁应该负责?”本研究在一个实际案例中发现,政府官员的问责制可能会受到人工智能使用的影响:一名交警在人工智能的帮助下,惩罚了一名伪造车牌的司机。然而,随后的调查发现,车牌上的污渍导致人工智能对车牌的识别出现错误,进而导致交警对司机的处罚错误。虽然处罚来自交警的决定,但他认为人工智能分享了他的决策权,正是对人工智能的错误判断导致了他的错误处罚。因此,他不应该对此负全部责任。我们还可以在以前的文献中发现,人工智能的使用导致了问责问题(Barth 和 Arnold 1999)。
尽管一些研究人员提出了诸如负责任的算法等解决方案来应对人工智能的影响,但公务员的感知问责应该是我们现阶段的主要关注点,因为人类仍然是公共组织的主要工作主体。Overman 和 Schillemans (2022)构建了一个4×4的理论框架来说明感知问责的构成,本研究关注了该框架中街头官僚的感知行政问责,即他们(被问责人)(account givers)感知的问责,以根据官僚组织内部的行政标准(Overman 和 Schillemans)(2022)向行政主管(问责人)(account holders)证明他们的决定是合理的。选择感知行政问责作为研究对象,原因有三:第一,它是公共行政研究的经典背景;其次,根据该模型,认为对街头官僚的感知行政问责期望很高;最后,人工智能的使用主要带来官僚组织内部的变化(例如程序),而其他类型的感知问责通常涉及组织外部的因素。因此,对感知行政问责的研究在理论和实践中都非常重要。本文将重点研究人工智能的使用如何影响街头官僚的感知行政问责。
文献综述与研究假设
使用人工智能和感知行政问责
本文引入感知问责的框架有两个原因:首先,由于本研究中的因变量是在个人层面而不是机构层面,因此需要一个基于心理学或行为科学的分析框架来观察和解释因变量的变化。其次,由于人工智能应用大多嵌入到行政事务中,这项技术对街头官僚的影响主要集中在行政层面,而不是其他政治或社会层面。该框架为区分不同类型的感知问责提供了基础,这有助于消除其他类型的感知问责的干扰,并侧重于研究人工智能应用对感知行政问责的影响。
感知行政问责的概念是由 Overman 和 Schillemans (2022)在他们的综合公共行政感知问责理论中提出的。虽然有大量关于公共问责制的研究,但现有的文献绝大多数都集中在组织方面(Olsen 2013; Schillemans 2016),而忽视了个人层面。感知问责理论为研究公共问责提供了一个心理学视角。霍尔和费里斯(2011)根据他们的实验研究,将 “感知问责 ”定义为一种隐含或明确的预期,即一个人的决定或行动将受到某些突出受众的评价,并相信根据这种预期评价,一个人有可能得到奖励或惩罚。在许多研究领域中讨论感知问责的文献很丰富,而关于人们如何看待公共管理中的责任感的相关研究却很少(Romzek, LeRoux, and Blackmar 2012; Schillemans et al. 2021)。因此,基于感知问责的公共行政理论,本研究将试图解释某种类型的感知问责的受影响机制:感知行政问责。
以前的研究证明,人工智能的使用会影响公共问责制。Vogel(2021)等人的研究还表明,人工智能系统的使用现在面临着问责稀缺的问题,需要更负责任的人工智能或算法(Hoffmann 2018)。尽管其他一些特定技术有利于加强政府问责制,但可以从以前的研究中总结出,人工智能的使用对公共问责制造成了负面影响。因此,街头官僚对这种公共问责制(即感知到的行政问责)的感知会降低是合理的。并提出了以下假设:
H1:人工智能的使用对街头官僚的感知行政问责产生了负面影响。
人工智能的使用和感知自由裁量权
随着人工智能和ICT 在公共组织的决策过程中得到广泛应用,它们对公职人员自由裁量权的影响吸引了许多研究人员的关注。毫无疑问,人工智能或 ICT 的使用将影响街头官僚的自由裁量权。然而,这种影响是赋能效应还是缩减效应仍然存在争议(Buffat 2015)。尽管文献中关于这个问题没有达成共识,但我们的调查结果强烈支持人工智能的使用 可能会削弱感知的自由裁量权。因此,我们提出:
H2:人工智能的使用将降低街头官僚的感知自由裁量权。
感知自由裁量权的中介效应
感知到的自由裁量权和感知到的行政问责之间的关系本质上是权力和问责制之间的关系。一些研究指出,两者之间存在因果关系。组织中权力分配的变化将导致参与者责任的变化(Han and Demircioglu 2016)。这些研究表明,行为者的权力或自由裁量权和问责制在一定程度上是自然相关的。因此,行为者对问责制的感知可能会受到他们对自由裁量权的感知的影响。简而言之,感知到的行政问责受到感知的自由裁量权的影响。以前的研究表明,感知自由裁量权的变化将导致行为者感知行政问责的变化。因此,街头官僚可能会通过他们感知到的自由裁量权来判断他们感知到的行政问责,而自由裁量权会受到人工智能使用的影响:
H3:街头官僚的感知自由裁量权在人工智能的使用和感知行政问责之间起着中介作用。
本研究的理论框架总结如图1所示。
研究方法
为了对人工智能和创新交叉领域的现有研究进行更新,并对文献进行定量评估,本文进行了系统的文献综述(SLR)。SLR被认为是系统评估和评价给定文献的合适工具(Tranfield et al., 2003).本文部署SLR方法优于其他文献综述方法,原因如下:首先,SLR比叙述性文献综述更客观(Tranfield et al., 2003);第二,SLR允许从一个实现再现性的详细、透明和有计划的流程(Cubric, 2020;Snyder, 2019;Williams et al., 2020);第三,SLR需要采用一种定量方法,这种方法可以确定哪里有研究,也可以确定哪里有研究差距(Snyder, 2019;Tranfield et al., 2003),从而有助于产生强大的研究议程来推进该领域的发展(Williams Jr .等人,2020)。到目前为止,SLR方法已经在社会科学(Tranfield et al., 2003)更具体地说,在管理文献中(Cubric, 2020;Williams et al., 2020;Zupic and Cˇater, 2015),目的是呈现以相关和可访问的方式向学者和决策者提供研究结果(Tranfield et al., 2003;小威廉姆斯等人,2020)。
样本
该调查实验于2023 年 3 月通过 Credamo (www.credamo.com)在线进行,从中国的一个城市招募参与者。该市的交警部门已广泛部署人工智能来支持他们的执法,因此这里的交警可以有效地衡量使用人工智能的效果。研究者们向交警发送了 600 份问卷邀请,并为潜在参与者提供了有关实验的基本信息,收到邀请的警察可以自由选择是否参与。问卷的在线渠道在 7 天后关闭,总共收到了 223 份回复。问卷回复率约为 37%,与类似研究的回复率接近(Selten、Robeer and Grimmelikhuijsen 2023)。然后,根据调查的时间长度,我们进行了填写时间检查,以删除受访者花费太短或特别长的答案,并保留了 190 个样本用于我们的研究。最重要的是,可以得出结论,获得的样本代表了目标群体。
调查实验设计
本实验场景设计访谈于 2023 年 2 月进行,采访了一名中级警官,并在他的帮助下采访了 15 名街头官僚(从员工名单中随机选择)。因此,总共进行了 16 次访谈。访谈的主要内容包括交警的主要任务、工作流程以及他们对工作的认知。
为了评估中介模型,本研究进行了一项组内调查实验。“组内调查实验”是一种被试组内设计,这意味着每个参与者同时参与了多个实验。根据对交警任务的理解,将任务分为三类:高度程序化、半程序化和非程序化(Wang、Xie、Li2022)。高度程序化的任务通过人工智能高度自动化,人工干预很少。此类任务通常针对简单的非法活动,例如闯红灯和非法停车。在这些任务中,街头官僚的自由裁量权受到很大限制,他们只需要做出一些简单、重复的决定。半程序化任务通过人工智能部分自动化,警方仍有一定程度的自由裁量权。这项任务总是涉及复杂的非法活动,例如伪造车牌。非程序化的任务由人类处理,它总是与车祸等突发紧急事故有关。因此,半程序化任务是测试人工智能效果的最佳实验场景,设计了一个组内 1 × 2 实验条件测试当警察处理相同的半程序化任务不使用/使用人工智能的效果。本文使用一个单一的调查实验来验证中介模型,称为 “中介的测量设计”。
材料
该实验是通过描述两种不同场景的问卷进行的。由于组内实验的特点,所有的交警都同时具有道路和在线执法经验。在道路场景中,警方可以用肉眼或在其数据库的支持下识别假车牌,然后决定违规者将受到多大程度的惩罚。该数据库仅提供简单的检索功能,没有 AI 支持。在线场景中,AI 将首先通过摄像头识别带有假车牌的车辆,并将司机违反的法律告知警方,然后警方将最终决定是否违法以及如何惩罚违规者。在这两个场景中,控制了环境中一些可能影响警察的感知行政问责和感知自由裁量权的因素,例如“是否有其他人在看”和“时间是否足以做出决定?因此,这两种场景之间的主要区别在于在线执法期间 AI 决策的干预(参见图 2)。我们的每个受访者都将被提供上述两种情况,并以第一人称视角回答问题。场景的具体内容如附录 A 所示。
程序
研究者们与当地交警部门合作进行研究。通过互联网将调查问卷分发给一线的街头官僚。所有参与者都将在他们的手机上收到问卷,整个过程将是匿名的,以确保他们的参与是自愿的。在每份问卷中,参与者将首先阅读一封介绍此调查基本信息的信。然后,他们将被提供两个实验场景,并回答有关他们感知的行政问责和感知的自由裁量权的问题。两种场景下的问题内容相同,但顺序是随机的,以减少响应顺序效应引起的潜在偏差。最后,将测量人口统计特征。
结果
本研究旨在调查人工智能的使用如何影响感知行政问责,关注感知自由裁量权的中介效应。结果表明,在人工处理场景中感知行政问责的平均值高于 AI使用场景中的平均值。在这两种情况之间也可以看到感知自由裁量权的下降趋势。结果还表明,人工智能的使用可能对感知行政问责和感知的自由裁量权产生负面影响,而感知行政问责和感知的自由裁量权呈正相关。为了对理论框架进行更详细的检查,本研究使用了因果步骤方法(Baron 和 Kenny1986) 验证中介效应。
分析的第一步是检查人工智能使用对感知行政问责的总体影响,而不控制中介变量的影响。结果显示在模型 1 中(表 4)。结果表明,AI 的使用对感知行政问责有负面影响。因此,模型 1 的结果支持 H1。
第二步是测试 AI 使用对中介变量的影响,即街头官僚的感知自由裁量权。表4中的模型2 表明 AI 的使用对感知的自由裁量权有负面影响。因此 H2得到支持。
最后一步是在控制中介变量的影响的情况下,检测 AI 使用对感知行政问责的影响。表4中的模型3 表明感知自由裁量权的影响是显著的。虽然 AI 使用效果不显著,但 H3 是支持的,因为已经证明存在感知自由裁量权的中介效应。由于一些学者对这种中介效应的验证方法存在争议,还进行了 Preacher 和 Hayes 检验来证明中介效应的重要性。
基于上述结果,可以得出结论:(1) 感知自由裁量权在 AI 使用和感知行政问责之间的关系中具有完全的中介作用,因为当中介变量的影响得到控制时,AI 使用的影响是不显著的。(2) AI的使用会对感知的自由裁量权产生负面影响。(3) 感知的自由裁量权对感知行政问责有积极影响。
讨论与结论
这项研究探讨了人工智能使用如何影响街头官僚的感知行政问责的机制,并发现 :(1)人工智能确实降低了街头官员的感知行政问责,(2)感知自由裁量权充分中介了人工智能使用和感知行政问责之间的关系。本研究的三个假设得到支持,这些结果以三种方式为文献做出贡献:(1)验证了人工智能使用对街头官僚感知行政问责的负面影响,并找到了其机制,即感知自由裁量权的完全中介效应。(2)研究了人工智能的使用对街头官僚感知自由裁量权的影响(3)以及他们感知的自由裁量权对感知行政问责的影响。
首先,这项研究有助于丰富不断发展的关于公共管理背景下感知行政问责的文献,特别是关注街头官僚(Overman 和 Schillemans 2022)的研究。其次,本文研究了人工智能使用对街头官僚感知自由裁量权的影响,结果支持感知自由裁量权的“缩减效应”(Bovens and Zouridis 2002; Wang, Xie, and Li 2022)。最后,在人工智能使用削弱了街头官僚的感知自由裁量权的基础上,还验证了感知自由裁量权对感知行政问责的影响,从而证明了感知自由裁量权的中介效应。
对于政策制定者来说,这项研究表明,他们需要认识到人工智能对行政问责的影响,并修订或制定法规,确保将问责机制嵌入公共管理过程中使用的人工智能系统中。与此同时,公共管理的人工智能系统的设计者应该意识到对支持而不是削弱街头官僚的自由裁量权和问责感知的系统的需求。因此,可以更加强调以用户为导向的设计实践,它结合了来自街头官僚的反馈。最后但同样重要的是,我们可能需要重新评估绩效指标,以确保问责人不会只强调效率而牺牲责任。可以开发新的指标来衡量和奖励负责任的人工智能使用。
附参考文献文献附参考文献
参考文献:
【治理与反思】人工智能在公共部门的战略应用:国家人工智能战略的公共价值分析
【治理与反思】谁来守护AI驱动的机器人守卫?在遵循AI机器人建议后警察暴力的伦理性和认知中和
【治理与反思】限制官僚自由裁量权?福利部门行政司法审查的设计与实施分析
【治理与反思】政府行为对公民政策感知的影响——对德国福利政策的调查实验
【治理与反思】美国联邦政府如何推广AI:来自政策过程框架的解释
原文链接(阅读原文 点击左下角):
https://www.tandfonline.com/doi/full/10.1080/14719037.2024.2370982
此处也可以下载全文:
https://www.sciencedirect.com/science/article/pii/S0166497222001705?via%3Dihub
凤凰网一点资讯:
https://www.researchgate.net/publication/339954958_Shaping_Identity_Older_Adults'_Perceived_Community_Volunteering_Experiences_in_Shanghai
欢迎您提出与本文内容、主题或翻译有关的各种问题与建议!
欢迎关注、订阅微信公众号【治理学术】。本公众号是由公共管理与政治学学科的老师和学生志愿者开发的学术和交流平台,重点是治理理论与实践领域的热点问题,我们每日整理、翻译并推荐一篇最新权威英文文献。核心内容分为三大板块:1、治理理论 文献与探索,2、管理实践 治理与反思,3、公共治理 教学与交流。
欢迎推荐或自荐研究成果,来稿请致邮箱:usstgggl@163.com
PS:如何加入微信公众号:
您可以扫描下面的二维码,或者搜索公众号:“治理学术”,或者加原始ID:
gh_dd2c06e61722 然后点击加入即可。
PS:如何查看以前推送的精彩文章:
您只要点标题下方的“治理学术”,并选择“查看历史消息”即可,精彩就会尽现。谢谢!