【治理与反思】谁来守护AI驱动的机器人守卫?在遵循AI机器人建议后警察暴力的伦理性和认知中和

文摘   2024-04-08 12:06   美国  

别:数字治理

导言


在数智时代,越来越多的公共部门使用遵循AI机器人进行决策,遵循AI机器人的建议。最近五位美国学者Lisa Hohensinna, Jurgen Willemsa, Meikel Solimanb, Dieter Vanderelstc & Jonathan Stoll开展了一项实证研究。本研究探讨了当警察遵循AI机器人的建议时,公众是否感知到警察行为的伦理性发生了变化。我们评估了当警察根据机器人的建议逮捕路人时,与不采纳机器人建议逮捕路人相比,公众是否认为警察暴力行为的伦理性更高。利用中和理论,我们测试了责任转移的情况。当警察暴力逮捕一名无辜的路人时,如果决定是在遵循AI机器人的建议后作出的,这种暴力行为就会被中和。当路人被认定为恐怖分子时,公众对警察暴力行为的伦理性感知更高,警察对路人的暴力行为通过“否认受害者”和“否认伤害”的方式被中和。论文发表在公共管理权威期刊PMR上面。

文献来源Hohensinna, L., Jurgen Willemsa, Meikel Solimanb, Dieter Vanderelstc, & Jonathan Stoll. (2024)Who guards the guards with AI-driven robots? The ethicalness and cognitive neutralization of police violence following AI-robot advicePublic MANAGEMENT REVIEW, Published online: 19 March 2024: 1-18. DOI: https://doi.org/10.1080/14719037.2023.2269203..

研究问题


警察暴力在警察与公众的接触中是不受欢迎的(Ariel, Farrar, 和 Sutherland 2015),并且会带来严重的社会和经济成本(例如,Bryant‐Davis,2017)。其中一个原因是它威胁到了公民与国家之间至关重要的关系。因此,警察暴力激发了关于政府官员,特别是警察及其监督者的“道德失败”的辩论,暗示需要对伦理规范进行社会对话(Rivera and Ward 2017,245)。


虽然现代信息技术,如背景检查或佩戴身体摄像头,被认为是公共警务的有效资源(Pang and Pavlou 2019; Rivera and Ward 2017),也用来应对警察暴力等挑战,但关于执法部门使用现代技术的社会接受度仍存在持续辩论。虽然纽约警察局在2021年因公众抗议而停止使用机器人狗,但在2023年又重新启用了机器人狗。希望通过预防恐怖主义和犯罪来提高公共安全(Power, 2016; Ferguson, 2017),这些新型的类狗机器人在各种警务工作中发挥作用,如使用面部识别软件实时识别潜在嫌疑人和检查废弃房屋(Boston Dynamics, 2019; Zdanowicz and Jones, 2019)。


尽管机器人狗对公共安全有益,但该示例表明,在利用人工智能(AI)潜力为公共服务提供支持时,必须考虑众多伦理挑战。尤其重要的是机器人行动的责任归属问题,责任挑战,隐私,数据保护问题,伦理顾虑以及社会接受度(Aymerich-Franch 2020; Busuioc 2021; Kernaghan 2014; Stock 和 Merkle 2017; Wirtz 和 Müller 2019)。理解AI在警务中的社会接受度是本研究的主题。本文研究当警察行动得到AI驱动的服务机器人的支持时,公民对警察行为的看法。通过调查人机交互中人类行为的感知伦理性,本文为应用AI驱动技术在公共服务中的潜在风险和结果的公共管理文献做出了贡献。


理论和假设


遵循AI机器人建议的感知伦理性

由服务机器人建议的警察行动可能会更受社会接受,因为该行动不仅仅是由个体的态度和信仰驱动的,而是由一个额外的非人类代理提供支持,这可能有助于更客观的决策制定(Busuioc 2021)。基于这个前提,我们假设不遵循AI建议会被视为较不伦理,特别是当后果可能对公众有不利影响时。换句话说,我们区分了警察遵循或不遵循AI机器人的建议的情况(图1)。当机器人建议逮捕路人但警察驳回该建议时(B组,图1),一个重大的公共风险仍然存在(例如,路人可能犯下其他罪行)。因此,不遵循这种建议可能被视为较不伦理,因为警察没有使用一切可用的手段来保护公众。

假设1(H1):警察不遵循机器人的建议逮捕路人(B)会被感知为较不伦理,相比于:

警察遵循机器人的建议逮捕路人(即,警察同意路人是恐怖分子并根据此行动逮捕路人)。(A)

警察遵循机器人的建议不逮捕路人(即,警察同意路人不是恐怖分子并根据此行动不逮捕路人)。(C)

警察不遵循机器人的建议不逮捕路人(即,警察不同意路人不是恐怖分子并与机器人的建议相反地逮捕路人)。(D)


中和理论和不道德行为

本文采用中和理论来研究警察在人机合作环境中的暴力行为,原因有二。首先,中和理论已在各种背景下被证明是有用的。它已经被应用于消费者伦理、作弊行为、接受腐败行为和网络霸凌等多种设置(Hauser, Simonyan, 和 Werner 2021)。中和理论已被用来解释不同类型的犯罪和偏差行为,包括白领犯罪(Benson 1985),极端街头犯罪(Topalli 2005),以及警察犯罪和不当行为(Gottschalk 2012)。其次,中和技术可以被视为一种应对技术,当公民不道德地行事或判断其他情况时。这个理论帮助我们理解为什么公民仍然表现出这种行为以及他们背后的理由。因此,依赖中和理论给我们提供了更好的洞察力,了解公民对警察和AI互动的感知的“如何”和“为什么”。


假设2:当警察暴力的受害者是恐怖分子时,警察暴力被感知为更伦理。

假设3:当警察暴力的受害者是恐怖分子时,警察暴力通过“否认受害者”技巧被中和。

假设4:当警察暴力的受害者是恐怖分子时,警察暴力通过“否认伤害”技巧被中和。

事实上,最近的研究表明,与人类决策相比,基于AI的决策被认为更公平且不太歧视,因为其中个人情感不起作用(Helberger, Araujo, 和 de Vreese 2020)。例如,个体将自动化领导代理归因于比人类领导代理更透明(Höddinghaus, Sondern, 和 Hertel 2021)。由AI机器人建议的警察暴力可能会被更多地接受。在这种情况下,由于行动不仅仅是由个体态度和其个人偏见驱动的,而是由算法决策制定支持的,伦理感知应该会改善(Busuioc 2021)。借鉴中和理论,对暴力行为的责任归属可能会从个体警察官员转移到机器人,因为行动是由基于上下文独立的算法操作的机器人推荐的。


数据和方法


数据

为了验证假设,研究者们进行了一项调查实验。在介绍警察工作中使用机器人狗的方式后,提出了不同的情景,其中一名警察遵循或驳回了一个基于AI的决策支持工具的建议。在每个情景之后,受访者被要求在一个9点的语义差异量表上评估描述在情景中的警察行为的感知伦理性,范围从“非常不伦理”(-4)到“非常伦理”(+4)。


针对研究问题的特定背景,重要的是要注意导致警察暴力的决定的固有依赖性:首先,警察官员要么决定逮捕一名路人(a)遵循或(b)驳回一个基于AI的决策支持应用程序使用面部识别软件做出的建议。因此,前四个情景(A、B、C、D)侧重于这个决定,并基于2(机器人建议:逮捕与不逮捕)×2(警察官员:遵循与驳回机器人的建议)的实验设计设置。


在情景A中,一个AI机器人将一名路人识别为恐怖分子。警察官员遵循建议逮捕了该人。在情景B中,路人也被一个AI机器人识别为恐怖分子,但警察官员没有遵循建议,没有逮捕该人。在情景C中,AI驱动的机器人没有将路人识别为恐怖分子;因此,警察官员没有逮捕路人。最后,在情景D中,AI驱动的机器人没有将路人识别为恐怖分子。警察官员不同意并无论如何逮捕了路人。比较这四种情况可以测试假设1。通过扩展情景A和D(即,警察官员逮捕路人的情景)创建了四个额外的情景。


通过Qualtrics Surveys收集数据,并依赖Qualtrics Panels针对性别按年龄组和奥地利九个地区的代表性样本进行寻址。奥地利在采用AI在公共部门方面的挑战与许多其他国家,包括欧盟和美国国家非常相似(见例如,Noordt和Misuraca 2022)。共有1,280名受访者开始填写问卷,其中170名受访者未能正确回答这些操纵检查问题,被排除在进一步分析之外,最终样本为1,110名。这个最终样本由51.80%的男性组成,平均年龄为45.54岁(SD = 16.42,最小值 = 18,最大值 = 85)。


对于E、F、G和H情景,在逮捕过程中对路人的背景进行了更详细的检查后,包括了额外的项目,这些项目探询了受访者对伦理性量表答案的原因。这些项目来自Sykes和Matza(1957)由De Bock和Van Kenhove(2011)改编,指出了受访者在伦理性评估中应用的潜在中和技巧。改编后的项目包括:警察官员的行为不应受到责备,因为(1)官员只是遵循指示(否认责任),(2)逮捕过程中的伤害是常见的(否认伤害),(3)一旦路人被接近,他应该立即听从警察官员(否认受害者),(4)逮捕保护了社会(呼吁更高的忠诚)。


研究结果


本研究通过对A、B、C和D组进行的四组ANOVA测试显示,四组之间没有显著差异(F(3,560) = 1.06, p = 0.366)。结果显示,B组的感知伦理性与其他组没有显著差异。详细发现报告在在线补充材料中。此外,置信区间显示,平均伦理性评级与量表的中心值没有明显不同。这些结果表明,遵循或驳回AI基于决策本身不会导致与感知伦理性相关的显著差异。然而,鉴于此测试的统计功效,基于每个四组至少有117个观察值,应该能够检测到小到中等大小的效应(f = 0.153)(Alpha = 0.05; Beta = 0.80)(Champely等人,2022)。因此,假设1没有得到支持,这意味着即使可能存在对公共安全的威胁,也不会认为不遵循建议显著不同。


实验的第二部分分析了E、F、G和H四个情景。在这些情景中,在暴力逮捕后,揭示了对路人背景的检查结果。对于这些情景 - 类似于A、B、C和D情景 - 首先测试了对感知伦理性的影响。其次,测试了在特定(不)道德情境中是否使用了不同的中和技巧。这使我们能够更好地解释潜在的伦理性差异,并理解伦理感知背后的逻辑。


结果还呈现了基于警察官员或机器人在逮捕后的背景检查结果中正确或错误地识别路人为恐怖分子的E、G、H和F四组的平均伦理性(F(3,534) = 4.64, p < 0.001)。这测试了假设2和5。首先,组均值显著偏离量表中间选项(值0)以及A、B、C和D组的均值。详细的描述性统计报告在在线补充材料中。因此,得出结论,添加了警察暴力的描述并提供了背景检查结果的信息,改变了感知伦理性。


其次,当警察是正确的时,感知伦理性显著高于警察是错误的时。这支持了假设2,即当路人的犯罪背景在逮捕后得到确认时,警察暴力被认为是更伦理的(甚至在量表的正面)。相反,当对一个最终被证明是无辜的路人使用暴力时,暴力被认为是不道德的。


第三,在错误逮捕一名路人的情况下,与机器人建议逮捕路人相比,伦理性感知没有差异。因此,假设5没有得到支持,这一发现表明,一旦警察暴力被认为是不道德和不合理的,机器人先前的建议是否支持无关紧要。然而,当路人是恐怖分子时(左侧,实线是不同的:F(1,264) = 8.793, p = 0.0033),存在显著差异。然而,这种差异与假设5的预期相反。与认为在机器人分析建议的基础上的决定会被认为是更伦理的假设相反,观察到的是,当警察正确地驳回了机器人不逮捕路人的不正确建议时,受访者认为这是更伦理的。


关于警察暴力遵循或驳回AI建议的中和,假设各自得到部分确认。无论路人是否有实际的犯罪背景,都解释了这些假设是否得到确认。需要注意的是,当警察官员正确地判断路人有犯罪背景时,也使用了其他中和技巧(不仅仅是假设3和4中的技巧),但它们并没有因为机器人最初的建议是正确还是错误而有所不同。这意味着,“否认责任”和“呼吁更高的忠诚”的中和技巧也在暴力逮捕是恐怖分子的情况下更频繁地使用。潜在地因为在这种设置中主动使用了这些技巧,所以机器人的建议是否有额外的相关效应就没有意义了,这表明在何时以及如何使用中和技巧以遵循建议方面存在一些条件性。相反,当警察官员对路人的背景判断错误时,假设6和7得到支持。潜在地因为这被认为确实是一个较不伦理的设置,中和技巧被用来解释和澄清。“否认责任”在这种情况下是最强烈相关的技巧。


讨论


本研究最重要的贡献在于增加了对自动化决策制定中的价值和理性的讨论,以及个体是否认为当警察行动得到AI决策支持时,这些行动在伦理上更可接受。与我们假设AI建议支持的人类行动会被认为更伦理的预期相反,本研究发现公民认为人类与机器人的建议相反的决策在伦理上更可接受。然而,这只有在路人事后被证实对社会构成威胁时才适用。这一特定发现因此支持了以前文献中提出的对自动化的偏见(Madhavan和Wiegmann 2007)。同时,它显示了人类参与决策(Aoki 2021)的重要性,尤其是在高风险情况下。


第二个相关的贡献是在人类与AI驱动的社会机器人合作并面临伦理困境时,应用中和理论的背景下。一方面,公民可能认为人类,如警察官员,是有偏见的并容易犯错。由于有证据表明警察对处于劣势群体的歧视,个人可能会赞成用AI协助有缺陷的人类决策过程。另一方面,个人似乎对AI在这些决策中的作用持有一定的怀疑。中和理论部分帮助我们理解了这一决策制定过程,因为AI可以为有缺陷的决策制定承担责任,并将责任转移开。总的来说,中和理论帮助理解了警察暴力的公众接受度,因为它显示,在某些情况下,警察暴力被认为是伦理的,只要警察暴力是为了更大的利益。


第三,文章强调了个体在面对警察对疑犯使用身体力量的情况时的选择。与一般解释警察使用武力和高发生率警察涉枪死亡事件(Alpert和Dunham 2004; Jennings和Rubado 2017)的文献不同,本研究分析了在人机合作背景下警察暴力的感知伦理性,特别侧重于AI决策支持。先前关于警察使用武力的研究表明,警察的暴力行为可以由警察、嫌疑人和情境特征来解释(Crawford和Burns 2002; Hong 2017; Nicholson-Crotty, Nicholson-Crotty, 和 Fernandez 2017)。在研究背景中,专注于警察是否接受AI机器人的建议来逮捕(暴力)一名疑犯的决定以及对这一决定的伦理性感知。因此,超越了“警察-嫌疑人遭遇”(Crawford和Burns 2002)并研究了这一设置中第三个非人类实体的角色。我们从我们的发现中得出结论,警察行动的感知伦理性取决于路人是否被证实是(不是)恐怖分子。警察暴力不论警察是否遵循或驳回机器人的建议,都被认为是不伦理的。


结论


总之,本研究可以在未来的研究中得到进一步验证和深化,通过考虑额外的背景因素,例如,(1)有关路人的各种细节,(2)有关警察官员的各种细节,(3)逮捕类型和嫌疑人受伤的严重程度,以及(4)与完全或部分自动化决策制定相关的决策程序的细节。


尽管AI可以帮助避免在逮捕中不成比例的种族定性(Epp, Maynard-Moody, 和 Haider-Markel 2017) - 至少当AI也不是基于有偏见的数据时 - 我们必须保持谨慎,不要将一种偏见换成另一种:随着对AI支持的决策制定的依赖增加,责任可能会被转移和中和。本研究探讨了服务机器人如何改变警察暴力逮捕的感知伦理性。通过研究AI驱动的服务机器人在警察暴力的感知伦理性中的作用,本文联系了两个学术和社会上被广泛讨论的主题。具体而言,研究提供了两个重要的教训。首先,当怀疑的人实际上对社会构成威胁时,警察暴力在伦理上被认为是更可接受的。保护社会被视为更高的善,如果被证明是无辜的,就中和了对被逮捕人的暴力。这一发现强调了警察暴力的情境的重要性。第二,公共警务中的人机合作似乎仅在有限的程度上被接受。当机器人支持行动时,并没有中和警察暴力,相反,当警察官员与机器人的建议相反时,它被认为是更伦理的。这一发现凸显了在公共警务中使用AI驱动的服务机器人的保留意见,可能有助于更好地理解算法厌恶。


如果您喜欢此文,请转发和分享给朋友们。谢谢!


附参考文献文献附参考文献



参考文献:

Aoki, Naomi. 2021. “The Importance of the Assurance That ‘Humans are Still in the Decision Loop’ for Public Trust in Artificial Intelligence: Evidence from an Online Experiment.” Computers in Human Behavior 114 (January): 106572. https://doi.org/10.1016/j.chb.2020.106572.

Coeckelbergh, Mark. 2020. “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability.” Science and Engineering Ethics 26 (4): 2051–2068. https://doi.org/ 10.1007/s11948-019-00146-8.

Hauser, Christian, Aram Simonyan, and Arndt Werner. 2021. “Condoning Corrupt Behavior at Work: What Roles Do Machiavellianism, On-The-Job Experience, and Neutralization Play?” Business & Society 60 (6): 1468–1506. https://doi.org/10.1177/0007650319898474.

Nagtegaal, Rosanna. 2021. “The Impact of Using Algorithms for Managerial Decisions on Public Employees’ Procedural Justice.” Government Information Quarterly 38 (1): 101536. https://doi.org/ 10.1016/j.giq.2020.101536.

Wirtz, Bernd W., and Wilhelm M. Müller. 2019. “An Integrated Artificial Intelligence Framework for Public Management.” Public Management Review 21 (7): 1076–1100. https://doi.org/10.1080/ 14719037.2018.1549268.


相关文献:(直接点击链接即可进入该页面)


【治理与反思】过度共享:地方政府数据共享的弊端

【治理与反思】公共价值观和部门服务供给偏好:公众对从简单到复杂的公共服务的偏好

【治理与反思】公共行政数字化转型中的合作生产和公共价值创造

【文献与探索】公共管理和决策中的信息使用

【治理与反思】公共劳动力多样性和行政生态系统在推进数字公共服务创新中的作用


原文链接阅读原文 点击左下角):

https://www.tandfonline.com/doi/full/10.1080/14719037.2023.2269203?scroll=top&needAccess=true


此处也可以下载全文

https://www.tandfonline.com/doi/epdf/10.1080/14719037.2023.2269203?needAccess=true



凤凰网一点资讯:

https://www.researchgate.net/publication/339954958_Shaping_Identity_Older_Adults'_Perceived_Community_Volunteering_Experiences_in_Shanghai



迎您提出与本文内容、主题或翻译有关的各种问题与建议!



迎关注、订阅微信公众号【治理学术】。本公众号是由公共管理与政治学学科的老师和学生志愿者开发的学术和交流平台,重点是治理理论与实践领域的热点问题,我们每日整理、翻译并推荐一篇最新权威英文文献。核心内容分为三大板块:1、治理理论 文献与探索,2、管理实践 治理与反思,3、公共治理 教学与交流


欢迎推荐或自荐研究成果,来稿请致邮箱:usstgggl@163.com


PS:如何加入微信公众号:


您可以扫描下面的二维码,或者搜索公众号:“治理学术”,或者加原始ID: 
  gh_dd2c06e61722 然后点击加入即可。



PS:如何查看以前推送的精彩文章:


只要点标题下方的“治理学术”,并选择“查看历史消息”即可,精彩就会尽现。谢谢!




治理学术
公共治理领域的学术和交流平台,每日整理、翻译并推荐最新权威英文文献。分享与交流,反思与探索。
 最新文章