有什么好怕的?从技术可供型的角度理解人工智能的多维恐惧

文摘   2024-12-10 13:02   江苏  

『柏拉图说』是由南京大学计算传播学实验中心的成员们于20224月发起的论文精读与推介活动,我们将定期推送新闻传播学TOP期刊最新内容、新闻传播学前沿及相关量化研究方法论文。我们致力于深耕传播学领域,紧跟专业研究热点,延伸学术视角,拓展群体智慧。

柏拉图说 论文推介第 178 

Zhan, E. S., Molina, M. D., Rheu, M., & Peng, W. (2024). What is there to fear? Understanding multi-dimensional fear of AI from a technological affordance perspective. International Journal of Human–Computer Interaction40(22), 7127-7144.

摘要
对人工智能 (AI) 的恐惧已成为用户对新兴人工智能技术看法的一个主要术语。然而,我们对于最终用户如何看待对人工智能的不同类型的恐惧(例如,对人工意识的恐惧、对工作替代的恐惧)以及人工智能技术的可供性可能引起这种恐惧的了解有限。我们进行了一项调查 (N 1⁄4 717),发现虽然同步性通常有助于减少对人工智能的所有类型的恐惧,但感知到的人工智能控制会增加所有类型的人工智能恐惧。我们还发现,感知带宽与对人工意识的恐惧呈正相关,但与对了解人工智能的恐惧呈负相关。我们的研究通过采用对人工智能的多维恐惧框架并分析人工智能应用程序的感知可供性对每种类型的恐惧的独特影响,提供了理论意义。我们还提供了如何通过用户体验设计来减少对人工智能的恐惧的实用建议。
研究问题
RQ1:感知带宽、偶然性和同步性如何影响人工智能恐惧的不同维度?
RQ2:感知人工智能控制和用户控制如何影响对人工智能恐惧的不同维度?
RQ3:感知到的匿名性和保密性如何影响对人工智能的恐惧的不同维度?
研究方法
程序与参与者
为了回答我们的研究问题,我们进行了一项调查研究。首先,我们检索了以往从人工智能与最终用户之间直接沟通和交互的角度研究人工智能技术的研究。根据之前的研究,我们确定了 10 种人工智能技术,并相应地为刺激采样创造了 10 个条件。这些条件是 AI 写作助理(Ko€bis & Mossink,2021;Nazari 等人,2021)、AI 驱动程序(Hewitt 等人,2019;Hong 等人,2020)、AI 放射科医生(Drawel 等人,2020) ;Wang & Summers,2012),人工智能人力资源经理(Daugherty 等人,2019;Robert 等人) al., 2020)、人工智能警察(Fontes et al., 2022;Urquhart & Miranda, 2022)、人工智能记者(Carlson, 2019;Jia, 2020;Moran & Shaikh, 2022)、人工智能个人助理(Abercrombie et al., 2022) 2021;Hassan 等人,2017),人工智能管家(Paetzel-Pru€smann 等人,2021)、AI 伴侣(Bedaf 等人,2018;Hebesberger 等人,2017)和 AI 客户服务代表(Hong 等人,2020;Lu 等人,2020) )。在每种情况下,我们都包含对AI技术功能的简要描述以及2-3张可以展示AI技术外观和操作的图片。
接下来,我们进行了两轮预测试,测试这10个条件的清晰度和操控效果。在第一轮预测试(N = 138)中,我们询问参与者调查中每种人工智能技术的材料和说明是否清晰易懂。此外,我们还添加了开放式问题来探究描述和图片中参与者觉得哪些元素难以理解,以及参与者对每个人工智能角色的总体想法,以检查他们是否理解描述。我们相应地修改了材料并分发了第二轮预测试(N = 50)。在本轮预测试中,所有参与者均表示调查中的所有材料清晰易懂。在最终的正式调查中,参与者被随机展示了一种人工智能技术条件,并被要求回答有关该人工智能技术的问题。每个条件包含两到三张人工智能技术的图像,以及描述该技术主要功能的两个句子(例如,人工智能的任务、目标、与用户的潜在交互)。我们在每个问题中都剔除了特定的人工智能技术,以确保参与者的答案仅反映他们对所展示技术的看法。
我们通过 CloudResearch 平台和美国中西部一所大型大学的学生主题库招募了参与者。我们在调查中设置了一系列数据质量筛选项目,以确保参与者对调查的关注。首先,我们加入了一个操作检查项目,以确保参与者正确指示他们被分配到的人工智能技术。对于所读到的人工智能技术提供错误答案的参与者会立即被排除在调查之外。然后,我们在调查问卷的主体中包含了三个注意力检查问题,那些未通过三分之二注意力检查的人会立即重定向到调查终止页面。
测量
自变量
  • 带宽承受能力通过改编自 Daft 和 Lengel量表的三个项目进行测量:“[Piped AI 技术] 可以用情感与用户交流”,“[Piped AI 技术] 可以用非语言与用户交流”提示”和“[Piped AI 技术]可以通过各种正式提示与用户进行交流”。
  • 应急承受量表包含改编自 Sundar 等人量表的六个项目。示例包括“[Piped AI 技术] 可以取决于用户所说的内容”和“[Piped AI 技术] 对用户所说的内容做出独家响应” 。
  • 同步性可供性是通过改编自 Li研究的十项量表来测量的。参与者被要求用 7 点李克特量表来评价他们对每个项目的同意程度。示例陈述包括管道人工智能技术可以“及时提供和接收反馈”和“进行实时来回交互”。
  • 人工智能控制可供性改编自 Molina 和 Sundar感知人工智能机构量表中的项目,并且我们在使用技术时纳入了 Peters 等人量表中人类自主性的反向项目。最终量表包含五个项目,例如“[管道人工智能技术]感觉具有侵入性”和“[管道人工智能技术]的功能取决于人工智能”。
  • 用户控制可供性是通过改编自 Molina 和 Sundar 以及 Peters 等人量表的五个项目来衡量的。项目包括“[管道人工智能技术]的功能取决于用户”和“用户可以让[管道人工智能技术]做他们想做的事情”。
  • 匿名可供性的衡量标准结合了 Benenson 等人的量表以及 Fox 和 McEwan的工作中改编的项目。调查中总共插入了五个项目,例如“[Piped AI技术]能够保护用户的匿名性”、“[Piped AI技术]可以掩盖用户的真实身份”以及“利用[Piped AI技术]” ,用户获得匿名感”。
  • 保密性可供性是通过改编自匿名量表的三个项目来衡量的,同时用“保密”替换了“匿名”一词。最终测量包括三个项目。
因变量
对人工智能的恐惧是用 Li 和 Huang(2020)的量表来衡量的,该量表包含对人工智能的恐惧的八个维度。
  • 对侵犯隐私的恐惧包括“我担心人工智能会监视我的行为”和“我担心人工智能会收集我太多的信息”。
  • 对偏见行为的恐惧通过“人工智能为不同的人设定不同的价格(价格歧视),这是不公平的”和“人工智能以不同的方式对待不同的人,这会让我焦虑”等项目来衡量。
  • 通过示例项目评估了对工作替代的恐惧:“我担心人工智能将来会取代我的工作”和“我担心人工智能会取代很多人的工作”。
  • 为了衡量对学习的恐惧,样本项目包括“人工智能技术更新太快,很难学”和“理解人工智能算法需要高水平的人才,这对我来说很难”。
  • 衡量对存在风险的恐惧的例子包括“超级人工智能的失控会减少人类在地球上停留的时间,甚至会导致人类灭绝,这是可怕的”和“人工智能可能会为了实现某个目标而伤害人类,这会导致人类灭绝,让我感到焦虑”。
  • 对违反道德的恐惧是用“我对人工智能可以欺骗感到不安”和“我担心人类对超级人工智能有特殊感情(例如爱或崇拜)”等项目来衡量的。
  • 衡量对人工意识的恐惧的示例项目是“我担心人工智能将达到与人类相同的意识水平”和“人工智能具有与人类相同的意识水平,从而挑战了人类的地位,这让我感到焦虑”。  
  • 为了评估对缺乏透明度的恐惧,示例项目包括“如果人工智能犯错后你不知道人工智能的哪一部分犯了错误,那就令人担忧”和“我担心人们无法弄清楚人工智能如何做出决策”。
控制变量
这项研究使用人口变量(性别、教育程度、年龄)和性格信任的个体差异以及人工智能的先前经验作为控制变量。范兰格等人将倾向性信任定义为个体对其他人诚实和意图的总体评价。研究表明,处置信任的变化会影响个人对公平的看法和对人工智能的看法。因此,我们将倾向性信任作为控制变量。一个示例项目是“总的来说,我信任我遇到的人”。另一个可能影响对人工智能恐惧的变量是用户之前对人工智能的体验,特别是他们自己是否使用过基于人工智能的技术或者是否听说过它。这种先前对人工智能技术的体验或印象将形成对该技术的感知。
研究结果
不同类型恐惧与技术可供性的关系
  • 隐私侵犯恐惧:在人机交互中,更高的保密性会降低人们对隐私侵犯的恐惧,而 AI 控制感越强,人们对潜在隐私侵犯的焦虑感越高。
  • 偏见行为恐惧:提供保密性和同步性的 AI 系统会减少偏见恐惧,感知带宽和 AI 控制分别对其有正负向预测作用。
  • 工作替代恐惧:更多的保密性和用户控制可缓解此恐惧,而感知匿名性和 AI 控制可能会增加恐惧。
  • 学习 AI 恐惧:感知带宽和同步性有助于减少对学习 AI 的恐惧,AI 控制则会增加这种恐惧。
  • 存在风险恐惧:更高的 AI 控制会带来更大的存在风险恐惧,而同步性和保密性可减轻这种恐惧。
  • 人工意识恐惧:更多的 AI 控制和带宽会增加这种恐惧,而保密性和用户控制有助于减轻恐惧。
  • 缺乏透明度恐惧:更高的保密性会降低这种恐惧,AI 控制则会增加恐惧。
其他影响因素
  • 人口统计学因素:年轻与更多的偏见行为、工作替代、存在风险和人工意识恐惧相关,但与学习 AI 的恐惧呈负相关;女性更可能经历偏见和工作替代恐惧。
  • 信任因素:性格信任对除存在风险外的所有类型恐惧有直接影响,信任度低的人对 AI 的恐惧较少。
  • 经验因素:先前听说过 AI 技术会降低多种恐惧,但实际使用经验对恐惧无显著直接影响;高学历预示着较低水平的多种恐惧。
讨论
同步性有助于减少 AI 恐惧,如缓解对偏见行为、学习 AI、存在风险和人工意识的恐惧。这可能是因为同步通信可让用户及时反馈,增强对 AI 输出的信任,也有助于区分 AI 与人类意识边界。带宽对不同类型 AI 恐惧影响不同,它与偏见和人工意识恐惧正相关,与学习 AI 恐惧负相关。这可能是因为丰富的通信形式使 AI 更拟人化,引发恐惧,但也可能降低学习 AI 的心理障碍。AI 控制会增加所有类型的 AI 恐惧,表明人们对 AI 过度控制的担忧是多种恐惧的根源。AI 产品设计应平衡 AI 与用户的自主性。用户控制仅降低工作替代和人工意识恐惧,可能因部分 AI 技术操作不允许用户控制或无法预防某些恐惧感知。保密性与多种恐惧密切相关,更高的保密性通常导致更少的恐惧,符合用户对隐私保护的关注。匿名性在预测工作替代恐惧方面与保密性作用相反,更高的匿名性可能因 AI 效率高引发工作替代恐惧。



主要作者简介

Emily S. Zhan
a College of Communication Arts and Sciences, Michigan State University, East Lansing, MI, USA


分享者介绍

陈敏扬

chen-minyang.github.io
南京大学新闻传播学院硕士研究生
南京大学计算传播学实验中心成员
研究方向:文本分析

计算传播学园
寻找人类传播行为的基因,通往计算传播研究之路
 最新文章