【荐文】朱旭峰、楼闻佳 | 公众的风险感知与新兴技术接受度——面向人脸识别技术的调查实验研究

文摘   2024-11-19 15:23   天津  

天津师范大学国家治理研究院


文章来源:《管理世界》2024年第10期,已在中国知网上线,感谢读者推荐,同时也感谢作者同意授权转载。


作者简介:


朱旭峰,清华大学公共管理学院;


楼闻佳,清华大学公共管理学院、清华大学党委研究生工作部。





摘要:公众对新兴技术的接受度不仅会影响技术应用的成效,也会改变技术发展的路径,但当前学术界仍然缺乏深入研究。本文提出了社会福利、个人收益和技术伦理3类风险感知影响新兴技术接受度的理论框架。通过设计3组针对人脸识别技术的平行调查实验,本研究发现,公众对于人脸识别技术提升社会治安的感知,往往可以提升其对新兴技术的接受度,而对于人脸识别技术带来的财产损失和隐私冲突的感知,则会降低公众的技术接受度。此外,公众的技术使用行为和监管信任水平会调节公众风险感知对新兴技术接受度的影响。本研究定义了新兴技术的概念,通过辨析社会福利、个人收益和技术伦理3种类型的技术风险,从场景化的微观视角理解新兴技术接受度,还分析了不同群体对于新兴技术风险的差异化感知,推进了学界对新兴技术风险和技术接受度的理解。本文提出,政府应该尽早关注新兴技术的风险,并积极回应公众的风险顾虑,通过对风险类型进行场景化的区分,构建更为精细化的新兴技术风险沟通体系,从而以公共政策引导技术接受度的提升,为新兴技术发展提供良好的社会环境。

关键词:风险感知;技术接受度;新兴技术;人脸识别


一、引言




以人工智能、大数据、元宇宙、生命科学等为代表的新兴技术不仅重塑了生产组织方式(王天夫,2021),推动了产业结构转型(田秀娟、李睿,2022),也被广泛应用于城市治理、企业管理(刘淑春等,2021;陈德球、胡晴,2022)等领域。尤其是近年来新兴技术在司法、监管、政务服务等传统行政领域的深度融合,推动形成了智慧法院(潘越等,2022)、监管科技化(孙亮、刘春,2022)、税收征管数字化(刘慧龙等,2022)等改革探索,丰富了政府公共治理的“工具箱”(邓利维等,2006),协助破解了传统行政体系碎片化的协作难题(郁建兴、樊靓,2022),实现了行政高效化和精准化的提升。


然而,新兴技术往往存在应用与风险的冲突,导致公众持有相对消极的技术态度,最终影响技术的普及与发展。例如基因编辑在生物制药等领域有着广泛的应用前景,但人胚基因修饰、基因编辑婴儿等事件可能引发人类遗传安全风险,冲击社会公平伦理(李建军、王添,2016)。又如,人脸识别技术虽然能够提升社会治安水平、增加金融支付的便利性,但也引发了数据安全、隐私侵犯等广泛争议,使得公众使用技术时常常面临着“隐私权衡”(威廉斯等,2023)。


考虑到新兴技术产生的争议可能会影响公众的技术接受度,从而限制技术的创新、应用与发展,政府试图予以监管回应。以人脸识别技术为例,2021年6月,《中华人民共和国数据安全法》正式发布,同年8月发布了《中华人民共和国个人信息保护法》,均对人脸信息数据的收集、存储、应用乃至共享等环节都做出了规定,并强调对数据处理的定期风险评估。为了更直接地回应人脸识别技术的社会争议,2023 年 8 月,中央网络安全和信息化委员会办公室起草了《人脸识别技术应用安全管理规定(试行)(征求意见稿)》并公开征求意见,进一步规范人脸识别技术的应用。


由此可见,新兴技术发展与风险的内在张力使得新兴技术接受度研究尤为必要。本研究试图以公众的技术风险感知为视角,探索影响新兴技术的公众接受度的相关因素,并通过探究风险感知的调节机制,进一步理解新兴技术的公众接受度问题。


新兴技术的涌现及其技术特征为技术接受度研究提供了新的现实场域,但当前仍然缺少对于新兴技术概念及其特殊性的讨论与辨析。同时,当前对于新兴技术接受度的理论研究,不仅在理论构建和实证工作方面仍然不足,而且也缺乏对于较为新兴的具体技术的讨论与研究。此外,以往研究一般通过在问卷调查中直接提问的方式来测量受访者的风险感知水平和技术接受度水平,难以克服遗漏变量的内生性(斯科特,2018)及同源偏差(迈尔、奥图尔,2012)问题,仍然存在研究方法上的局限。


本文辨析了新兴技术的概念及其特殊性,构建了基于社会福利、个人收益和技术伦理3类风险感知的新兴技术接受度理论框架,并以新近涌现的人脸识别技术为例,采用调查实验的方法以更严谨地探索新兴技术接受度的影响因素。本文提出,新兴技术往往是新近涌现的、且呈现出快速发展的趋势,但还未真正被全社会广泛接受并应用,其概念和内涵具有时代性和不确定性,同时又可能对当时的社会经济产生重大影响。因此,根据广义的、中性的风险概念,即非预期后果的概率(奈特,2002),本文构建了基于新兴技术风险感知的接受度理论框架,研究公众之所以愿意接受一项新兴技术的影响因素。同时,考虑到新兴技术尚未普及,使用过新兴技术后公众对于同一风险的感知会存在明显差异,且当新兴技术本身尚未完全成熟、技术安全体系尚未完全建成,监管信任水平会影响公众对于技术风险的判断与感知,本文还从个人的技术使用行为以及监管信任水平视角出发,进一步研究了风险感知影响新兴技术接受度的调节效应。


本研究以人脸识别技术接受度为例,采用调查实验方法进行实证检验。作为新近涌现的人工智能技术的典型应用,人脸识别技术的主要应用场景以公共场所为主,是当前对公众“可见性”较强的新兴技术之一,适于面向个体受访者开展问卷调查。其次,人脸识别技术虽然提升了社会治安水平,但也经常发生因数据安全导致个人财产损失的安全事件,也在隐私伦理等问题上频频引发社会争议。因此,由于人脸识别在社会福利、个人收益和技术伦理方面突出展现了3类风险,研究者可以较为精准地在问卷中设置情境并测量出受访者对于不同技术风险感知的差异。此外,考虑到调查实验相较于普通问卷方法在因果效应估计上有独特的优势,即通过对样本的随机化分组确保干预变量在个体间的随机分布,从而削弱遗漏变量等内生性问题,我们通过设置人脸识别的不同风险情境,刺激公众对于社会福利、个人收益和技术伦理3类技术风险的感知,并得以更准确地研究新兴技术接受度的影响因素。


本研究不仅从理论上推进了学界对新兴技术风险和技术接受度的理解,也在方法上推进了本领域的发展,且研究结论具有较为重要的政策启示与实践意义。首先,本研究从理论上定义了新兴技术的概念,通过辨析社会福利、个人收益和技术伦理3种类型的技术风险,为进一步理解新兴技术接受度提供了场景化的微观视角,还就不同群体感知新兴技术风险的差异化机制进行了具体分析,从而深化了技术接受度的理论研究。已有研究(戴维斯,1989)大多从宏观上讨论风险感知如何影响技术接受度(布贝克,2012;福瑞穆特等,2017),对于微观机制的关注和探索仍有不足。本文在定义新兴技术的概念的基础上,辨析了其风险特征,从而阐明了新兴技术接受度研究的必要性和重要意义。本文还通过进一步细化新兴技术风险感知的不同类型,就公众对于社会层面和个人层面的风险感知做出了场景化的区分,并关注到新兴技术的重要伦理特征,由此构建了基于风险感知的新兴技术接受度理论框架。本研究也关注到公众的技术使用行为和监管信任水平如何对技术风险的感知产生差异性影响,在微观层面上补充了风险感知影响技术接受度的相关研究。其次,从方法上看,以往简单的问卷大多通过在问卷中直接对受访者主观态度进行提问,难以客观测量公众对于技术风险的真实认知。针对以往研究中难以解决的内生性问题(迈尔、奥图尔,2012;斯科特等,2018),本文通过调查实验的方式刺激了公众的风险感知,进一步揭示了新兴技术接受度的影响因素。最后,在实践上,本文有助于政府以场景化的方式理解新兴技术的风险类型及其如何影响技术接受度,从而塑造更精准的政策设计来推动技术风险沟通与政策宣传,引导提升新兴技术接受度。



二、新兴技术公众接受度的理论构建与假设提出


(一)新兴技术的概念与特征


近年来,新兴技术不仅助推了经济发展和产业变革,也推动了政府治理的数字化转型。新兴技术不仅展现了各行业自动化生产方式的潜能(阿西莫格鲁、雷斯特雷波,2018),也拓展了生产要素(贝森,2018),这意味着它不仅将改变传统生产的面貌,还将催生大量新业态和新模式。同时,新兴技术也为政府的数字化治理转型提供了技术和要素两方面的支持(蔡跃洲等,2021),有助于为政府职能的履行提供精准、有效的技术解决方案和“工具箱”(郁建兴、樊靓,2022;诺依曼等,2024),促进以公民需求为中心的回应性政府和服务型政府的建设(孟天广、赵娟,2018;汪玉凯,2020)。


新兴技术的发展为技术接受度的相关研究提供了新的现实场域,也拓展了进一步探索的理论空间。然而,尽管新兴技术在近年来成为热点研究议题,其定义与概念仍然未达成统一(罗托洛,2015)。当前研究对于新兴技术的定义主要从两条路径展开:一条路径强调技术领域内部的“新兴”和“涌现”(斯摩等,2014),即关注新兴技术非连续性的知识创新(戴、舍尔梅克,2000)以及对于已有技术整体的创新贡献;另一条路径从新兴技术社会影响的相关特征入手来定义概念。如罗托洛(2015)将新兴技术定义为激进创新和快速发展的技术,并通过多元主体、制度和模式互动而对经济社会产生巨大影响,而这种影响往往是模糊且不确定的。


本文提出,新兴技术是指新近涌现并快速发展、且尚未在社会中广泛使用的技术。新兴技术的概念内涵具有时代性和不确定性。一方面,某个技术只有在特定历史时期的涌现才能被理解为新兴技术。人类历史上每隔一段时间就会涌现出重大的新兴技术,从印刷术、蒸汽机、电力、汽车、飞机、原子能、电报电话等通讯技术,到21世纪末兴起的互联网,它们在所处的时代都是新兴技术,但这些技术到今天显然都不再是新兴技术了。另一方面,由于新兴技术尚不太成熟,主导设计并未形成,因此新兴技术在发展方向、应用效果以及大规模应用产生的社会影响方面都具有较高的不确定性。正因为新兴技术的时代性和不确定性,相比于其他已经被全社会普遍使用的传统技术而言,公众对于新兴技术的接受度有待进一步提升。研究如何提升新兴技术的社会接受度,则有助于为新兴技术的创新与发展创造良好的社会环境和发展空间。


(二)理解新兴技术的风险


本文以广义的、中性的风险概念,即新兴技术所产生的非预期后果的概率(奈特,2002),来定义新兴技术的风险。由于现代化治理手段和制度带来了不断扩散的不确定性,这种“不确定性”被认为是现代社会制度的内在特性(贝克,2004)。对于风险概念的分析能够帮助我们进一步理解,公众对于技术不确定性的恐慌会如何冲击其对于技术的信任度与接受度(张宪丽、高奇琦,2022)。


本文从社会福利、个人收益和技术伦理三方面来理解新兴技术所产生的风险。社会福利和个人收益风险分别从社会层面和个人层面出发,囊括了技术可能带来的成本和收益的概率,而技术伦理则从伦理维度引入了第三种风险。表1中举例说明了三方面风险在人工智能、生物合成、元宇宙、人脸识别等若干新兴技术中的具体表现。其中,以人工智能、生物合成、元宇宙等为代表的新兴技术在增进人类整体健康、促进农业增产增收、加强社会创新合作等方面中作出了系统性的贡献,但个人财产损失、个体健康隐患、个人数据滥用等潜在问题也增加了个人收益方面的风险,还可能引发人机伦理、生命尊严乃至数字人伦挑战等技术伦理风险(吴昊、李建军,2020)。


(三)新兴技术公众接受度理论模型


基于对社会福利、个人收益和技术伦理3类风险的理解,本文构建了基于技术风险感知的新兴技术接受度理论框架。已有研究大多从宏观上讨论风险感知如何影响技术接受度(布贝克,2012;福瑞穆特等,2017),本文试图进一步打开“风险感知”的“黑箱”,从社会层面和个体层面分别提出社会福利和个人收益两类风险感知,并从新兴技术所面临的社会规范压力出发研究公众对于不同类型的风险感知如何影响新兴技术接受度。此外,本文基于理论意义和现实考量提出了技术使用与监管信任两个调节变量。由于新兴技术具有“时代性”和“不确定性”的特征,因此不同技术使用行为和监管信任水平的公众对同样的风险产生差异化的感知。由此,本文提出公众对技术社会福利、个人收益和技术伦理的风险感知均会影响技术接受度,而技术使用行为和监管信任水平会调节风险感知对于技术接受度的影响,并构建了基于风险感知的新兴技术接受度理论框架(见图1)。



(四)研究假设的提出:以人脸识别技术为例


本文以人脸识别技术为例,具体分析对于新兴技术“社会福利”、“个人收益”和“技术伦理”的3类风险感知如何影响公众的技术接受度。人脸识别技术是相对成熟和落地的新兴技术之一,随着2014年前后深度学习算法的突破,人脸识别技术开始大规模应用到各类场景。作为新兴技术的典型代表,人脸识别技术的应用提升了政府社会治理能力,尤其在社会治安领域的应用提升了嫌犯追逃、寻找失踪人口的效率,降低了城市治安的风险(科斯特卡,2021)。然而,新兴技术在发展与应用中产生的风险也会影响公众的技术接受度。例如,人脸识别技术的主要风险争议来自于因数据泄露导致的财产损失风险。国内已有多家银行发生犯罪分子破解人脸识别系统导致储户存款被盗事件。犯罪分子在破解某银行人脸识别系统后,在大额转账和密码重置环节成功通过手机银行系统的“人脸识别”检验,致使用户损失大量财产。人脸识别技术还存在更深远的伦理风险,主要表现在技术对于个人隐私的侵犯和公私边界的互渗(王金柱,2022)。在“中国人脸识别第一案”中,杭州野生动物世界强制游客以人脸识别的方式入园,并因此被起诉“侵犯隐私”。经法院裁判,认为这一场景人脸识别技术强制性的使用超出了“必要”原则,不具有正当性。


较低的技术接受度会降低技术应用的成效,并约束数字技术的发展路径和使用边界。2020年美国佛洛依德事件发生后,因考虑到人脸识别技术的种族歧视争议,美国通用技术公司宣布“反对使用该项技术进行大规模监控与种族歧视”,亚马逊、微软等企业也就此宣布停止向美国警方提供人脸识别服务。2021年11月,脸书宣布关停其人脸识别系统,并删除其从平台用户处获取的逾10亿张人脸数据。此外,各国政府也开始限制技术应用边界与使用方式。出于对“种族歧视”和“大规模监控”的担忧,美国已有旧金山、萨默维尔、奥克兰、波士顿等近二十个城市禁止在公共部门使用人脸识别设备,欧洲议会也通过了决议,在公共场所全面禁止使用“实时”、远程的生物特征识别系统。为了回应社会公众对于人脸识别技术侵犯隐私的争议,中国的许多行业如酒店、物业等也陆续开始减少不必要的人脸识别刷脸环节。可以看到,公众的技术接受度对于新兴技术的广泛应用与良性发展具有重要意义。


根据以上对于人脸识别技术应用与风险挑战的分析,本文在社会福利、个人收益和技术伦理3类风险的一般性理论框架下,具体对应为“社会治安”、“个人财产损失”和“隐私伦理冲突”3类风险,并对公众新兴技术接受度的影响因素进行实证检验。



第一,新兴技术的社会福利风险感知。公众对新兴技术所带来社会福利的感知会影响新兴技术接受度。有研究者在中国、美国、英国、德国4个国家发放了跨国问卷,结果发现尽管存在技术接受度的差异,但各国受访者都认同人脸识别技术可以降低治安风险,在整体上增进社会福利(科斯特卡,2021)。已有研究揭示了对于技术提升效率的感知会对技术接受度产生积极影响(戴维斯,1989),即当公众感知到使用一项技术所能获得的收益时,其技术接受度往往会提高。例如当公共卫生事件突然爆发时,公众会更为强烈地感受到疫苗带来的社会福利和集体收益,从而提升疫苗接种比例(廖等,2009;福瑞穆特等,2017)。也有研究探讨了生物特征识别技术的可用性(米尔特根,2013)、人脸识别技术的效能(科斯特卡,2021)对于公众技术接受度的积极影响。本文提出,人脸识别技术在追逃嫌犯、寻找失踪儿童等应用领域发挥独特优势,可以显著提升社会治安水平,增进社会整体福利,当公众感知到新兴技术可以提升社会整体福利时,其技术接受度会提升。因此,本研究提出如下假设。


H1:对于人脸识别技术可以提升社会治安水平的感知会提升公众的技术接受度。


第二,新兴技术的个人收益风险感知。新兴技术的应用可能增进社会整体福利,但也可能给个人收益带来一定风险,而公众对于个人收益损失的感知会对新兴技术接受度产生消极影响。通过对核能(德格鲁特等,2020)、转基因食品(巴瓦、阿尼拉库玛,2013)乃至电子政务服务(霍斯特等,2007)、网络消费(阿尔穆萨,2014)等技术的实证分析,相关研究揭示了技术对个人安全、财产及健康收益带来的潜在损失会对技术接受度产生消极影响。对于人脸识别技术而言,人脸等个人信息数据在收集、存储和共享环节中可能产生的数据安全问题(郭春镇,2020;朱旭峰、楼闻佳,2023)会增加公众感知到的个人财产损失风险(米尔特根,2013),而企业不当披露个人信息和数据的行为,则会进一步强化公众对于个人收益风险的感知(齐默等,2010)。本研究将人脸识别技术因数据泄露导致的财产损失风险作为个人收益风险感知的测量,并由此提出如下假设。


H2:对于人脸识别技术带来个人财产损失的感知会降低公众的技术接受度。


第三,新兴技术的技术伦理风险感知。人脸识别技术无孔不入的“观察”能力还冲击了传统的“隐私”界定,模糊了公私领域的边界(王金柱,2022),对社会伦理产生了全新的挑战。近年来,新兴技术在发展过程中频繁出现伦理冲突,对公众的新兴技术接受度产生了重要影响。“伦理”是指公认的社会规范与应然秩序(黑格尔,1991),是对于人与人、人与技术等各类社会关系的形成的价值准则与行为规范。但近年来,大数据、人工智能、基因编辑等新兴技术的发展则对传统人与技术的关系提出了巨大挑战。例如基因编辑技术不仅挑战了人类基因的完整性和进化性(陶应时、罗成翼,2018),还可能带来难以预期的遗传后果,并冲击社会结构的代际公平性。又例如大数据时代的技术扩张和数字生存挑战了隐私边界,技术对个体无孔不入的观察与识别使得私人边界不断坍缩(王金柱,2022)。又如,人工智能自主性的不断增强催生了技术权力结构的膨胀(谭九生、杨建武,2019),模糊了人机伦理的界限,也挑战了对“人”的本质的认知(孙伟平,2017)。


然而,尽管“新”技术遭遇了“旧”规范,产生了激烈的伦理冲突,但当前仍然少有研究关注对技术伦理风险的感知如何影响新兴技术接受度。本文提出,对于技术的伦理风险感知是影响新兴技术接受度的重要因素之一,而且技术的伦理风险和技术个人收益存在本质区别,风险关乎“成本”和“收益”的衡量,而伦理关乎道德上的“对”与“错”。技术伦理风险的本质是技术应用过程中产生与传统社会伦理规范相容或不相容的现象。社会规范则被定义为个体依从于各种社会压力的信念,也指作为个体进行某项行为所要承受的社会压力(阿杰森,1991)。规范动机理论认为,对于某个行为的伦理义务往往会驱动个体采纳或不采纳某项行为(施瓦茨、霍华德,1981),如以往有学者发现公众会出于道德和伦理的义务出发抗议核电站的建设(德格鲁特、斯泰格,2010)。随着新兴技术的发展,人与技术的交互方式发生了巨大变化,技术本身的自主性不断加强,而这种自主性的强化使得技术伦理前所未有的重要(龚群,2023)。


本文提出,公众的技术接受度不仅会受到“实然”层面社会福利和个人收益风险感知的影响,还会受到“应然”层面社会规范的影响。当感知到技术伦理与已有规范不相容时,会对公众的新兴技术接受度产生消极影响。人脸识别技术所具有的海量数据收集、存储与分析能力,隐喻了当前社会技术扩张和数字生存的潜在伦理冲突,颠覆了传统隐私边界。因此,本文将人脸识别技术对个人隐私边界的冲击作为技术伦理冲突感知的测量,并提出如下假设。


H3:对于人脸识别技术隐私伦理冲突的感知会降低公众的技术接受度。


第四,调节因素:技术使用行为和监管信任水平。如前文所述,新兴技术具有时代性和不确定性的特征。而风险感知作为一种个人主观定义的感受,会受到心理、文化、社会和制度等多种因素的影响(斯洛维奇,2010)。一方面,新兴技术意味着技术尚未普及,仅有部分人群使用过技术。因此,是否体验过新兴技术,会使得公众对于同样的风险暴露的感知存在明显差异。另一方面,当“新兴”技术本身尚未完全成熟、技术安全体系尚未完全建成时,公众监管信任水平体现了使用者对新兴技术潜在风险的相关监管政策和舆论环境的认可程度。因此,公众监管信任水平的高低也会影响对于同一风险的感知。


1.调节因素:技术使用行为


本文提出,公众技术使用行为会调节风险感知对于新兴技术接受度的影响。技术使用行为会增加个体与技术的利益相关程度,从而使公众对于技术可能产生的社会福利、个人收益及技术伦理等风险信息更为关切,也更容易受到相关信息的影响。相反,不使用该新兴技术的公众往往依据抽象经验进行判断,更关注技术的宏观印象,因而对具体背景信息较不敏感(阿米特等,2009)。因此,技术使用行为可以对公众的风险感知产生调节作用,当公众使用过一项技术时,往往对于同一风险的感知会更为敏感。对于人脸识别技术来说,由于利益相关性,技术使用行为会使得个体更加关注技术产生的社会福利、个人收益和技术伦理的风险,从而调节风险感知对于技术接受度的影响。本文由此提出,人脸识别技术的使用行为会使得个体更为关注技术可能产生的具体风险,从而对技术的风险感知更为敏感,并提出以下假设。


H4:相较于不使用这项技术的群体,使用者的技术接受度对人脸识别技术的风险感知更加敏感。


2.调节因素:监管信任水平


公众的监管信任水平也会调节风险感知对于新兴技术接受度的影响。已有研究发现,公众的信任水平会影响其对于技术风险的感知(西格里斯特,2021)。“信任”被认为是“降低认知复杂性的工具”(厄尔、茨韦特科维奇,1995),信任机制的建立可以帮助人们让渡使用决策,以避免过多的对于不确定性和复杂性的计算,从而降低交易成本、提升社会效率。因此,高监管信任群体可以简化“是否接受一项技术”的决策过程。对于发展仍待成熟、技术安全体系仍处于初建状态的新兴技术来说,民众较高的监管信任水平往往意味着公众更为信任政府及发布的政策信息。加之新兴技术本身具有高度不确定性,具有更高监管信任水平的公众会容易被政策信息影响,并以此为依据做出对于一项技术的判断和决策。因此,当公众具有较高的监管信任水平时,往往也会更容易信任关于技术风险的相关信息,从而对风险感知更为敏感。本文由此提出,具有较高监管信任的公众的技术接受度会对社会福利、个人收益及技术伦理的风险感知更为敏感,并提出以下假设。


H5:相较于低监管信任的群体,高监管信任群体的新兴技术接受度对人脸识别技术的风险感知更加敏感。


三、研究设计与数据来源




  (一)研究设计


  本研究采用调查实验的方法探究新兴技术接受度的影响因素。以往简单的问卷大多通过在问卷中直接对受访者主观态度进行提问(巴斯蒂德等,1989;克洛特等,2015;近石等,2020),往往难以测量出公众客观的风险认知和技术接受度水平。同时,由于某些因素可以同时塑造对于技术风险的感知及新兴技术接受度(斯科特等,2018),这类提问方式难以克服遗漏变量的内生性及同源偏差问题。


  通过调查实验进行新兴技术接受度影响因素分析具有两方面优势:一方面,采取调查实验的方式可以通过多因素情景实验的设计,更充分地激发公众对新兴技术不同风险的明确感知。另一方面,调查实验的方法通过将实验嵌入社会调查中,在因果效应估计上有独特的优势(孟天广,2017)。通过对样本的随机化分组,可以确保干预变量在个体间的随机分布,从而削弱遗漏变量等内生性问题。


  本研究包含了3个平行调查实验设计,分别研究对于技术社会福利、个人收益和技术伦理的风险感知如何影响新兴技术接受度。第一个实验描绘了人脸识别技术通过提升社会治安水平从而增进社会整体福利的情境,以此来刺激受访者对于社会福利风险的感知,第二个实验描绘了人脸识别技术可能引发的个人财产损失,以此来刺激受访者对于个人收益风险的感知,第三个实验描绘了人脸识别技术的隐私伦理冲突,以此来刺激受访者对于技术伦理风险的感知,本文通过分别比较 3 个实验组与 1 个对照组的结果差异,测量出实验干预的效应。本文据此设计了 4 种版本的问卷,分别对应人脸识别技术的社会福利风险感知、个人收益风险感知、技术伦理风险感知和一组空白组(控制组)。具体调查实验问卷材料设计如下(见图2)。



  根据以往理论,社会信任(西格里斯特,2021)、知识水平(西格里斯特、茨韦特科维奇,2000)、技术熟悉度(德格鲁特等,2020)及性别、教育等个体层面因素可能会影响公众的技术接受度。本文因此尽可能全面地选取了人脸识别使用行为、监管信任水平、风险厌恶水平等问题及性别、教育水平、是否有理科学习经历等可观测的个体特征作为控制变量。而对于其他可能还需要纳入考量的控制变量,一方面我们认为可以在后续研究中进一步挖掘,另一方面我们认为实验随机性的本质可以较好地削弱遗漏变量导致的内生性问题。


  (二)问卷发放


  在本次调查实验研究中,我们委托问卷调查公司进行专业的问卷发放。实验的本质是将被试者完全随机地赋予一定情境和条件(布鲁等,2015;卢等,2022),从而克服遗漏变量等内生性问题,因此,和普通问卷需要追求样本代表性的“样本推断总体逻辑”不同,实验操作的核心是确保干预变量在个体间的随机分布,只要实验组和控制组在分组上保证是随机抽样的,就能保证本实验研究的效应在测量上具有内在效度。因此,根据随机实验的要求,我们要求问卷公司在给定受访者范围内以完全随机的方法发放4类问卷,并保证3组实验组和1组控制组的受访者彼此没有交叉,我们也会在后续对回收样本进行随机性检验。根据研究设计,我们原计划回收2000份有效问卷,但考虑到问卷的回收有效性的要求和后续分析过程中的样本损失,我们要求问卷公司保证回收有效问卷2100份。由于线上问卷调查的特殊性,我们无法确认平台发放的问卷数量和样本回收率,但和线下发放问卷相比,线上问卷发放的形式可以通过必选题项的设计较好地保证问卷答题的完整度,从而具有较高的有效样本率,且线上问卷发放可以更好地覆盖全国各个地区。


  在具体实验过程中,受访者通过网络平台被随机分配至实验组与控制组中,3个实验中的受访者分别阅读3段关于人脸识别社会福利风险、个人收益风险和技术伦理风险的信息材料(见图2)。实验中的阅读材料均来源于正式客观的新闻事件,但考虑到如果在问卷里提供了媒体来源信息,那么不同媒体本身也可能是影响用户对材料信息信任度的干扰因素,因此我们在实验设计中特地隐去了具体的媒体来源。在阅读完相应信息后,受访者被要求继续完成关于人脸识别的技术接受度相关问题。而控制组中的受访者不会阅读任何描述性信息,直接完成技术态度问题的回答。我们已确保每组受访者彼此没有交叉。


  (三)问卷数据


  本文的数据主要来自网络问卷调查。2021年3月,本研究通过网络平台开展问卷调查实验,旨在评估公众对人脸识别技术的基本态度及其影响因素。问卷主要分为两部分。在问卷的前半部分,我们首先对受访者的技术使用行为、监管信任水平、风险厌恶水平及人口统计学特征等进行了调查,问卷的后半部分则是随机实验和技术态度问题。我们通过“您对于人脸识别技术的态度”这一问题来测量公众对于人脸识别的技术接受度,选项设置从“1非常反对”到“9非常认同”,分值越高表示公众技术接受度越高(见表2及《管理世界》网络发行版附录)。


  本研究回收的2068份问卷有效样本覆盖了除港澳台外全国31个省级行政区划,能够比较全面地反映全国的情况,但考虑到本次问卷通过网络渠道发放,调查过程中问卷回收存在不确定性(非实验室条件下进行实验,受访者回复意愿有差异),我们最终回收的样本在数量上无法保证和各行政区划的实际人口数量保持相当比例,回收样本分布更偏向中东部地区。此外,回收的总体样本中所包含的3个实验组与1个控制组的问卷数量分别为518份、517份、515份及518份。我们进一步通过筛选问卷答题时间在30~300秒内的样本(未将答题时间过短或过长的样本纳入分析),并保留年龄在18~80岁的样本(奥肖内西等,2023;汤志伟等,2023),本研究最终有效样本共2045份。


  调查实验的核心是对受访者在实验组和控制组随机分布以保证因果效应的效度,因此需要保证实验组和控制组中唯一的差异应该是设计者给予的实验干预,而其他控制变量没有系统性差异(盖恩斯等,2007),我们因此在数据回收后进行了随机性检验。通过将3个实验组分别与1个控制组进行组间差值检验(见表 3),我们发现4个组间在人脸识别使用行为、风险厌恶、监管信任及性别、年龄、教育等控制变量上没有显著差异,呈现出较好的随机性。



四、结果与分析



  为探究公众对社会福利、个人收益和技术伦理的风险感知和新兴技术接受度的关系,本文根据理论框架构建了3个平行调查实验,并就技术使用行为和监管信任水平如何影响新兴技术接受度产生进行了异质性分析。


  在确认实验组和控制组在除实验干预外的其他控制变量没有显著的系统性差异后(见表3),我们首先考察了核心因变量人脸识别技术接受度的基本情况和组间差异。图3展示了控制组与实验组1(人脸识别技术提升社会治安水平)、实验组2(人脸识别技术增加个人财产损失)、实验组3(人脸识别技术增加隐私伦理冲突)的人脸识别技术接受度均值。整体来看,当前公众对于人脸识别技术的接受度较高,这与以往研究中中国公众对于人脸识别技术接受程度较高的结论较为一致(科斯特卡,2021)。此外,3个实验组与控制组的均值呈现出一定差异,社会福利风险感知组的技术接受度较高,而个人收益组和隐私伦理组的技术接受度相对较低。


  表3也展示了主要变量的均值。样本内问卷受访者平均年龄为32.2岁,大多数具有大专及本科以上学历。如前文所述,相较于中国整体人口特征,本研究中的受访者整体更年轻,学历更高。同时,64%的问卷受访者有理科学习经历。问卷受访者整体呈现出较高的监管信任。由于本次问卷主要通过网络开展,受限于问卷发放渠道,问卷样本存在一定的潜在样本偏差。但考虑到截至2022年12月,中国的互联网普及率为75.6%(10.67亿网民规模)(中国互联网络信息中心,2023),相较于中国人口整体特征,中国网民的人口学特征往往更年轻、收入或学历更高或更可能居住在城市中(特鲁克斯,2014),本文使用的调查样本能较好地代表网络使用者群体


  (一)实验1:社会福利的风险感知与技术接受度


  本文首先在实验一中考察了公众对于社会福利的风险感知如何影响人脸识别技术接受度。我们构建了“人脸识别技术提升社会治安水平”的实验组和控制组,表4的线性模型回归结果呈现了人脸识别技术提升社会治安水平这一情境的实验干预对技术接受度的影响,即对人脸识别技术的社会福利风险感知如何影响公众技术接受度。基于以往技术接受度的理论,我们控制了公众个体层面的风险厌恶程度、使用行为、监管信任与性别、年龄、理科学习经历、教育水平等个体特征变量,并控制了省份虚拟变量以避免地区间技术态度的区域性差异。同时,我们希望实验随机性的本质能帮助克服部分遗漏变量的内生性问题。由于存在一定缺失值,实验组和控制组分别包含512个和514个参与回归的观测值。表4的结果表明,公众对于“人脸识别技术会提升社会公共安全水平”的感知将显著提升技术接受度。





  (二)实验2:个人收益的风险感知与技术接受度


为探究个人收益风险感知如何影响技术接受度,本文构建了“人脸识别技术增加个人财产损失”的实验组和控制组。表5的线性模型回归结果呈现了人脸识别技术增加个人财产损失这一情境的实验干预对技术接受度的影响。实验中同样控制了公众个体层面的风险厌恶程度、使用行为、监管信任与性别、年龄、理科学习经历、教育水平等个体特征变量,并控制了省份虚拟变量以避免地区间技术态度的区域性差异。由于存在一定缺失值,实验组和控制组分别包含506个和514个参与回归的观测值。表5的结果揭示了当公众感知到人脸识别技术可能会增加个人财产损失时,其技术接受度会显著降低。


  (三)实验3:技术伦理的风险感知与技术接受度


  为探究公众对技术伦理风险的感知如何影响技术接受度,本文再次构建了“人脸识别技术隐私伦理冲突感知”的实验组和控制组。表6的回归结果呈现了人脸识别技术增加隐私伦理冲突这一情境的实验干预对技术接受度的影响,即对人脸识别技术伦理风险的感知如何影响公众的技术接受度。实验中同样控制了公众个体层面的风险厌恶程度、使用行为、监管信任与性别、年龄、理科学习经历、教育水平等个体特征变量,并控制了省份虚拟变量以避免地区间技术态度的区域性差异。由于存在一定缺失值,实验组和控制组分别包含513个和514个参与回归的观测值。表6也揭示了当公众感知到人脸识别技术产生的隐私风险时,其技术接受度会显著降低。


  (四)对于技术使用行为和监管信任水平的异质性分析


  本研究还探索了已有的技术使用行为会如何调节风险感知对新兴技术接受度的影响。问卷使用“是否在手机软件中开通了一个及以上的人脸识别功能”作为对“技术使用行为”的测量。表7的结果表明,相较于不使用人脸识别技术的群体,技术使用群体会对技术的风险感知更为敏感,从而影响对人脸识别的技术态度。具体而言,对于“人脸识别技术会提升社会治安水平”的感知,会显著提升技术使用者的技术接受度,而当使用者感知到个人财产损失和隐私伦理冲突时,其技术接受度会显著降低。而对于不使用人脸识别技术的群体而言,除了对财产损失风险敏感外,其对风险的感知不会影响其技术接受度。


  本文研究结论提供了技术使用行为会使公众对风险感知更加敏感的经验证据,这与以往技术使用行为意味着更高的技术接受度的结论不同。本文认为,使用者之所以对风险更为敏感,是因为利益相关性会促使使用者更关注技术在社会福利、个人收益和技术伦理等层面的具体风险,从而导致对技术风险感知更敏感。


  考虑到政府监管水平对于塑造公众技术认知的重要性,本文还就公众监管信任如何影响公众的风险感知从而影响新兴技术接受度做进一步分析。当前公众对于人脸识别技术的主要顾虑之一是生物数据的安全保障,我们借鉴布拉茨皮斯(2009)对于监管信任的定义——“公众对于监管者的技术资质、监管动机和构建监管系统能力的认可程度”,通过设置“您是否放心将数据交给中央政府保管”这一问题作为测量监管信任的指标。我们将答案设置为“非常放心、很放心、一般、不太放心、非常不放心”5个维度。为更清晰地了解监管信任的分布情况及其对技术接受度的影响,我们将其合并为“高信任度”及“低信任度”两组进行讨论,并将1~2归为低监管信任组,3~5归为高监管信任组。


  本文表8的实证结果发现,相较于低监管信任群体,高监管信任群体的技术接受度对技术风险感知更加敏感。当感知到人脸识别技术可以提升社会治安水平时,高监管信任的群体会更容易提升其对于人脸识别技术的接受程度;而当感知到人脸识别技术可能带来的个人收益层面的财产损失和社会隐私伦理冲突时,高监管信任群体的技术接受度会更为显著地下降。相较而言,低监管信任群体的技术接受度则对风险的感知非常不敏感。


  本文的研究结论和以往研究简单认为监管信任意味着更高的技术接受度(亨斯特勒等,2016;韩等,2017)不同,高监管信任的群体往往对于风险感知更为敏感。随着新兴技术不确定性的增加,公众更难以预期技术风险和伦理后果,更高的监管信任意味着公众对于政府及相关政策信息具有更高的认可度,加之信任机制的建立可以简化“是否接受一项技术”的决策过程(厄尔、茨韦特科维奇,1995),公众会对风险信息更为敏感。这意味着当技术风险事件发生时,政府可以通过针对性的政策宣传和风险沟通缓解技术恐慌。本文的研究结论也进一步表明,公众的监管信任可以提升政府进行政策宣传与风险沟通的效率,降低政府与公众的沟通成本(普特南等,1994)。






五、讨论与总结


本研究探索了以人脸识别为代表的新兴技术接受度问题。通过构建3个平行调查实验,本文发现,公众对于人脸识别技术增进社会整体福利的感知会显著提升公众的技术接受度,而对于人脸识别技术带来的个人财产损失和社会隐私冲突的感知,则会显著降低公众的技术接受度。研究结果还发现,技术使用行为和更高的监管信任水平往往意味着公众的风险感知更为敏感。


本研究从理论上定义了新兴技术的概念,通过辨析社会福利、个人收益和技术伦理3种类型的技术风险,为进一步理解新兴技术接受度提供了场景化的微观视角,还就不同群体感知新兴技术风险的差异化机制进行了具体分析,从而深化了技术接受度的理论研究。已有研究(戴维斯,1989)大多从宏观上讨论风险感知如何影响技术接受度(布贝克,2012;福瑞穆特等,2017),对于微观机制的关注和探索仍有不足。本文首先定义了新兴技术的概念,辨析了其风险特征,从而阐明了新兴技术接受度研究的必要性和重要意义。其次,本文通过进一步细化了新兴技术风险感知的不同类型,就公众对于社会层面和个人层面的风险感知做出了场景化的区分,并关注到新兴技术的重要伦理特征,由此构建了基于风险感知的新兴技术接受度理论框架。最后,本研究还关注到公众的技术使用行为和监管信任水平如何对技术风险的感知产生差异性影响,在微观层面上补充了风险感知影响技术接受度的相关研究。


本文也通过引入调查实验方法,从方法上推进了技术接受度的相关研究。以往研究大多通过在问卷中直接对受访者进行主观态度提问的方式测量公众对于技术的接受程度(巴斯蒂德等,1989;克洛特等,2015;近石等,2020),难以测量公众对于技术风险的真实认知。针对以往研究中难以解决的内生性问题(迈尔、奥图尔,2012;斯科特等,2018),本文通过调查实验的方式刺激了公众的风险感知,进一步揭示了新兴技术接受度的影响因素。


本文不仅从理论和方法上推进了相关研究,也为新兴技术的治理实践提供了理论参考,并得到以下政策启示。首先,公众技术接受度的提升有助于营造社会良好的科学氛围,为技术的应用推广创造广阔的社会空间,从而促进技术的创新与发展。例如,《人脸识别技术应用安全管理规定(试行)(征求意见稿)》的发布回应了公众对于新兴技术应用的争议与顾虑,有助于增强公众对个人信息安全保障的信任度和满意度,从而增强社会技术接受度,推动技术良性发展。建议政府尽早关注并积极回应新兴技术风险,通过科学调研对公众的伦理关切、观点态度等情况进行摸底掌握,以政策引导提升公众的新兴技术接受度。


其次,考虑到不同群体的公众对于新兴技术会产生差异化的风险感知,建议政府构建更为精细化的新兴技术风险沟通体系,尤其通过对于新兴技术不同类别和不同场景风险的区分和讨论,强化公众对于新兴技术的认知和理解。从场景化的视角分析新兴技术的风险,既有助于政府理解公众对于新兴技术的具体伦理关切和态度观点,从而为公共政策制定提供方向性的指引;也有助于提升监管的灵活性和精细化水平,避免“一刀切”冲击新兴技术的创新与发展,并通过规范新兴技术具体应用场景,进一步激发相关未来产业的活力和潜力。


再次,公众在新兴技术时代的监管信任相比以往具有更为重要的意义,新兴技术的持续涌现和日趋复杂的社会运转亟需构建更强的公众信任机制。建议政府通过开展全过程和不同层面的技术政策讨论,给予公众更多知情权和参与权,培育公众更高的监管信任,从而增强风险沟通和政策宣传的效率。


最后,随着“技术赋能”公共服务的深度和广度不断增加,政府应该关注到以往考虑不足的技术应用风险问题。在未来的政策制定中,可以结合人工智能社会实验进行新兴技术的政策试验,通过将不同类别风险镶嵌到社会情境中,多路径评估风险感知对新兴技术应用推广的社会影响,从而为政策制定和精准施策提供决策参考。


本研究也存在一定的局限。首先,尽管本文的研究方法是问卷实验,其核心是通过确保干预变量在个体间的随机分布来削弱遗漏变量等内生性问题,但仍然可以进一步提升本文研究结论的外推性。受限于实验资源和实验时间,本次调查实验囊括的样本范围偏少,同时线上渠道的限制使得受访者存在潜在样本偏差,从而对问卷实验结论的外推性产生一定影响。后续研究中如果可以进行更大规模的线下样本收集,并设计包含更多的控制变量,会进一步增强研究的外部有效性。其次,本研究是对以人脸识别技术为例的新兴技术接受度的较早期的研究,从社会福利、个人收益和技术伦理的风险感知着手研究其对技术接受度的影响,但还未更深入地对其中影响机制进行研究,后续可以就具体影响新兴技术接受度的渠道和机制做进一步的分析。



内容版权归原官方所有,如有侵权请联系我们删除。如需转载分享本文,请注明“排版/格式来源于公众号‘治理评论’”。



图片来源:小红书作者  摄影师微微


近期文章推荐:

简讯 | 国家治理研究院院长佟德志教授的论文在《政治学研究》发表

简讯 | 国家治理研究院副院长康伟教授的文章在《光明日报》发表

心阅·荐书 | 杨念群教授著作《问道:一部全新的中国思想史》由重庆出版集团出版发行

【荐文】肖亮、郁建兴 | 健康消费的科学内涵、国际经验与促进政策

新书速递 | 宋林霖教授主编《中国市场综合监管概论》由国家行政学院出版社出版发行



总策划 | 宋林霖


编辑 | 冯星翰 黄梓璇 成晨爔

审核 |  张玉帅 春阳

治理评论
天津师范大学国家治理研究院欢迎您!本研究院聚焦国家治理热点问题,在资政建言、理论创新等方面积极发挥智库纽带作用,于2020年获批天津市高校优秀智库、2022年入选中国智库索引全国高校百强智库、2023年入选天津市高端智库。感谢您的关注!
 最新文章