赵泽睿|人工智能立法的沟通认知模型与程序治理思路

文摘   2025-01-06 09:00   湖北  

点击蓝字关注我们


人工智能立法的沟通认知模型与程序治理思路



赵泽睿,上海交通大学中国法与社会研究院助理研究员,凯原法学院助理研究员


原载《华中科技大学学报(社会科学版)》

2024年第6期


摘要:当前人工智能治理的立法研究普遍存在着功能主义的认知观,即将人工智能理解为计算机对大脑功能结构的模拟。此种认知观会诱使立法主体相信人工智能具有可计划性的线性发展模式,能够通过单一治理主体提出普适性、明确性、中立性的实体治理规则进行集中规划与监管。这种实体主义治理的立法思路容易陷入安全与发展的二元对立困境。为了打破“一管就死,一放就乱”的立法悖论,立法主体需要从沟通视角重新认知人工智能的技术原理与风险复杂性,并围绕其生命周期中的二阶三类沟通环节,制定统一的程序规则以保障风险沟通的递归性与风险决策权责利的对称性,让法律融入人工智能治理规则的动态生产过程,引导具体场景的利益相关者进行多元、敏捷的价值衡量。


关键词:人工智能立法;沟通;正当程序;人机交互;风险共担


面对促进人工智能发展以推动经济复苏的机遇与保障人工智能安全以规避人类危机的挑战,法律作为国家治理风险的重要手段,理应为化解发展与安全的对立冲突、消除人机对抗的舆论氛围、塑造人机共存的全新秩序提供治理框架与制度环境。我国于2023年7月颁布的全球首部人工智能法规——《生成式人工智能服务管理暂行办法》在从征求意见稿到正式文件的立法过程中,便充分反映了人工智能治理所面临的安全与发展的对立困境。学界与产业界对于该法规是否会阻碍我国生成式人工智能的发展进行了激烈讨论。欧盟于2024年率先发布了全球首部人工智能统一立法——《人工智能法》,其在立法过程中也因难以平衡人工智能治理中的安全与发展问题而受到社会各界的质疑与批评。同时,我国也将《人工智能法》列入了立法工作计划。如何在该项立法中提出化解安全与发展治理悖论的中国方案,自然就成为中国特色社会主义法治体系建设所面临的时代挑战,也是我国在世界舞台上争夺国际话语权的时代机遇。

在此背景下,本文将围绕“立法者该如何认知人工智能”以及“人工智能立法该如何实现安全与发展相协调的治理目标”两个核心问题进行讨论。对此,本文的论述思路分为以下三步:第一,反思在人工智能立法层面引发安全与发展二元对立的功能认知观与实体主义治理理念;第二,基于现状提出符合人工智能发展规律的沟通认知模型与程序主义治理框架;第三,在沟通认知模型与程序治理框架下推导出一套有利于扭转人机对抗舆论氛围、满足多元性与敏捷性治理需求的人工智能立法思路。

一、功能主义认知与实体主义治理引发的立法困境

在任何领域的治理与立法研究中,对治理对象的认知同具体的治理思路一样重要。这是因为,其不仅决定了治理法规的效力范围,更决定了治理逻辑的前提与起点。但在主流的人工智能治理与立法讨论中,存在着未经审视地直接照搬技术专家用于公众科普的功能主义描述,这些描述将人工智能概括为一种计算机对人类大脑的功能结构仿制,会诱导立法主体认为人工智能的技术发展是目标既定的线性模式,并产生一种人工智能能够被统一规划与集中监管的自负。在此种自负下,法律仅仅是确认实体性治理规则的权威发布工具,而未实质性地参与治理规则的生产过程,进而让人工智能立法在多个维度出现安全与发展的二元对立悖论。

(一)人工智能的定义及其引发的功能认知观

 人工智能概念所指涉的具体内容会随着技术发展而动态变化。斯坦福大学的研究报告显示,人工智能的概念本身就是跟随技术进步而不断革新的,每当一种新的模拟人类智能的计算机技术完全融入日常生活之中,被社会公众习以为常且形成稳定的、共识性的、用于评价决策合理性的社会规范后,它便会脱离人工智能的含义范围,然后,会有全新的、尚未有明确社会规范来评价其研发与应用决策的、模拟人类智能的计算机技术出现,并融入人工智能的范畴之内。这种吐故纳新的动态更迭过程会持续发生。因此,“人工智能作为一个描述性概念,其所指对象通常是众所周知的,但却是不可能被准确定义的。这个名词意群代表着一个不断变动的范畴,它既是能指,也是所指,难以定义。其概念的出现与其说是基于科学,不如说是基于战略,它所依据的是一种对学科标签化的逻辑”。

为了应对人工智能概念的动态发展,主流的观点倾向于将其相对固定的功能目标——模拟人类主体性作为其定义基础,如“人工智能就是与人类思考方式相似的计算机程序?”或“人工智能就是模仿人类学习的计算机程序”等。根据维基百科所引用的斯图亚特·罗素和彼得·诺维格对人工智能的定义,人工智能是指“智能主体的研究与设计”,而“智能主体是指一个可以观察周遭环境并作出行动以达致目标的系统”。因此,如何用计算机模拟人类主体的环境感知、思考决策和执行指令成为人工智能技术研发的核心问题。在主流观点的影响下,当前法律对人工智能的定义也是围绕其功能目标——“模拟人类主体性”与技术手段——“机器学习”展开的。例如,我国电子技术标准化研究院发布的《人工智能标准化白皮书》将其定义为“用数字计算机模拟、延伸和扩展人的智能的系统”。《深圳人工智能条例》与《上海人工智能条例》将其定义为“利用计算机或者其控制的设备/机器模拟、延伸或者扩展人类行为的系统”。英国司法部门发布的《人工智能司法使用指南》将其定义为“能够执行通常需要人类智能的任务的计算机系统”。美国和欧盟则是采取了以机器学习为核心的技术清单形式进行定义,如美国的《推进美国人工智能法案》将人工智能定义为:“全部或部分使用动态或静态机器学习算法或其他形式的人工智能运行的任何数据系统、软件、应用程序、工具或实用程序。”欧盟的《人工智能法案》则是沿用经合组织已经使用的、更宽泛的定义,并在附件1中列出了其认定为人工智能的技术清单,包括“机器学习”“基于逻辑和知识的系统”等。

上述的法律定义方式很容易给人工智能的治理与立法主体一种功能主义的认知误解,即将人类的学习能力独立归因于大脑天生的、客观确定的功能结构,并将以机器学习为核心的人工智能理解为对这个客观、确定的功能结构的简单仿制。例如,有语言学家曾提出:“我们生下来就具备理解语言的学习能力,即人类个体天生自带的通用语法。”无独有偶,也有人工智能学家主张通过对人类大脑结构的完美模拟来实现“终极算法”的理念,他们认为一定存在着某种通用学习算法或模型,能让计算机像人类个体一样进行知识学习与创造。在此种认知下,立法主体会被诱导认为人工智能的发展具有终点明确的线性模式,即计算机从对人类大脑结构的部分模拟到完全模拟的线性发展模式,或者所谓的从弱人工智能到强人工智能的线性发展路线,其会从部分场景对人类主体性的替代发展为所有场景对人类主体性的替代,一些学者将其称为人工智能的“拟主体性”。此时,人工智能的治理与立法就被放入一个预设的、非此即彼的替代性竞争语境下,此种功能认知观引发的人机对立成为人工智能治理与立法的逻辑起点。

(二)功能认知观引发的实体主义治理与立法思路

需要注意的是,这种功能认知观很容易让人工智能的治理产生四种未经审视的盲目自信:一是使治理主体盲目相信人工智能的技术研发与社会应用具有明确、可预期的线性发展模式,进而坚信人工智能的发展可以被集中管理和规划;二是使治理主体盲目相信人工智能的发展是一种对客观结构的发现与模拟,存在价值中立性,进而忽视了政府或企业在研发与应用过程中利用人工智能扩张或创造权力的贪婪;三是使治理主体盲目相信政府或企业中的少数知识精英能够发现人工智能发展与治理中的绝对真理,并据此提出普适性的研发标准与应用模式作为实体性治理规则;四是使治理主体盲目相信人工智能治理规则的产生是一种追求客观真理而无需法律干预或介入的探索过程,此时法律的功能仅仅在于为最后由少数知识精英发现的实体性治理规则提供权威发布平台与强制执行保障。

在上述四种盲目自信诱导下产生的实体主义治理思路会让人工智能立法出现如下四项基本特征:一是立法的对象原子化,即将孤立的人工智能系统作为法律的规制对象,如试图将人工智能系统拟制为独立的法律主体,讨论其独立的法律人格,或将人工智能当作孤立的产品来提出生产标准并施加产品责任;二是立法的主体一元化,即授权某一政府机构或行业企业全面负责或主导治理规则的制定,不同治理主体的差异性治理方案将形成非此即彼的对立性竞争关系;三是立法的规则普适性,即试图通过具体且各场景普遍适用的实体法来构建一套通用性、完备性、稳定性的人工智能治理规则集合;四是立法成为治理的最后环节,即法律仅是治理主体确保其治理观念得以被贯彻落实的手段,在顺序上,先由特定主体制定普适性治理方案,后由法律在治理的最后环节进行权威发布与强制执行,这颠倒了依法治理的因果关系,法律此时并未参与治理规则的生产过程。

这种实体主义的治理思路在当下的立法实践中有如下几个层面的体现。在人工智能伦理层面,实体主义治理导致人工智能立法将伦理与道德相混淆,其把人工智能伦理误解为应当内嵌于人工智能系统的实体性价值标准,并试图在全球范围内提出人工智能系统所应独立具备的普适性道德规范。在数据治理层面,实体主义治理认为数据以及承载于数据之上的信息具有客观稳定性,即数据的信息是独立的,其价值与意义不依赖于输出者与接受者。个人信息与数据就成了一种客观物,可以完全脱离信息接收者与数据处理者而进行确权与定价。这种实体主义的数据治理思路在立法中体现为围绕个人信息与数据的所有者设立静态、排他性、实体性的权利义务,以此保护原子化个体在其数据中的人格与财产权益。在算法治理层面,实体主义治理认为算法风险根源于算法的代码设计,存在着一条能明确衡量算法设计是否公正的实体性界限与标准。因此,当前的算法治理与立法研究主要通过设立算法解释权、排他权等实体性权利,以及对算法研发进行数据控制与备案审查来限制算法权力,实现算法透明,消除算法歧视。

(三)实体主义治理思路引发的人工智能立法悖论

在实体主义的治理思路下,人工智能立法容易陷入安全与发展的二元对立争论之中,即“对人工智能进行治理以保障安全”(Governance of AI)和“为人工智能进行治理以促进发展”(Governance for AI)之间的冲突。因为在功能主义认知诱发的人机对抗语境下,提倡以人工智能引领经济复苏的群体会强调人工智能的发展可以在多大程度上代替人类进而提高生产力,而主张保障人工智能安全的群体会以人权为旗帜抵制人工智能对人类的主体性替代,二者之间的主张无法共存。纵使各国不断强调要平衡人工智能安全与发展,但实体主义的治理与立法思路很容易滑向过强监管而形成安全冗余,或是滑向自由放任而引发各类风险,进而陷入“一放就乱,一管就死”的治理悖论。进一步说,由于实体主义治理以政府或企业为单一治理主体、以孤立的人工智能系统为治理对象、以普适性和明确性的权力责任或权利义务关系为治理手段,导致各国多样化的治理目标落实到立法层面,就体现为政府集中监管与市场行业自治之间的对抗性强弱差异。强调发展的人工智能治理,立法以鼓励数据自由流动、推动算法开源创新为主,鼓励企业自治,风险治理侧重于信息披露与事后追责。而强调安全的人工智能治理,立法会明确授予政府以广泛的监管权力,并根据政府统一制定的研发与应用规则设计相应的问责体系,风险治理侧重于等级划分与事前监管。此时,人工智能技术的动态发展性、应用的场景多样性与各国国情和战略的差异性,让价值多元化的治理主体间无法达成共识。此种实体主义治理所引发的立法悖论——安全与发展的二元对立,在当前的全球立法实践中已表现为三个层面的立法失衡。

第一个层面的立法失衡体现为专项性立法的日益繁杂与综合性立法的进展迟缓。按照人工智能立法框架的功能分工(图1),综合性立法作为贯彻落实国家战略与治理原则的统筹落地机制,需要明确治理原则的内涵、基本权利与义务、风险管理制度和权责分配方式等,并据此统合分散且冗杂的专项性立法,为未来新型应用场景的专项性立法提供指引。由于人工智能技术研发的日新月异与社会应用的场景多样性,导致侧重结果端、强调一元性、追求普适性的实体主义治理与立法很难跟上人工智能技术的快速迭代,难以统一不同应用场景中的多样性、碎片化治理需求,进而引发各界对综合性立法会阻碍人工智能发展且难以有效执行的担忧。面对人工智能综合性立法可能引发的发展障碍,大多数国家只能在明知面临巨大风险的同时选择暂不进行综合性立法。

欧盟的《人工智能法》在筚路维艰的立法过程中所受到的质疑与批评便是最好的典例。在2023年欧洲议会刚公布通过的立法草案后,有150多个欧洲科技企业联名发布了公开抵制信,公开信主要对欧盟《人工智能法》提出了两点批评:一是其监管机制太严会严重扼杀创新空间,拖累欧盟的人工智能发展;二是其监管机制缺少行业参与的渠道,容易形成政府独断。此外,对于如何执行欧盟《人工智能法》所强调的风险分类,缺少符合应用实践需求的界分机制。欧洲理事会与欧洲议会也对此存在较大争论,欧洲理事会更倾向限缩第一类“不可接受风险的人工智能”禁止清单的认定范围,但欧洲议会主张制定更广泛的第一类禁止清单,如凡是从网络上抓取面部图像的软件均应当列入第一类禁止清单中。相关研究表明,“欧盟《人工智能法》的实施将会吞噬人工智能投资的17%,严重阻碍欧盟的数字化进程”。因此,实体主义治理立法所试图明确预设的风险等级划分对于在技术与应用两个层面均具备不确定性的人工智能而言,并不能起到良好的综合性治理效果,尤其是由政府一家独断的风险等级划分标准会因为错判或误解而严重阻碍人工智能的发展。

第二个层面的立法失衡体现在维护国家主权的数据安全保障立法高歌猛进与充满不确定性的算法治理立法停滞不前。相比于每个国家均已颁布出台各自的数据治理相关立法,算法治理立法大多停留在草案阶段,甚至大多数国家暂无算法治理的立法计划。在人工智能立法的结构框架中,算法治理立法与数据治理立法同为基于构成要素的综合性立法,需要协同配合才能有效地实现人工智能的治理目标。但当前算法治理立法的停滞不前导致人工智能统一立法的体系性构想缺乏重要的落脚点,数据治理立法缺少协同机制,专项性立法缺乏上位法依据,进而使政府的监管问责缺乏依据与指引,企业的研发应用缺乏可预期性,公众对算法的广泛应用充满担忧与恐惧。

以美国近几年一直尝试推进的算法治理立法为例。美国纽约市于2017年尝试通过地方立法推动以透明度为基础的算法治理,在立法案中提出了严格的算法公开制度。立法案甚至针对政府机构用于公共服务或行政处罚的所有算法设置了源代码强制性披露的义务条款。然而,纽约市这一立法案因过于严苛而被质疑无法起到预期治理效果,且会阻碍算法创新而未能通过。当然,联邦层面也进行了尝试,2019年美国国会制定了《算法问责法案》(草案),授予联邦贸易委员会针对算法的监管权力,并设立算法使用主体对高风险系统的影响评估义务与算法改进报告披露义务。此后,美国国会在此草案基础上又公布了《2022年算法问责法案》(草案),重新构建算法影响评估与算法透明规则,并设立专门用于算法规制的“公共存储库”,否定算法使用企业以技术中立和价值无涉为由的免责主张。同时,美国国会还于2021年制定了《算法正义与在线平台透明度法案》(草案),通过创设强制性披露义务,加强对在线平台运营者的算法使用监管。但这些法案均因侵权责任的因果关系认定困难、治理手段阻碍算法创新、算法评估缺乏合理标准与流程等问题而迟迟未能通过,导致算法治理立法停滞。

第三个层面的立法失衡体现在阻碍数据流动利用的数据安全立法过多而促进数据要素流通利用的立法较少。虽然世界各国均在数据治理立法方面已有相关实践,但大多是围绕数据安全与个人信息保护展开的立法,缺乏推动人工智能发展的数据开放共享立法。欧盟的《通用数据保护条例》是全球最早针对个人信息权利保护展开的体系性立法,其虽借助布鲁塞尔效应夺得了个人信息治理的国际话语权,但却阻碍了欧盟的数字经济发展。例如,《通用数据保护条例》中虽然赋予政府以监管数据利用的职权,但其严重阻碍了个人数据在欧盟市场的流动利用。根据美国数据创新中心在2018年发布的《欧盟新数据保护条例对人工智能的影响》报告,《通用数据保护条例》的出台与实施对欧盟乃至全球的人工智能产生了负面影响。例如,《通用数据保护条例》第22条规定的数据控制者应对特定自动化决策加以人工干预和解释的义务,这对于深度学习算法而言是难以实现的要求。再如,《通用数据保护条例》所创设的“被遗忘权”将会破坏人工智能系统的完整性。2019年5月,美国数据创新中心再次发布研究报告,认为《通用数据保护条例》阻碍了欧洲的人工智能研发与应用,并未实现其以争夺数据治理话语权来刺激数据市场的立法目标与愿景,反而使其处于全球数字经济竞争中的劣势地位。

为了避免错过人工智能引领的数字革命,欧盟已率先开始对实体主义治理的立法思路及其引发的立法失衡现象进行反思与改善,中国也在发布推动数据要素流通与保障人工智能发展的相关立法草案与计划,但要完全消除实体主义治理引发的立法悖论,各国立法主体不得不重新回到对人工智能的正确认知之上。

二、人工智能立法的沟通主义认知模型

功能主义认知已经在技术界遭受了诸多批判。深度学习“三巨头”之一的扬·勒丘恩便公开澄清过:“我最不喜欢的描述是‘它像大脑一样工作’,我不喜欢人们这样说的原因是,虽然深度学习从生命的生物机理中获得灵感,但它与大脑的实际工作原理差别非常巨大。”国内著名机器学习专家、南京大学周志华教授也表示:“现在许多媒体,常说深度学习是模拟人脑,其实这个说法不太对。我们可以说从最早的神经网络受到一点点启发,但完全不能说是‘模拟人脑’。”那么立法主体该如何正确认知人工智能呢?

本文提出一套聚焦于人机交互的沟通主义认知模型,在沟通主义认知模型视角下,人工智能是一种用计算机模拟特定场景下的群体沟通网络来实现智能目标的递归式人工沟通系统。不同于将人工智能理解为一种依靠模拟人类大脑的客观结构进而可预测、可规划其发展路线的功能主义认知,沟通主义认知强调了人工智能在技术研发与社会应用过程中所面临的不确定性,并将人工智能治理与立法的焦点从孤立的人工智能系统转变为人机交互的沟通秩序。

(一)沟通网络视角下的人工智能技术原理

人类在克服复杂环境中的不确定性时,主要依赖于群体的沟通网络而非个体的大脑结构。人类群体在不断沟通交流中基于重复、差异与选择三项核心操作而形成一种递归式的沟通网络,并据此不断从复杂环境中的不确定性信息中提取合目的性的结构指令。而递归恰恰也是图灵计算的核心逻辑,其基本思路是通过重复性地在合理差异中进行选择,以此搭建出逼近特定目标的阶梯。人工智能的机器学习算法正是模拟递归式的沟通网络来实现其特定智能目标,通过形式的重复、内容的差异与结构的选择,不断从人机交互所得的不确定性数据中提取合目的性结构来迭代其算法。据此,人工智能才能在多种场景的不确定性环境中通过大量数据的开发利用来提取运用其中的知识并进行创造性的人机交互。

因此,以机器学习为代表的人工智能并非对人类大脑的功能结构仿制,而是模拟人类群体从复杂环境中提取合目的性信息的沟通网络。我们对大脑的认知远远不足以复制它的复杂性,尤其是将人工智能简单等同于人工的大脑结构,就容易忽视基于人际沟通的学习过程中所具有的协变性和内蕴性,单纯让学习成为一个独立、客观结构所具备的功能,这很难揭示机器学习的本质。对此,已有学者从人工智能的数学本质角度,论证了人工智能并非人工生命,更不是模拟人类大脑所创造出的人工意识,其模拟呈现出的人类智能在本质上是一种语言现象。因此,法律认知人工智能,完全可以避开大脑功能结构所产生的意识与主体性问题,就像图灵在研究可计算性问题时完全避开了生命和意识一样。埃琳娜·埃斯波西托从社会学的角度主张:“我们应当将以机器学习为代表的人工智能更加精准地描述为‘人工沟通’而非‘人工智能’,以避免误解。”在此沟通视角下,当代人工智能区别于传统专家系统的成功关键在于能够通过特定场景的人机交互,自主产生该场景所需要的、未经预设输入的信息,就如卢曼所主张的:“沟通不是在某人说了什么时发生,而是当某人理解对方说了什么时发生。”

机器学习之所以成为当代人工智能的核心,是因为其成功模拟了人类群体在沟通过程中产生的偶联性,即机器学习的虚拟偶联性,“偶联性意味着选择和不确定性”。这种模拟群体沟通产生的虚拟偶联性,使得机器能在受到控制的情况下创造不可预测的算法来创造新的信息,进而能让机器在人机交互的过程中形成一个可控但却不可预测的动态网络,以此来不断输出人类可理解但却有创新性的信息。此时,信息是一种通过沟通的相互作用来进行符号结构化与意义化的结果,而不是某种独立存在的客观物。数据作为承载信息的载体,自然就会影响信息的生成过程,而不仅仅是运输信息流动、但对信息毫无影响的工具。在将人工智能理解为一种人工沟通后,对个人信息与数据的理解也就必须落脚于沟通的相互作用之中,强调信息的相对性与数据的流动性。我国搁置数据所有权、强调数据使用权的“数据二十条”也就具有了理论基础。

机器学习是如何具体实现虚拟偶联性的?其关键在于模拟群体沟通网络的递归性。在计算机工程的视角下,机器学习的核心理念是一种“递归”的思路,即利用一种循环形式将一个复杂的现象或过程还原成几行代码。这种递归的理念将复杂环境中的偶然性纳入循环计算的逻辑结构之中,通过重复机制、差异制造和合目的性选择三个核心步骤,实现了理性逻辑与实践经验的统一。为了更深入地解析机器学习是如何模拟人类群体中的递归式沟通,本文将递归式沟通拆解为三项核心要素:基于迭代循环的重复、基于不确定性的差异、基于沟通场景需求的选择(图2)。

 需要注意的是,递归式沟通模型中的具体算法F(x)可以随场景需求或时间迭代而呈现出多样、动态的结构,但其递归的底层逻辑是固定的,由此才能保证机器学习(或者说人类的群体沟通)既是偶联的(多元不确定的),又是可控的。在此,本文将以较为基础的计算机“最多1问题”与较为前沿的ANN图像识别(人工视觉神经网络)两个例子来进一步阐述这种递归式沟通的运作逻辑。

计算机的“最多1问题”是指如何让计算机在由1和0组成的大量任意序列中找到或生成全是1的序列。这个问题对于理解0与1之间区别的人类来说极其简单,但计算机是要在不理解0与1区别的前提下解决问题。这个问题也蕴含了人工智能技术研发所面临的核心困境,即如何让计算机不理解场景信息内容的前提下,在大量数据中找到最符合特定目的需求的信息内容结构,并提炼或改进成能重复实现目的需求的指令结构。只是计算机的“最多1问题”将多元应用场景中复杂多样的信息内容结构替换成由随机0与1组成的字符串,简化了人工智能实现智能主体目标时所面临的技术困境。在不借用递归逻辑的情况下,解决计算机的“最多1问题”需要通过编程让计算机随机生成0和1的字符串,直到出现一个字符串的所有位加起来等于这个字符串得到长度。“依赖这个方法生成一个由一千位1组成的字符串,需要大概生成10300个不同的字符串,在当前人类已知的远少于10100年只有1080个原子(这个数量限制了运算这个问题的计算机的数量)的宇宙中,这件事根本不可能做到”,这意味着让计算机依靠预先设定的指令去随机生成大规模信息,并在大量信息中逐个寻找特定的合目的性信息所需的计算量已超出人类资源的极限。然而,换一个计算策略,以递归的逻辑去解答“最多1问题”,一台普通家用计算机几分钟就能轻易解决这个看似困难的问题。其基本步骤便是重复、差异与选择(图3)。

在阐述了计算机的“最多1问题”后,机器学习如何让计算机在不理解数据中信息内容的前提下输出人类所需要信息的底层技术原理就很好理解了。在此,本文再以人工神经网络(ANN)技术如何模拟人类群体沟通对图像信息的概念化提取过程为例。这种ANN技术的训练过程包括:设计一个作为初始输入F(0)的识别网络结构,对这个识别网络结构进行微调、输入差异化的大量图像进行识别,重复这个微调、识别的过程,直到这个网络结构对特定概念的图像识别准确率达到预设值时停止。这种图像识别训练过程与“最多1问题”的唯一不同就是F(x)的结构。“最多1问题”中F(x)是最基础的0和1的随机序列结构,而神经网络中的F(x)结构(图4)由 “节点”(图中的方块/三角/圆形)“连接”(图中的箭头方向)和“权重”(图中箭头的效果)三个核心要素构成。

 (二)人工智能全生命周期的二阶三类沟通秩序体系

根据上文所述,人工智能的技术原理是一种模拟特定场景下群体沟通网络的递归式人工沟通,据此,人工智能从技术研发到社会应用再到风险治理的全生命周期,可以拆解为一套二阶三类的沟通秩序体系。人工智能从技术研发到社会应用的过程可以类型化为三种沟通秩序:其一,人工智能系统内部的人工沟通秩序(机器处理既有沟通数据的人工网络),即上文所述的递归式人工沟通;其二,作为人工智能模拟对象的原有沟通秩序(人际沟通网络),即在人工智能应用前的社会沟通秩序;其三,人工智能系统与外部环境的人机沟通秩序(人机沟通网络),即在人工智能应用后的全新社会沟通秩序。人工智能的风险问题可以据此概括为:人工智能在嵌入社会并引发沟通网络变革时,对原有沟通秩序中的自然权利与法定权利造成的不确定性损害。由此,人工智能的风险治理也就可以看成针对这三类沟通的二阶沟通(沟通的沟通),即如何通过治理主体间的风险沟通来规范与约束决定人工智能从技术研发到社会应用合理性的各类沟通过程,从而控制人工智能引发沟通秩序变革时的不确定性损害。

“风险”与“危险”均来源于未来的不确定性,但风险不同于危险的地方在于,危险是一种不可归因于事前决策的不确定性损害,风险则是现代社会的产物,是指那些可以通过合理决策来规避的未来不确定性损害。随着科学技术对未来的预测与控制能力增加,人们对于危险的厌恶和安全的期望也会不断提升,风险问题也就随之一同增长,并逐步成为现代社会的重要主题。当代人工智能的风险问题也是此种社会现代性的表现。随着社会利用人工智能对未来不确定性损害的控制能力增强,越来越多的危险问题(不可控的不确定性损害)会转化为风险问题(可控的不确定性损害)。据此,人工智能的风险问题可以初步表达为:社会中由人工智能引发但可以通过合理决策以规避或减小的未来不确定性损害。这种可控的不确定性损害包含两类,一类是原有社会中的危险在人工智能应用后变得可控进而转化为风险,另一类则是在前者的转化过程中产生的未来不确定性损害。例如,人工智能的出现使车辆驾驶的控制更加精准、快速,这能将许多人类驾驶所面临的危险转化为自动驾驶的风险,但同时也会产生因自动驾驶系统失灵引发的风险。

人工智能是如何将危险转化为风险的?基于上文所述,人工智能作为一种模拟人类群体的沟通网络以实现特定智能目标的人工沟通系统,其具有超越其模拟对象——人类沟通系统的优势,即其能扩展特定场景下沟通的空间与时间范围,并增强特定场景的沟通精准性,进而人工智能的社会应用能够使既有的沟通网络发生革新,增强人们对未来不确定性损害的控制能力。例如,车辆驾驶从来不是依靠司机个人的大脑活动就能完成的,而是由司机与道路交通部门、其他司机之间的交通沟通网络完成的。而搭载人工智能的自动驾驶系统则是通过人工沟通实现了车辆与乘客、道路交通部门和其他车辆之间更广泛、精准的沟通。这使得许多在人类驾驶时期的不可控性损害在进入自动驾驶时期就变得可控,人类驾驶的危险在交通沟通网络革新之后转化为自动驾驶的风险。当然,这种沟通秩序的变革同样也会引发新的风险,例如乘客个人信息泄露、自动驾驶系统失灵等。“治理”概念是指“协调多方利益主体之间的沟通,以共同做出针对某事的决策与实践”,因此人工智能的风险治理便可定义为:通过组织协调多方利益相关者的风险沟通与价值衡量,以共同作出能规避或减小人工智能引发的沟通秩序变革所带来的不确定性损害的风险决策,即针对沟通的沟通(二阶沟通)。

综上所述,人工智能从技术研发到社会应用再到风险治理的全生命周期,可以归纳为一套二阶三类的沟通体系,即人工智能技术的人工沟通、人工智能应用的人际沟通转向人机沟通、人工智能风险治理的二阶沟通。人工智能的风险来源于作为递归式人工沟通的人工智能在嵌入社会原有沟通秩序时所引发的沟通秩序变革,而作为二阶沟通的人工智能风险治理,需要着眼于人工智能在不同场景下重塑沟通网络时的风险沟通机制,通过风险沟通的程序设计让利益相关者对具体场景中的价值平衡进行充分议论,并作出合理的风险决策。

三、人工智能立法的程序主义治理思路

上述对人工智能技术原理与风险治理的沟通主义认知打破了实体主义治理及其立法思路的三项基本前提:(1)人工智能并非明确、可预期的线性发展模式,其依赖虚拟偶联性的技术发展无法被集中管理和规划;(2)政府与企业具有利用沟通秩序变革扩张自身权力的空间与动机,进而无法依靠两者独断提出客观、公正的人工智能治理规则;(3)不存在人工智能发展与治理的普适性真理,每个具体场景的实体性风险决策与价值衡量应当在法律的介入、由利益相关者进行充分风险沟通后得出,因此人工智能的实体性治理规则是动态发展的,人工智能的风险治理注定是场景化与多元化的。对此,如何在沟通主义的认知模型下,构建一套场景化、多元化与敏捷性的人工智能治理体系?法律又如何主导这套治理体系的形成?这些便是本文在此想要回答的问题。

概括来说,程序主义的治理与立法不同于实体主义的治理与立法的关键在于,其并不妄图在宏观层面上统一性地、一劳永逸地解决安全与发展的对立冲突,也不试图通过法律给出一条清晰分明的实体性价值衡量标准,而是将焦点放到微观层面的人机交互与具体场景的价值衡量之上,主张通过法律程序引导多元的利益相关主体通过合理沟通作出权责利相一致的风险决策。这意味着法律需要让每一个具体场景下的利益相关者均能通过正当的人机沟通程序进行可问责性的风险决策,让期望获得不确定性收益的群体承担其风险决策所引发的不确定性损害,以此实现基于人工智能的治理创新。此种程序主义治理的复杂之处在于,其将作为风险来源的人工智能又当作治理其自身风险的范式创新工具,通过规范不同场景下多元治理主体之间的沟通媒介与形式,让“为人工智能的治理以促进发展”和“对人工智能的治理以保障安全”通过“基于人工智能的治理创新”(Governance by AI)发生耦合效应(图5)。

 与实体主义治理思路仅仅将法律当作治理最后环节的执行手段不同的是,在程序主义治理思路中,法律将贯穿治理规则生成的全流程,其要为具体利益相关者如何利用人机沟通作出实体性治理决策提供程序性指引,并规范多元主体共同利用人机沟通作出合理风险决策的沟通过程,还要设置保障风险共担的事后问责机制。此时,在程序主义治理的立法思路中,政府不再扮演直接干涉人工智能发展与统一监管人工智能风险的一元治理主体,而是作为风险沟通秩序的协调者与风险共担原则的保障者,即以法律的正当程序引导并约束企业设计合理的人机沟通代码程序,引导利益相关者能在人机交互的风险沟通中作出符合其多元价值的具体决策,并确保风险决策的权责利相一致。这意味着法律在面对人工智能引发的社会沟通网络变迁时,需要通过沟通程序的设计让多元治理主体在具体的风险决策与价值衡量中表达其多元价值,并让原有沟通网络中的自然权利与法定权利能在人际沟通迈向人机沟通的社会数字化转型中得到合理保障。

(一)程序主义治理如何应对数字社会的沟通秩序变迁

程序是对沟通过程的制度化与规范化,“其主要体现为沟通主体按照一定的顺序、方式和手续来作出决定的相互关系。其普遍形态是:按照某种标准和条件整理争论点,公平地听取各方意见,在使当事人可以理解或认可的情况下作出决定”。在此基础上,人工智能的程序主义治理是一种以构建合理的人机沟通秩序来实现多元主体之间充分、公平、快捷的意见交换,并形成具体、可执行、各方理解或认可、机器可读的风险决策。此种程序主义治理的目标在于保障每一个风险决策均是由利益相关者在风险共担原则下充分沟通后作出的,实现风险决策中权责利的对称。程序主义治理的路径是利用融入代码的法律程序构建合理的人机沟通形式与规则,并确保人机沟通的过程正当性、决断中立性、地位平等性和内容结构合理性。程序主义治理的基本主张是依靠法律程序与代码程序的交融,引导数字社会自发秩序的定向形成,以一种拥抱不确定性的态度去控制不确定性。若将人工智能应用后的数字社会秩序比喻为复杂、动态的曲线方程,实体主义治理便是试图寻找到一条亘古不变的切线作为数字社会的法律规范,以此完全消除人工智能发展与治理的不确定性,而程序主义治理则是一种对数字社会秩序曲线方程的微分机制,其通过嵌入代码的法律程序深入数字社会的沟通网络变迁,并通过规范人机沟通的形式与结构引导出符合法律价值需求的社会自生秩序——动态变化的人工智能实体治理规则集。这种数字社会的自生秩序虽然因技术发展、场景多样和价值多元而具有不确定性,但却是可控的。

对此,社会学家在讨论人类社会秩序变迁时提到的三种制度变更模式——革命(revolution)、演化(evolution)与内卷(involution)能够帮助我们更好地理解程序主义治理应对沟通秩序变迁的思路为何不同于实体主义治理。“革命”一词在20世纪风靡一时,其认为人类社会的秩序变迁需要依赖政府中少数知识精英对全新社会秩序进行全盘性设计与建构。此种革命式的社会秩序变迁思路依旧在当前的功能主义认知与实体主义治理模式中有所体现,其试图通过一种断崖式的、突发性、剧烈式的制度更替来引领社会秩序变迁。但在上文中已经论证过,这会导致人工智能立法面对安全与发展的二元对立,并陷入“一管就死、一放就乱”的立法悖论。而“演化”一词则更多是由哈耶克在批判由政府主导的革命理论时所提出的一种注重自发性秩序的社会变迁理论。其认为政府无法计划与集中规划社会的秩序变迁,社会有其自身演化的力量与动因,社会变迁所需要的是一种连续性的、缓慢的、发散性的、增进性的制度迭代。然而,哈耶克的演化理论没有关注到这样一个现象,即“内卷”。很多地方的社会自生秩序为何千年来只是在不断地内缠、内耗和自我复制,形成一种内卷的趋势,而未发生哈耶克所谓的社会演化。决定社会是发生演化还是内卷的关键因素是什么?是社会是否设立了程序性机制来化解多元主体在衡量多元价值时所产生的复杂性。

内卷在沟通主义视角下,是指群体在特定场景下经过多次重复性沟通,不但没有提取出更符合目的性的秩序信息结构,反而让既有的秩序信息结构更加盘根错节、更加复杂化。这恰恰对应的是人工智能分散性立法的弊端,即人工智能的场景多样性与价值多元性导致人工智能的法律体系不断复杂化与冗杂化,进而逐渐丧失了法律化解社会复杂性的功能,反而增强了社会的复杂性。哈耶克所主张的社会演化需要统一性的程序机制化解人工智能法律体系所面临的复杂化。这种避免社会演化沦落为内卷的程序性机制在人工智能立法领域体现为引导并规范风险沟通的统一性程序立法。此种统一性程序立法的目标不在于直接提供明确的价值衡量标准,而在于化解不同场景中进行风险决策与价值衡量的复杂性,其通过创设正当的风险沟通程序,保障风险决策的权责利相对称,让多元、动态的实体性治理规则在统一、明确的人机沟通程序约束下产生,以此引导数字社会的自生秩序向着符合法律价值的方向演进。

(二)法律如何通过程序设计实现制度演化

立法者该如何通过统一性的程序规则设计来引导人工智能时代的制度演化?对此有三个基本步骤:其一,认知特定场景下的原有沟通秩序,包括原有的自然权利与法定权利是如何保障利益相关者在权责利相对称的情况下进行风险决策的;其二,分析人工智能作为一种递归式人工沟通嵌入社会后对该场景的沟通秩序造成的可能影响,包括对沟通递归性的加强或破坏、对原有自然权利与法定权利的侵犯或损害;其三,以法律程序与代码程序相交融的方式设计人机沟通的形式与规则,确保具体场景的实体治理规则是由风险共担的利益相关者经过风险沟通后作出的,并保障风险决策的权责利相对称。

步骤一要求立法主体认知特定场景下的原有沟通秩序,据此才能保障后续提出的治理立法方案是符合场景特性的,是对既有风险沟通机制的改善与增进,是一种缓慢的、渐进的演化,而非一种基于理论预设的、颠覆性的革命。这要求人工智能的治理立法应当以社会事实为出发点,而非以理论假设为出发点;要从探寻人工智能社会秩序变迁的基础动因——沟通网络的变革,作为制度演变的改革依据,而非朝着某个先验的线性阶段跨越;要避免人工智能时代的法律演化脱嵌于社会,保证立法和制度改革与社会自生秩序的基本规律相契合,由此消除宏观层面上的安全与发展的二元对立。需要强调的是,程序主义治理并非排除实体法的作用,而是主张由统一的程序性立法引导多元治理主体基于风险沟通形成敏捷、动态发展的实体法。程序主义治理并非否定实体法,而是否定那些妄图依赖单一主体提出的先验性、普适性实体治理规则的立法思路。在程序主义治理的立法思路中,实体法作为风险沟通决策的动态平衡结果,应当是场景性的、发展性的、价值多元的,法律能做的不是为公民决定未来数字社会的全部秩序,而是通过人机沟通的正当程序设计有效引导数字社会秩序的动态产生过程,为社会各场景、各领域形成的分散却关联的实体性治理规则提供良好的民主议程基础。

步骤二要求立法主体聚焦人工智能嵌入社会后给沟通秩序造成的可能性影响,并交由具体场景的利益相关者进行多元、敏捷的价值衡量。不同于实体主义治理基于自负的立法干涉,程序主义治理的立法是从沟通视角观察社会秩序演化的发生过程,并通过程序引导而非干涉这种社会秩序演化的发生过程。该步骤最重要的一点是要让不同地区、不同时间、不同场景下的利益相关者有序、合理地进行风险决策中的多元价值衡量。法律在此的作用不是代替利益相关者进行决策,而是引导他们进行风险沟通,并在权责利相对称的正当程序下进行多元价值的具体衡量与风险决策。此时,民主先于法律、规则源于实践,法律不再作为治理最后环节的执行工具,而是贯穿于人工智能实体性治理规则的生产过程之中。据此,人工智能立法应当关注微观的多元主体如何进行具体价值衡量,而非在宏观层面进行安全与发展的平衡,人工智能的统一性立法应当以明确、合理的沟通程序规则引导与规范场景性、分散性的人工智能实体性规则的产生过程,而不是进行“一刀切式”的横向监管。

步骤三要求以法律程序与代码程序的交融去保障具体决策的风险共担,让法律程序服务于风险沟通的多元性与敏捷性,而非政府监管的精密性与严格性。不同于实体主义治理试图由政府直接干涉人工智能的技术研发与社会应用,程序主义治理聚焦于人工智能全生命周期中的不同沟通阶段,以法律程序确保风险沟通的过程正当性、决断中立性、地位平等性和结构合理性,进而引导社会自生秩序的定向生成。据此,程序主义的立法思路不再将原子化的人工智能系统作为治理对象,也不再把法律程序当作政府贯彻精细化监管的手段,而是用法律程序服务于风险沟通的利益相关者,确保风险决策的权责利相一致,实现具体价值衡量的风险共担。因此,对人工智能的认知、治理和立法要从静态转向动态,从先验性转向发生学,从单一主体转向多元主体,从“一刀切式监管”转向“微分式治理”。

(三)程序主义治理思路下的人工智能统一立法

首先,人工智能统一立法该如何定义人工智能?在此,本文认为不宜直接采用技术专家的学理定义,如模拟人类智能的计算机系统或机器学习的技术清单。一方面是因为人工智能技术定义的动态发展无法避免,这会严重影响人工智能统一立法的适用范围;另一方面则是因为技术定义很容易导致人工智能的治理主体将立法焦点局限在独立的人工智能系统(如产品责任),而忽略了最重要的治理切口——人机交互过程。因此,“模拟人类群体进行信息提取、数据处理与知识运用的人工沟通网络”的定义方式更有利于将人工智能的治理立法视野转向人工智能的全生命周期。

其次,人工智能统一立法该如何形成具有逻辑性、体系性的结构框架?基于上文提出的人工智能全生命周期——二阶三类沟通秩序体系,法律应针对人工智能的技术研发沟通过程、社会应用沟通过程和风险治理沟通过程分别设置相应的程序性规则,以此保证沟通的顺畅、充分与合理,并针对三个沟通环节所涉及的不同利益相关群体设计权责利相一致的风险决策机制,以此实现风险共担。对于人工智能的技术研发环节,法律应当设置保障技术专家充分表达意见并合理形成相应技术标准的程序规则。对于人工智能的社会应用环节,应当分别针对个人信息保护、数据安全和算法公正等关涉公共利益的问题规定相应的公示(通知)、评估、表决、审查等程序,保障政府、企业和应用场景的相关利益群体能够在人工智能应用的具体人机交互过程中充分表达自身价值判断(例如针对算法应用的论证程序设计)。对于人工智能的风险沟通环节,人工智能立法应当将当前存在于政府、企业与公众之间的风险沟通程序法治化,如政府要求企业进行的数据合规、跨境流动审查;企业向公众进行的定期治理报告公示、举报反馈机制等,让政府、企业与公众之间具有明确、稳定的风险沟通渠道,以此促进风险治理的敏捷性与多元性。

最后,人工智能统一立法如何形成一套合理的问责体系?法律为风险沟通设立统一性程序性规则的目的就在于保障风险决策中的权责利相一致,以此确保风险决策的合理性。人工智能统一立法的目标并非直接进行风险规制,因此不建议采取横向“一刀切”的产品责任,而是要将问责重点放在促进风险沟通的对称性上,即确保每一个具体场景性、实践性的风险决策是由风险共担的利益相关者在进行多元价值衡量后作出的,并且作出的风险决策在程序规则保障下是可问责的,由此实现风险决策的权责利相对称。因此,人工智能统一立法应当围绕不同沟通环节进行程序性审查,并对未符合程序要件的沟通决策进行监督与问责。例如,在人工智能的技术研发环节,未经技术专家进行风险评估与决策的人工智能应当予以应用禁止,若发生损害则以产品责任向技术研发者追责。在通过技术研发环节的沟通程序审查、并进入人工智能的社会应用环节时,未经过或未通过利益相关者沟通决策的人工智能若造成损害,应当将其当作擅自应用者的工具进行问责。此外,对于经过沟通程序审查后的人工智能所造成的未来不确定损害,应当给予技术研发者与社会应用者以责任豁免,由具体作出风险决策的利益相关者进行风险自担。在程序性立法所塑造的权责利相对称环境下,人工智能全生命周期中的各个沟通环节才能得出合理的风险决策,并实现风险共担。

结  语

面对人工智能立法如何平衡安全与发展的问题,将具有高度复杂性的人工智能风险抽象为两个价值概念的平衡与取舍过程,通常会遗失风险治理的最关键部分,即具体场景下多元治理主体进行价值衡量的沟通程序。而对人工智能的功能主义认知与实体主义治理会进一步诱导立法主体试图从宏观层面上统一性、一劳永逸地消除人工智能风险,并忽视从微观层面上引导利益相关者进行具体、合理的价值衡量。人工智能的功能主义认知将人工智能理解为计算机对人类大脑结构的仿制,认为其具有普遍性、确定性和客观性的技术特征。此种功能主义的认知观会诱发一种人机对抗的舆论氛围,并使治理主体盲目相信人工智能具有可计划性的线性发展模式,能够通过单一治理主体提出普适性、明确性、中立性的实体治理规则来进行集中规划与监管,进而衍生出以独立的人工智能系统为治理对象、以法律作为治理最后环节的执行手段、以确立普适性治理规则为立法目标的实体性治理思路。然而,人工智能治理在立法实践中出现的伦理原则难以落地、个人信息保护与流动利用相冲突、数据产权制度与要素流通相悖、算法创新空间被扼杀等问题都不约而同地表明此种治理思路会陷入安全与发展的二元对立。

为了打破“一管就死,一放就乱”的立法悖论、扭转人机对抗的舆论氛围,本文提出了人工智能立法的沟通主义认知模型与程序主义治理思路。在沟通主义的认知模型视角下,人工智能作为一种模拟人类群体的沟通网络来实现智能主体功能的人工沟通系统,其技术研发到社会应用,再到风险治理的全生命周期可以拆解为由人工沟通、人际沟通和人机沟通所组成的、由针对沟通秩序变革的风险沟通(二阶沟通)所统领的二阶三类沟通体系。人工智能的程序主义治理则主张:法律应当围绕人工智能全生命周期的不同沟通环节,通过正当程序的制度设计来保障具体场景下的利益相关者均能自主参与风险沟通,并确保风险决策与价值衡量的权责利相对称。立法主体在宏观层面上可以通过风险沟通的统一程序设计,确保多元主体在差异化场景中能够利用人机沟通平等地参与风险决策过程,并保障不同沟通环节下的利益相关者在风险共担原则下自主进行价值衡量。由此,让政府以围绕风险沟通的正当程序引导企业与公众进行与自身利益相关的风险决策与价值取舍,通过统一性的程序性立法化解场景化、多元化、敏捷性的实体性治理规则的复杂性,以引导微观的利益相关者进行合理的风险沟通与价值衡量,促进宏观整体的人工智能治理实现安全与发展相协调。

参考文献

[1]Stanford University. Artificial intelligence and life in 2030: the one hundred year study on artificial intelligence[R]. California: Report of the 2015 Study Panel, 2016.https://ai100.stanford.edu/.

[2][法]比勒尔·本布齐德,亚尼克·莫勒瑟尔,娜塔丽·斯穆哈,等.人工智能规制的四种路径——AI定义的冲突图谱[J].黄可,译.智能社会研究,2023(3):102-129.

[3][美]斯图亚特·罗素,彼得·诺维格.人工智能:现代方法[M].4版.张博雅,陈坤,田超,等,译.北京:人民邮电出版社,2022:1-10.

[4]陈亮,张翔.人工智能立法背景下人工智能的法律定义[J].云南社会科学,2023(5):162-170.

[5]Berwick R C, Chomsky N. Why Only Us: language and evolution[M]. Cambridge: MIT Press, 2016: 1-68.

[6][美]佩德罗·多明戈斯.终极算法:机器学习和人工智能如何重塑世界[M].黄芳萍,译.北京:中信出版集团,2017:40-67.

[7]段伟文.人工智能时代的价值审度与伦理调适[J].中国人民大学学报,2017(6):98-108.

[8]黄甫全,曾密成.人工智能立法:主体、内容与特征[J].学术研究,2020(11):49-55.

[9]郑志峰.人工智能立法的一般范畴[J].数字法治,2023(6):55-75.

[10]季卫东,赵泽睿.人工智能伦理的程序保障——法律与代码的双重正当化机制设计[J].数字法治,2023(1):57-76.

[11]申卫星.论数据用益权[J].中国社会科学,2020(11):110-131+207.

[12]赵泽睿.算法论证程序的意义——对法律规制算法的另一种思考[J].中国政法大学学报,2023(1):181-200.

[13]丁晓东.全球比较下的我国人工智能立法[J].比较法研究,2024(4):51-66.

[14]王天凡.人工智能监管的路径选择——欧盟《人工智能法》的范式、争议及影响[J].欧洲研究,2024(3):1-30+173.

[15]金玲.全球首部人工智能立法:创新和规范之间的艰难平衡[J].人民论坛,2022(4):44-47.

[16]莫纪宏,田禾.法治政府蓝皮书:中国法治政府发展报告[R].北京:社会科学文献出版社,2022.

[17]杨垠红,沈昱锦.美国算法失能侵权责任立法浅析[N].中国社会科学报, 2023-02-27 (A07).

[18]Midha V.Impact of consumer empowerment on online trust:an examination across genders[J].Decision support systems,2012,54(1):198-205.

[19]许可.欧盟《一般数据保护条例》的周年回顾与反思[J].电子知识产权,2019(6):4-15.

[20]李开复,王咏刚.人工智能[M].北京:文化发展出版社,2017.

[21]张寅生.计算理论解析[M].北京:清华大学出版社,2016:7-23.

[22]Coecke B, Felice G, Meichanetzidis K, et al. Foundations for near-term quantum natural language processing[J]. arXiv e-prints, 2020(11):1-43.

[23][意]埃琳娜·埃斯波西托.人工沟通与法:算法如何生产社会智能[M].翁壮壮,译.上海:上海交通大学出版社,2023.

[24][美]约翰·E.梅菲尔德.复杂的引擎[M].唐璐,译.长沙:湖南科学技术出版社, 2018:139.

[25][德]尼克拉斯·卢曼.风险社会学[M].孙一洲,译.南宁:广西人民出版社,2020:47-49.

[26][德]乌尔里希·贝克.风险社会:新的现代性之路[M].张文杰,何博闻,译.江苏:译林出版社,2018:4-8.

[27]Krger F. Automated driving in its social, historical and cultural contexts[M]// Autonomous Driving.Berlin,Heidelberg:Springer Berlin Heidelberg,2016:41-68.

[28]Bevir M. Governance as theory, practice, and dilemma[M]//The SAGE Handbook of Governance.1 Oliver’s Yard, 55 City Road, London EC1Y 1SP United Kingdom :SAGE Publications Ltd,2011:1-16.

[29]季卫东.法律程序的意义——对中国法制建设的另一种思考[M].北京:中国法制出版社,2004:17.

[30][英]冯·哈耶克.通往奴役之路[M].王明毅,冯兴元,毛寿龙,等,译.北京:中国社会科学出版社,2018:94-107.

- 欢迎关注本微信公众号 -

《华中科技大学学报(社会科学版)》

唯一官方微信平台

联系电话:027-87543816

投稿网站:http://hzls.cbpt.cnki.net/

版权所有

欢迎个人转发,媒体转载请联系授权

(文中插图未经注明均来自网络)


长按识别二维码关注我们


点“阅读原文”了解更多

华中科技大学学报社会科学版
推荐刊文,发布信息,欢迎广大读者阅读!《华中科技大学学报(社科版)》创刊于1980年,双月刊,是中文核心期刊、CSSCI来源期刊、中国人文社会科学核心期刊、湖北省优秀期刊、全国百强社科学报、中国人文社会科学学报核心期刊。
 最新文章