【优先发布】工业智能安全治理革新与风险防范体系探析

文摘   2024-07-30 09:00   四川  

欢迎引用
王娟娟, 彭友, 张春飞. 工业智能安全治理革新与风险防范体系探析[J].世界科技研究与发展, doi:10.16507/j.issn.1006-6055.2024.07.006.
王娟娟1   彭友2   张春飞1
(1.中国信息通信研究院;2.中国政法大学数据法治研究院)

摘要:工业数智化是新质生产力发展的关键驱动力。随着人工智能深度嵌入工业流程,工业智能安全治理以可靠性、数据质量与软硬件统筹治理为新重点。目前,与之相应的事后救济制度、数据安全制度、网络安全制度等治理手段在工业智能治理中呈现了显著的不适应性,难以满足安全保障的需求。工业智能作为风险社会的典型表征,实现其善治需要依据风险预防原则对现有制度进行改造。工业智能可靠性保障应在物的瑕疵担保责任和产品责任制度的基础上设置预防性义务,将瑕疵与缺陷的认定难题转化为义务违反的判断;数据质量治理应以建立健全“国家-地方-行业”的多层次标准体系为重点,实现企业间数据质量规范统一;软硬件统筹治理应通过人工智能赋能风险预防,切实提升软硬件风险评估、监测预警与应对处置的效能。构建预防与应对相互配合的安全风险治理体系,方能有力护航我国工业数智化转型和新型工业化行稳致远。
关键词:工业数智化;安全治理;风险预防;可靠性;数据质量;软硬件统筹治理


人工智能、云计算、物联网等技术的迅速迭代驱动着工业数字化变革,“数智赋能”使得工业附加值进一步向价值链上游聚集,全球价值链的“微笑曲线”呈现陡化态势,抢占产业前沿制高点成为国际竞争的焦点。为实现工业由大到强的跨越,从2015年国务院发布的《中国制造2025》“把智能制造作为两化深度融合的主攻方向”,到《高端智能再制造行动计划(2018—2020年)》《“十四五”智能制造发展规划》等政策的相继出台,再到2024年政府工作报告将“大力推进现代化产业体系建设,加快发展新质生产力”作为今年政府工作的十大任务之首,我国始终将推进工业智能化转型作为谋求产业结构优化的重要方略。

人工智能具有“自身专业科技”和“赋能科技”的双重属性,后者的关键即为“人工智能+应用场景”的特殊叠加结构,而应用场景的多样性和差别化导致人工智能治理难以形成统一的规范。以往对人工智能安全治理研究多基于不区分场景的泛在风险视角,探讨人工智能准备、运算和生成等阶段的各类主要安全风险,或在多场景下综合考察特定类型安全风险,如应用全过程中的数据安全风险、与经济社会发展融合过程中的经济安全风险和社会安全风险,进而针对各层面的风险提炼出治理的“元规则”,这些框架性探讨还有待在工业场景下进一步细化落实;另有部分研究从应用场景展开,如舆论传媒场景下的政治安全、智能终端应用场景下的隐私安全风险、智能投顾场景下的“算法黑箱”风险等。对工业领域中的人工智能安全风险鲜有涉及,而上述场景的安全保障核心考量与工业场景不尽相同。

本文将基于工业场景,梳理工业智能化转型下人工智能安全风险的新特征与治理重点,分析现有民事救济制度、数据安全制度、网络安全制度对在工业智能治理中的不适应性,并基于风险预防原则与工业智能安全风险治理的理论契合性与现实可行性,对现有制度提出改造和完善建议。

 1 
工业智能安全治理的重点问题

我国工业领域智能化转型在标准建设和应用规模等方面都已经取得令人瞩目的成就。据工信部数据,截至2024年第一季度,我国已建成近万家数字化车间和智能工厂,探索形成48项国际标准、408项国家标准,智能工厂通用技术要求、智能制造能力成熟度评估等重点标准得到广泛应用;在智能制造试点示范行动中,人工智能、数字孪生等技术在90%以上的示范工厂得到应用;智能制造装备产业规模已达3.2万亿元以上,制造业机器人密度已达每万名工人392台。人工智能对工业全链条的应用嵌入在为工业数智化发展提供新动力、拓展新空间的同时,也给工业智能的安全治理提出了新要求。

第一,人工智能在工业应用的场景变换使得安全治理要求细化、重心转变,可靠性要求成为核心考量。工业生产环境往往涉及复杂的工业流程、高精度的操作控制和严格的安全标准,人工智能安全治理的核心是保证可靠性。以近期工业领域的安全事件为例,韩国某农业配送中心一男子被机器人误判为一箱甜椒而被碾压身亡、美国特斯拉奥斯汀工厂一名工程师遭机器人袭击,这些都是因智能系统本身运行缺乏稳定性而造成的生产安全事件;美国“芬坎蒂尼海军集团”(Fincantieri Marine Group, FMG)遭受勒索攻击后数控机床停摆、万余人个人信息遭泄露事件体现了智能系统缺乏承受外来风险的可靠性;据2021年9月某人工智能事故案例报告中的126起事故中有72件与人工智能应用的可靠性相关,且其中29件涉及人员伤亡。

第二,工业智能化场景要求数据风险治理统筹兼顾数据安全风险与数据质量风险。我国以《数据安全法》为中心的数据安全法律制度主要分为数据安全管理制度和数据安全保障义务两部分,虽然制度设计和理论研究都十分关注数据安全和数据利用的平衡,但是较少涉及数据质量风险管理。在工业场景下,数据安全依旧是数据风险治理的重要内容,且因为工业数据涉及核心机密和商业秘密而愈发重要。但与此同时,数据质量风险控制也是工业智能化进一步发展的前提要求。工业领域十分宽泛,涵括了41个大类、207个中类和666个小类,且工业生产过程相互交织,数据结构多样、关联关系复杂、质量参差不齐。工业大模型的训练要求海量的数据聚合,数据质量成为工业大模型发展的关键挑战之一。数据质量不佳容易引发大模型对生产场景的拟合不足、辅助生产决策的可信度存疑等一系列问题。

第三,人工智能全链条嵌入工业流程,使得人工智能安全治理从网络治理、算法治理转向了网络、算法与硬件相结合的综合治理。目前,工业大模型的应用场景覆盖了从研发设计、生产制造、经营管理到产品服务的全链条,“万物互联”的软硬件相互联通是工业智能化的显著特征。这一特征使得网络、算法和硬件的安全从三个问题转变成一个问题的三个面向。美国“太阳风”(SolarWinds)软件供应链网络安全事件中,黑客向该软件植入恶意代码并将其分发给用户,恶意代码被激活后黑客得以获取进网高级权限,造成包括美国五角大楼、美国国务院在内的政府部门及1.8万名用户的敏感信息面临损坏、窃取的风险。这一安全事件肇始于算法漏洞,并通过供应链网络对信息数据安全、基础设施安全都造成了较大威胁。在智能化生产线中,硬件终端与网络、算法之间关联更紧密,如何实现网络安全和硬件安全保障机制相互耦合,网络、算法与硬件安全统筹推进,是工业智能化进程中难以回避的安全问题。

 2 
工业智能安全治理的既有模式与制度局限

对于工业智能化带来的三类安全风险治理问题,现有法律体系中的物的瑕疵担保责任与产品责任、数据安全制度、网络安全制度分别提供了基本的应对方案或治理框架。本节逐一深入分析这三类制度,可发现其难以完全满足工业智能安全治理的需求。

2.1 可靠性保障:事后救济制度及其局限
2.1.1 治理原则:可靠性内涵的域外考察
可靠性原则是全球人工智能治理行动框架中的共识性准则,要求构建符合预期的技术系统,是人工智能走向应用和普及的基本前提和前置要素。人工智能可靠性是一个模糊而宽泛的概念,我国法律法规中也并未界定其含义,需要在制度比较中进一步明晰。《人工智能安全标准化白皮书(2023版)》将人工智能可靠性界定为“人工智能及其所在系统在承受不利环境或意外变化时,例如数据变化、噪声、干扰等因素,仍能按照既定的目标运行、保持结果有效的特性”。从这一界定出发,可靠性包括了面对干扰的稳健性和完成运行目标的有效性两方面。从域外治理实践看,多国人工智能立法也围绕这两方面展开。
欧盟对可靠性的要求以稳健性为核心。2019年4月,欧盟人工智能高级专家组发布的《可信赖的人工智能伦理准则》将“人工智能在技术和社会层面应具有稳健性”作为可信赖人工智能的三大必要条件之一,并进一步将“技术稳健性和安全性”作为人工智能治理的七大伦理准则之一,该准则包括了抗攻击能力和安全性(resilience to attack and security)、备用计划和总体安全性(fallback plan and general safety)、准确性(accuracy)和可靠性与可重复性(reliability and reproducibility)等四个方面的要求。2024年5月21日,欧盟理事会正式批准了全球第一部人工智能全面立法《欧盟人工智能法案》。该法案在“鉴于部分”(Whereas)强调了上述准则的重要性,指出技术稳健性是高风险人工智能系统的关键要求,并在第15条专条对高风险人工智能的“准确性、稳健性和网络安全”作出了规定,同时在第13条中规定了关于“准确性、稳健性和网络安全”水平和预期水平的说明义务,实现了欧盟可靠性要求从仅具推荐倡导作用的“软法”向有强制效力的“硬法”的转变。
美国对可靠性的要求包括稳健、可靠、可重复和标准化等方面。美国总统拜登于2023年10月30日签署颁布了《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》,明确了美国政府的人工智能治理框架,其中第一条原则即为“人工智能必须安全可靠”,要求“对人工智能系统以及政策、机构和其他适当的机制进行稳健、可靠、可重复和标准化的评估,以在这些系统投入使用之前测试、理解和减轻风险”。该原则集中体现于第4.2条,规定了双重用途基础模型公司的持续报告义务、大型计算集群的报告义务、美国IaaS提供商对外提供服务的监管要求等多项保障要求。
加拿大对可靠性的要求包括稳定、可预测、可重复和有弹性等方面。2022年6月,加拿大创新、科学和工业部长向加拿大国会下议院提交审议了《数字宪章实施法》草案,目前已通过下议院二读并进入委员会审议阶段。该草案中的《人工智能和数据法》基于风险的影响程度,重点规范贸易和商业活动中所使用的人工智能“高影响力系统”(high-impact system),在每个可能的风险点上规范相关主体的义务,并实行对应的问责制。这些“高影响力系统”的负责人义务包括安全、有效性和稳健性等方面:安全性要求必须主动评估这些系统,以识别使用系统可能导致的危害,包括通过合理可预见的误用造成的危害,并必须采取措施减轻伤害风险;有效性要求系统始终符合预期目标;稳健性要求系统在各种情况下都具有稳定性和弹性。
总而言之,从域外立法来看,人工智能可靠性要求的规范内涵包括三点核心要素:实现预期目标的有效性、面对干扰的稳定性,以及行为结果的可重复性。
2.1.2 现实路径:事后救济及其局限
我国的人工智能立法遵循着从特殊到一般的推进思路,现有立法针对算法推荐、深度合成、生成式人工智能特殊问题制定了部门规章,缺乏一般性的人工智能立法。因此,我国人工智能立法对可靠性的要求限于上述具体场景,仅有国家网信办等七部门公布的《生成式人工智能服务管理暂行办法》提及要“提高生成内容的准确性和可靠性”,但亦未提出人工智能可靠性保障的专门性法律机制。
在传统工业场景下,工业设备因可靠性不足而存在瑕疵或缺陷,一般可直接适用物的瑕疵担保责任或产品责任规则。人工智能模型嵌入工业设备后,模型可靠性也成为产品质量的应有之义。例如,全国网络安全标准化技术委员会发布的《生成式人工智能服务安全基本要求》专条规定了“模型安全要求”,将“生成内容可靠性”作为其重要维度之一。瑕疵和缺陷的认定是归责的前提,《民法典》第617条将“交付的标的物不符合质量要求”作为瑕疵判断的核心要素,《产品质量法》第46条规定了缺陷的内涵,即“本法所称缺陷,是指产品存在危及人身、他人财产安全的不合理的危险;产品有保障人体健康和人身、财产安全的国家标准、行业标准的,是指不符合该标准”。但是,技术的不确定性与人类认知的局限性让物的瑕疵担保责任、产品责任的适用存在局限,使得现有的事后救济路径面临现实挑战。
首先,产品瑕疵或缺陷的判断存在困难。缺陷认定的核心为判断是否存在“不合理危险”,这需要当事人和裁判者对产品的潜在风险和积极效果具有相对成熟的共识性认知,进而判断是否存在缺陷。也正是因此,目前对缺陷认定的理论都建立在设计工艺高度成熟的工业产品之上。而我国对瑕疵判断中“质量要求”的认定则以“有约定从约定”的主观标准为主,以各类标准、交易习惯等客观标准为辅。由此看来,缺陷和瑕疵的判断高度依赖于当事人对人工智能产品可靠性的认知水平和主观期待。工业智能设备在硬件层面上的瑕疵或缺陷认定与传统场景类似,但软件系统层面的瑕疵或缺陷则面临困境。当下人工智能快速迭代,大模型的开发者为提升算法效率,不断提升算法的复杂程度和参数规模,使得算法决策过程如“黑箱”般不可知。这使得人工智能安全风险的种类和程度难以被预见,开发者、使用者、执法者与裁判者对新兴科学技术的了解也面临着“知识有限”的局限。这导致社会对人工智能可靠性的期待难以达成共识,裁判者无法判断能否通过技术改进消除特定危险,故“合理危险”的范围难以界定,对瑕疵的约定也因难以预见而无法作出详尽的安排,瑕疵和缺陷的判断缺乏认知基础。
其次,传统的违约与侵权责任的事后救济路径难以应对科技的不确定性。大模型的不可解释性和人的认知局限使得人工智能带来的安全后果为“风险”而非“确定性”。也正因此,包括埃隆·马斯克在内的1000余名业界高管和专家呼吁暂停高级人工智能的开发。有学者据此提出算法透明是算法问责的重要机制,主张基于比例原则设置适当的透明化义务,通过制度化安排来拓宽人对大模型运行情况的认知边界。面对不确定性,通过事后救济保障工业智能可靠性的可行性存疑:首先,事后归责需要将行为事实涵摄于法律规范,要求对人工智能的行为进行解释,这与人工智能模型不可解释存在冲突,导致难以界定行为后果是由人工智能本身导致,还是由操作、管理不善等人为原因造成。其次,应对科技的不确定性风险,风险行政法学者指出关键应对路径在于当事人“在当下共同决策、共担风险,在未来持续学习、动态调整”,例如工业智能的供需双方通过事前的研讨磋商、事后的评估调整应对未知风险。但是,违约与侵权责任的事后救济都依赖于司法机关作出裁判,司法机关并不擅长于直接介入事前磋商与事后评估。所以,工业领域人工智能设备对可靠性的要求尤为突出,而智能化场景相对传统场景的特殊问题是风险的难以预见性,此时传统的事后救济的手段难以实现可靠性保障。
2.2 数据质量治理:数据安全制度及局限
数据安全法律制度是指保障数据完整性、可用性、准确性以及确保数据处理活动符合法律法规规定的一系列法律制度总称。我国数据安全法律制度以《数据安全法》为中心,其内容大致可以划分为数据安全管理和数据安全保障义务两个部分,遵循“以发展促进安全,以安全保障发展”的立法逻辑,规定了数据分级分类保护、数据安全审查、数据出口管制、数据安全风险评估等制度。根据国家标准《信息技术 数据质量评价指标》(GB/T 36344-2018)的界定,数据质量是指“在指定条件下使用时,数据的特性满足明确的和隐含的要求的程度”,其评价指标包括规范性、完整性、准确性、一致性、时效性和可访问性等六个方面。由此看来,数据质量是数据安全的重要维度,一方面关乎数据安全,数据规范性欠缺可能导致隐私信息等内容被错误地使用和传播;另一方面关乎数据高效利用,与数据可用性直接相关。
在工业场景下,“垃圾输入,垃圾输出”的比喻形象地说明了数据质量的重要性。数据作为新质生产力的关键生产要素,不仅仅简单地被用于产生单个输出,更重要的是被用来训练人工智能模型。不完整、低质量或“坏”的数据不仅会有损人工智能大模型的性能,而且会带来新风险,该风险会随着供应链蔓延到很广的范围,可体现为标注数据质量参差不齐引发生成毒害内容、预训练语料库代表性不足导致价值观偏差、数据集时效性偏差引发可信度危机等方面。新加坡2024年1月16日发布的《生成式人工智能治理模型框架》在数据维度将“确保用于模型训练的数据质量和可信性”作为主要要求,回应了保障数据质量的需求。
目前,我国《数据安全法》并未对数据质量保障进行单独规定,相关规定散见于多部法律和规范性文件中,且多以个人信息保护为重点,少见可适用于工业领域数据质量保障的规定。《网络安全法》第43条要求对错误的个人信息“网络运营者应当采取措施予以删除或者更正”;《个人信息保护法》在细化更正权、删除权之外,其第8条从更为抽象的层次规定了“处理个人信息应当保证个人信息的质量”,目的在于“避免因个人信息不准确、不完整对个人权益造成不利影响”,可见两部法律对数据质量的规定都以个人信息保护为核心。《科学数据管理办法》第11条则以数据利用为关注焦点,规定“法人单位应建立科学数据质量控制体系,保证数据的准确性和可用性”。
虽然数据安全应当包含数据质量要求,但是《数据安全法》未作规定就意味着不能在该法之内寻求保障方案,需要在现有框架外完善保障制度。《数据安全法》是一部具有安全法定位的公法,公法的性质意味着执法机关在数据安全管理职责之外“法不授权即禁止”,数据处理者在安全保障义务之外“法不禁止即自由”,不得在规定之外通过增加权力、增设义务来保障数据质量;而安全法的定位则代表着其规定为数据处理的基本底线,突破底线则须承担行政责任。事实上并非所有的数据质量要求都是“底线”,在工业场景下强调数据质量更多情况下是为了提升工业智能性能、充分释放数据价值、更好发挥数智赋能效应,通过刚性的数据安全义务规范数据质量并非合适的制度安排。
2.3 软硬件安全统筹治理:硬件保护的脱节与等级保护的冲击

从产业的视角来看,人工智能与工业供给产业融合形成的核心产品、方案与服务是人工智能赋能工业的主要载体,人工智能模型与硬件在工业场景下实现了深度融合。此外,物联网是工业智能的基础设施,为工业智能提供了数据基础和连接基础,同时也将硬件终端纳入网络,需要对硬件进行相应的加密、认证、隔离等安全措施来保证其安全性。因此,不论对于智能设备还是整个物联网系统,都需要构建网络安全和硬件安全紧密协作的一体化安全防护体系,以应对日益复杂和智能化的安全威胁。

目前,数据与网络安全制度以网络安全等级保护制度为主要抓手,为网络硬件设备安全保留了规制空间,但未制定与硬件设备直接相关的具体规则。《网络安全法》的适用范围是在我国境内“建设、运营、维护和使用网络”,根据该法第76条对网络的界定,网络“由计算机或者其他信息终端及相关设备组成”可知,硬件设备是也是网络系统的组成部分。与该法第21条规定的网络安全等级保护制度配套的《信息安全技术 网络安全等级保护定级指南》将物联网纳入定级对象,并单独制定物联网领域网络安全技术规范;第22条规定了网络产品和服务提供者的义务;第23条规定了网络关键设备和安全产品的认证检测要求。这些规定都体现了《网络安全法》对网络硬件设备安全的保护要求。《数据安全法》第27条规定,在利用互联网等信息网络开展数据处理活动时,应当在网络安全等级保护制度的基础上履行数据安全保护义务,体现了与《网络安全法》中网络安全等级保护制度及其配套规范的衔接,表明了数据安全保护也应满足相应的硬件保护要求。所以,在目前制度框架为硬件安全治理预留的空间内,实现硬件保护与网络安全保护体系的衔接、满足工业智能安全体系化治理的需求,是目前亟需解决的问题。

此外,工业互联网向工业智能的转变,使得以网络安全等级保护制度为核心的软硬件一体保护手段面临现实考验,其核心手段是依据遭受破坏带来的侵害程度对网络进行分类,对不同类别的网络进行差异化保护。该制度以平衡安全与发展为目标,使得网络安全工作有所侧重,能提升安全保护的效率,在工业“网络化”阶段发挥了重要价值。但是,随着工业迈入“智能化”时代,人工智能技术的通用性被不断加强,相关设备或服务在不同工业门类中研发设计、智能制造、经营管理、产品服务等环节均有应用空间。人工智能技术在不同的应用场景下,即便数据、平台和算法都基本相同,仅存在场景的差异也会产生不同级别的风险,需要配置不同的监管制度。一方面,若按照技术类型进行等级划分,例如将深度合成技术一律划为高风险系统,实际上背离了等级保护制度平衡安全与发展的初衷,从差异化保护走向了一刀切式管理,不符合技术与产业发展的需求;另一方面,如果依据场景进行差异化定级,则会导致等级保护制度面临人工智能使用者在定级后逃避监管的“道德风险”:人工智能技术的使用者可能在风险较低的场景定级,在事后基于人工智能的通用性,以极低成本将其扩展至新应用场景,导致使用者逃避监管成本极低,但监管者查处逃避的执法成本较高。

 3 
工业智能安全治理的风险预防原则

在工业智能安全治理中,现有的可靠性保障、数据质量保障与软硬件统筹治理存在局限,核心问题是人工智能技术深度嵌入工业流程,与传统工业治理场景适配的制度难以适应新型风险的治理需求。风险预防原则是社会风险治理的重要法律原则,适配于以新技术风险为代表的不确定性风险治理,目前为欧美人工智能风险治理所广泛采用,与工业智能安全治理具有理论契合性与现实可行性。

3.1 工业智能是风险社会的典型表征
风险社会理论由德国学者乌尔里希·贝克(Ulrich Beck)提出:技术-经济的进步带来了泛在化的人为风险,这些风险超出了“潜在副作用”的范畴,使得现代性异化成了“现代性以现代性的方式挖现代性的墙角”的“自反性现代化”,形成了风险社会的内在动因。与古典工业社会中局限于个体的小范围风险不同,风险社会的风险以不确定性为核心特征,兼具扩散性、全球性、人为性、不可逆性、难以预测性、危害后果的全局性等特点。
工业智能是“自反性现代化”的典型体现,一方面是先进生产力,另一方面也蕴含着风险社会的不确定性风险。第一,由于人工智能决策行为的不可解释性、危险的难以预见性,工业智能的可靠性保障难以适用物的瑕疵担保责任和产品责任。第二,工业智能具有风险来源多样化、后果扩散性的特点。数据质量由于关乎人工智能模型的性能与安全,且风险容易通过产业链扩散,成为工业智能安全风险的重要来源,却被现有的数据安全制度体系所忽视。第三,工业智能嵌入多类设备、多个行业,助推了风险后果的全局性。在设备层面,网络风险与硬件风险的一体化趋势加强;在社会层面,人工智能的通用性使其风险一方面波及多类场景,另一方面又存在场景异质性,导致等级保护的效果面临冲击。由此看来,正如贝克所言,风险社会中“政治、社会、经济和个人的风险往往会越来越多地避开工业社会的监督制度和保护制度”,以传统工业社会为预设规制场景的法律制度难以应对工业智能安全治理的需求。
3.2 风险预防原则是风险社会治理的重要路径
根据法益保护方式的不同,法治可被分为事后应对型法治和事前预防型法治。传统工业社会中法律制度的设计与实践以事后应对型法治为主,注重在损害发生后救济权利人或制裁加害人。随着传统的工业社会向风险社会演进,风险预防原则成为风险治理的重要法律原则。该原则最初多见于环境保护国际公约,主要针对人为的、严重的、不可逆转的环境危害可能性,强调“即使科学没有确实的证据证明该危害必然发生,也应采取必要预防措施”。随着不确定性风险的蔓延,风险预防原则的适用范围大幅扩张,据学者统计,我国现行有效的300部法律中有120余部包含“预防”或“防范”语词的专门章节或条款,形成了风险社会的预防型法治制度群。特别是在新兴科技快速迭代、新兴业态快速发展的当下,多有学者提出以强化风险预防为导向完善个人信息合规体系、构建人工智能风险治理机制。
3.3 风险预防原则与工业智能治理高度契合

工业智能的安全风险特征与风险预防原则的适用前提相契合。风险预防原则的内涵存在多种学说的争鸣,但其理论共性为“四要素”:一是危害预期,即以“风险”的存在为必要前提;二是不确定性,其为风险的应有之义,体现人对危害后果的认知局限;三是预防措施,要求治理者确定整体的预防强度和具体的预防措施;四是证明机制,若风险活动的举办者能有效证明已不存在或可消除预期危害,治理者即可变更或消除风险预防措施。“四要素”之间存在逻辑关联:对危害预期的认知水平决定了不确定性类型与程度,不确定性的类型与程度又决定了预防措施的应然类型。最后,证明机制适用于所有风险预防措施,用于修正对危害预期和不确定性的认识,进而实现对预防措施的动态调整。从上述关联来看,是否应当适用预防措施、应当适用何种预防措施,都取决于风险与不确定性。工业智能作为“自反性现代化”的典型例证,风险与不确定性都是其内在特征。

正是基于此种契合性,全球多个国家和地区基于风险预防原则展开了人工智能治理实践。《欧盟人工智能法案》“依风险治理”的理念与模式是风险预防原则的典型体现,根据不同的危害预期和不确定性程度,确立了不同的预防措施,将人工智能系统划分为不可接受风险、高风险、低风险或最小风险三个等级,在第5条禁止了不可接受风险人工智能的应用,在第6~49条为高风险人工智能配置了详细说明要求、提供者义务、进口者和分销者义务、经营者义务、基本权利影响评估、通知机构组建和任务、合规性评估等一系列义务,仅给低风险或最小风险人工智能配置了以透明度义务(第50条)为代表的少量义务。类似地,加拿大的《人工智能和数据法》草案特别识别了具有潜在高风险或可能引发严重后果的“高影响力系统”并予以重点规制,也体现了“依风险治理”的理念。

虽然美国算法治理起步于以“依结果治理”为特征的算法问责治理结构,但是随着从算法治理向人工智能治理的迈进,也愈发重视风险预防原则。2017年,纽约市议会通过了美国首部算法治理法案《政府部门自动决策系统法案》,所确立的算法问责制更加关注算法运行结果的公正性,而非算法内部运行环节。2022年,美国国会议员提出的《算法问责法案》虽然同样采取问责制,但是在问责之前又规定了事前评估与事中审查两项基本义务,体现了算法问责与风险预防的结合。特别是在人工智能治理的专门规定中,风险预防已经成为重要考量。美国白宫2020年发布的《人工智能应用规制指南》将“风险评估与管理”规定为联邦各部门制定人工智能规制政策的重要考量因素,美国国家标准与技术研究院(National Institute of Standards and Technology, NIST)2023年发布的《人工智能风险管理框架》则进一步提出了一套人工智能风险的识别评估、分级排序和风险管理框架和方法,都体现了针对危害预期的风险防控。

 4 
工业智能安全治理的风险预防体系建构

本文通过风险预防原则对工业智能安全治理的模式进行改造,使其发挥出应有的制度功能,适应风险社会中工业智能安全保障的现实需求。

4.1 可靠性保障:设置预防性义务

物的瑕疵担保责任和产品责任可保障工业智能可靠性的现实困境,其核心在于风险社会中“质量要求”和“不合理危险”因风险的不确定性而难以界定,且司法机关主导的事后救济手段难以承担事前研讨磋商、事后评估调整的重任。虽然物的瑕疵担保责任与产品责任均为严格责任,并不以生产者或提供者的过错为责任成立要件,但是不论是因不满足质量要求判定存在瑕疵,还是因存在不合理危险判定存在缺陷,本质都是因产品未达标而推定生产者或提供者存在过失。对于智能产品,以生产者过失标准判断瑕疵与缺陷被学界提倡。生产者过失判断标准将瑕疵或缺陷的判断转化为了义务违反的判断,为风险预防原则的介入提供了切入点。通过赋予生产者等主体预防性义务,可以激励其落实研讨磋商、评估预警、跟踪监测等风险防范措施。同时,将相应措施纳入司法裁判的考量范围,也能进一步推动对不确定性风险的有效治理。

在风险社会,将风险预防义务纳入生产者注意义务具有正当性。从义务承担主体上来看,生产者或提供者承担预防义务满足风险的“原因者负担原则”,风险的制造者应当将其行为的负外部性内部化;从义务内容上来看,预防义务的设置满足标准可行、能力可及、成本可担单独原则,适度的预防义务方可具备正当性基础。

对于工业智能设备生产者或系统开发者赋予预防义务的目的在于保障可靠性,故应当依据可靠性的核心内涵,针对可能存在的风险点赋予生产者相应的预防义务。可靠性具有自身有效性、抗干扰的稳定性和结果的可重复性三个核心要素。针对自身有效性,应当在设计阶段明确合理设计义务:人工智能设备在设计时应预计该设备的应用场景和可能风险,使设备达到该场景下普通人的可靠性水平,若在某些应用场景存在上述将人识别为货物,甚至作为攻击对象的风险,则显然未能满足设计阶段的合理设计义务。对于抗干扰的稳定性,一是应当配置基于风险场景的警示说明义务。人类与人工智能系统都无法完美应对各类场景和突发状况,但生产者应当依据相应的工业场景预设可能的风险情况,并在该风险具有现实化可能性的时候进行警示说明。二是应当配置使用过程中的风险评估义务。由于现实风险具有多变性的特征,生产者应当定期评估具有较高风险的人工智能,对其进行系统更新或召回返修,使其具备应对风险变化的能力。对于结果的可重复性,应当明确生产者等主体在结果可重复性方面的系统与产品测试义务,工业智能的测试结果须达到一定的技术标准,方可用于工业领域的相应环节。若设备生产者或系统开发者违反风险预防义务,可根据程度判定构成瑕疵或缺陷。

4.2 数据质量治理:建立健全标准体系
在工业场景下,工业门类多元、关系交错带来的数据质量问题主要存在于“规范性”层面,其核心为规范不统一导致数据流通交互受阻、可用性降低。在人工智能开发过程中,训练数据来源主要包含三个部分:一是企业生产经营过程中自行采集的数据,二是从企业外部通过购买或授权获取的数据,三是公开抓取的数据。要使前两类数据高效聚合,需要企业内部规范与工业领域整体规范的接轨,是规范性治理的主要对象;而公开抓取的数据须考虑到公开者多样化的业务需求,不宜对其提出强制性数据质量要求。
数据规范性评价指标包含数据标准、数据模型、元数据、业务规则、权威参考数据和安全规范等六个维度(GB/T 36344-2018)。首先,除安全规范外,其他维度的规范性要求并非安全底线,不适合通过行政监管直接对一般主体进行规制;其次,数据规范性欠缺对产业带来的负面影响难以事后补救,只能在其产生前采取预防性措施提升规范性,才能从根本上解决问题。通过非强制手段促进企业内部规范与整体规范的接轨,本质上是使各企业达成数据管理规范的合意。但是,企业间一一谈判达成合意的交易成本过于高昂。所以,规范统一需要借助权威第三方才可达成。政府和行业组织是最为天然和合适的权威第三方,技术标准是进行风险评估基本标尺,也是对风险预防措施的基本安排。政府和行业组织在法律授权下制定技术标准是预防型法治的典型体现,也是风险预防原则制度化的重要方式。
《数据安全法》和《网络安全法》都为数据质量治理通过标准体系进入网络与数据安全制度体系预留了空间。《数据安全法》第10条规定“相关行业组织按照章程,依法制定数据安全行为规范和团体标准”,第17条规定“国家推进数据开发利用技术和数据安全标准体系建设”;《网络安全法》第15条规定“国家建立和完善网络安全标准体系”。目前,国家层面制定的《信息技术 数据质量评价指标》(GB/T 36344-2018)和《数据质量》(GB/T 42381)等国家推荐性标准,地方层面制定的《智慧黔南 数据质量评价规范》等地方标准,都为数据质量标准体系建设作出了有益探索。
总之,完善工业智能领域的数据质量治理,在《数据安全法》中直接增设数据质量规定不尽合理,应结合工业智能化发展的特征和需求,通过建立国家-地方-行业多层次的数据质量标准体系来实现风险预防原则的制度化。
4.3 软硬件安全统筹治理:人工智能赋能风险预防

目前网络安全制度中安全评估认证、安全威胁监测和技术标准配套都体现了风险预防的原则和理念。但是,首先,现有硬件安全在人工智能治理中尚处于较为边缘的位置,一方面需要深入与网络安全预防制度接轨,另一方面还需要适应人工智能系统快速迭代带来的新风险;其次,人工智能技术的通用性与风险的场景性使得网络等级保护面临僵化的现实考验,需要更为敏捷的等级保护制度来推进软硬件统筹治理。

从治理需求来看,可在统筹考虑系统风险与硬件风险的基础上,建立动态调整的风险预防体系以提升风险响应能力和制度敏捷性。实际上,人工智能既带来了新的安全风险,又能赋能网络安全的防御和治理,借助人工智能技术赋能实现治理工具升级,可以满足动态治理的需求。一是可以实现网络安全动态评估,一方面在评估时将硬件部分的安全性、开放性、透明性、来源多样性等指标纳入评估,另一方面根据场景和技术的变化实现安全风险评估结果的动态调整。二是可以实现网络安全动态监测和预警。工信部2017年印发的《公共互联网网络安全威胁监测与处置办法》将网络安全风险来源分为网络资源、恶意程序、安全隐患、安全事件四类,其中包含了静态与动态、软件与硬件等多个维度的风险。借助人工智能和大数据预警可以实现多类风险的统筹考虑,有利于实现有效监管。三是可以实现风险的及时应对与处置。对于评估与监测结果的变化,网络安全责任人可以立即改变预防措施或启用应急预案,网络安全监管者也可通过适配人工智能监管工具的工作机制,及时上报或启动调查,作出改变网络安全等级划分等处置。所以,作为监管对象的人工智能,同时也是实现治理能力现代化的重要工具,监管者需要借助其赋能推进软硬件统筹治理。

 5 
结语

工业智能化是实现新型工业化的内在要求,也是加快发展新质生产力、扎实推进高质量发展的必由之路。随着工业从网络化迈向智能化,风险的不确定性、扩散性和全局性等特征大幅加强,传统治理手段难以满足人工智能可靠性、数据质量和软硬件一体化治理的需求。风险预防原则是一种适应新技术带来的不确定性风险的治理手段,以预期危害的事前预防为根本宗旨,以达到防患于未然的治理效果。本文基于风险预防原则在工业智能治理中的理论契合性和现实可行性,对现有的保障产品可靠性的事后救济制度、保障数据质量的数据安全制度、保障软硬件安全的网络安全制度进行改造,使其能适应人工智能嵌入工业生产后安全风险治理要求。当然,一方面,预防型治理与应对型治理并不是冲突对立、相互排斥的关系,而是相辅相成、相互促进的关系;另一方面,风险预防原则的适用应当保持在合理限度内,需要遵循比例原则,谨防公共机关预防性权力和私人主体预防性义务的无序扩张导致的不合理成本与负担。未来,工业智能安全治理应当进一步完善风险预防与风险应对的体系衔接,形成预防与应对相互配合、各司其职的安全风险治理体系。







编辑部信息

邮箱:bj@clas.ac.cn

电话:028-85223853

网站:www.globesci.com


【免责声明】出于科研和文化交流目的,本公众号主要发布《世界科技研究与发展》期刊的录用文章,或转载其他媒体与网站的图文资讯。文章仅代表作者本人观点,本公众号对文中陈述、观点判断保持中立。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。抄袭本文至其他渠道者引发的一切纠纷与本公众号平台无关。

世界科技研究与发展
《世界科技研究与发展》期刊官方公众号,为报道国际科技发展战略、规划、计划、态势、政策、管理、评价的科技期刊,刊登科技评述与展望、科技战略与规划、科技态势与趋势、科技预测与预见、科技政策与管理、科技评价与评估、科技决策与咨询等方面的文章。
 最新文章