张永忠:论人工智能透明度原则的法治化实现

文摘   社会   2024-04-14 21:35   山东  

【内容摘要】随人工智能应用范围不断扩大,透明度原则成为破解“算法黑箱”难题的钥匙。透明度原则包括形式透明和实质透明。形式透明是对人工智能基础信息的披露,使人工智能的部署使用处于非秘密状态。实质透明与人工智能的可解释性息息相关,强调对披露信息以可被理解的方式进行有意义解释,从而打破知识壁垒,使相关信息实现真正可知。透明度原则应在法治化实现上进行精细考量:在考虑现有技术条件的基础上,有必要根据监管机关和社会公众的能力不同有区别地对披露和解释的信息内容提出义务要求,并针对不同人工智能的风险程度采取分级分类分场景的执行标准,从保护用户与公众知情权行使、确保国家监管权落实两方面推动透明度原则实现。



【关键词】人工智能治理 透明度原则 披露 可解释性 法治化



文章来源:《政法论丛》2024年第2期

因篇幅所限,省略原文注释及参考文献。



引言


人工智能广泛应用于经济、政治、社会及文化等领域,深度嵌入人类生活的方方面面,不断影响和发展着人工智能与人类之间的交互模式。在带来经济效率、社会福利和生活便利的同时,也产生负面的影响,成为影响社会公平稳定、损害人类福祉的新危险源。例如,谷歌的照片自动识别功能出现种族歧视、美国《普林斯顿评论》对亚洲社区收取更高SAT备考辅导费、美国阿肯色州医保系统中错误代码导致部分公民的福利申请被错误削减或驳回,以及新媒体软件利用对客户信息的收集并运用算法分析出用户的偏好,从而不断推送相同类型信息造成信息“茧房”或制造大量的大数据“杀熟”情况等。

人工智能在海量数据和强大算力的支持下,依据严密的算法逻辑,推演生成用户所直接接触的结果。其中,数据集是否完整或具代表性,算法是否合理、公平、严谨、可靠,直接影响着人工智能推演结果的质量。但由于人工智能运行机制的复杂性、技术性和不透明性使得国际社会和主权国家出现应对新技术的能力不足,在现有制度基础上难以对算法进行有效监管。面对日益攀升的人工智能治理压力,世界各国积极探索人工智能法律规制的共识和方法,而打破“算法黑箱”成为国际上积极应对人工智能挑战的主要出发点和重要着力点。首届全球人工智能安全峰会签署的《布莱切利宣言》强调人工智能治理需要解决“透明度与可解释性”问题。美国在《算法问责法案(2022)》中对法案所涵盖的实体提出了透明度义务。欧盟在《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》《可信赖人工智能伦理指南》等文件中明确强调透明度原则的重要性,提出透明性是实现可信赖人工智能的要素之一,并在数据与人工智能立法中确立具体的规范,例如,《通用数据保护条例》要求数据处理者要以透明的方式处理个人数据,向数据主体提供法定信息,2023年《人工智能法案》与2021年版相比,充实了透明度原则的具体要求。在我国,现有的立法文件也体现了对人工智能决策和算法透明度问题的关注:《个人信息保护法》规定了“利用个人信息进行自动化决策,要保证决策的透明度和结果公平、公正”,《生成式人工智能服务管理暂行办法》(下文称《暂行办法》)第4条第5款规定“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。”可以说,我国也逐步确立透明度原则在人工智能治理中的地位和作用。

目前,业界和学界对于人工智能治理透明度原则的讨论尚未达成有效共识。何为透明度原则?如何在实践中发挥透明度原则在人工智能治理方面的规范作用?这些问题成为亟待认真研究和有效破解的法律课题。鉴此,笔者将在明确透明度原则规范含义的基础上,对该原则实现过程中复杂技术条件下的主体能力需求回应性、具体场景下的执行标准,知情权与监督权有效运作条件、方式等提出法治化设想。


一、披露与解释是人工智能透明度原则的规范要求


透明度原则并非人工智能治理领域所独有。透明度原来用于描述或评价物质可透光性的物理属性。如今,透明度原则已较长时间运用于管理、金融、行政等领域。尽管不同领域对于透明度原则的定义存在差异,但“他们都被不约而同的视为一种不言自明的好处”:“经济学家认为透明度是最优市场的先决条件,政治学家将其概念化政治参与的先决条件,法律学者强调它是行政合法性的先决条件”。学者普遍认为,透明度与信息有关,其被视为信息共享的关键因素,在促进公众信任上具有积极作用。这种对产生信任的促进作用通过一定的逻辑推理得出:基于“真理与事实相符”的认识论假设,由“一定的逻辑链驱动:观察产生见解”在信息披露、公开等共享的前提下,通过对相关信息的“观察”,形成对某事物或某行为的正确认识和判断。这种信息的分享与可获得性即是一种透明,它首先解决的是信息流动、沟通过程中的不对称性。

透明度原则运用于人工智能领域,在信息共享上破解了人工智能系统因专业性和不透明性所带来的国家和社会难以对其进行有效监管和问责的困境,正成为指导人工智能开发设计、规范应用、评价监管的重要原则并发挥积极作用。一方面,透明度原则通过人工智能的信息共享,促进了用户、社会对人工智能的运作原理和功能效用的理性感知或认知,从而建立起人与智能科技之间的正常交互关系,最终产生信任与认同并能够接受复杂智能系统的创新技术。另一方面,透明度原则使得算法黑箱得到遏制,促使外部监管成为可能,在监管问责之下能够倒逼人工智能开发、应用、运营和管理走向数据与算法的合规,进一步提升人工智能系统的可控、可信程度,最大程度减少或避免人工智能在实践中运用不断出现的歧视、不公、失控等负面结果。“智能算法的透明性涉及人工智能伦理原则和规制最基本的问题”。随着人工智能发展及其治理实践的展开,透明度原则在治理体系的基础性价值越发凸显。

在实践中发挥透明度原则的价值,需要准确理解和把握透明度原则的规范要求。遗憾的是,理论界对于人工智能透明度原则的内涵尚未形成共识。这一状况也导致了现有立法对人工智能的透明度原则鲜有明确具体的界定。例如,我国《互联网信息服务算法推荐管理规定》(下文称《算法推荐管理规定》)第12条中明确规定,“鼓励算法推荐服务提供者……优化检索、排序、选择、推送、展示等规则的透明度和可解释性”。这里强调了人工智能算法规则的透明度,并把透明度和可解释性视为两个独立且并列的概念。而欧盟新近通过的《人工智能法案》则认为“透明度原则是指人工智能系统的开发和使用方式应允许适当的可追溯性和可解释性”,将人工智能的可解释性视为透明度原则应有内容。上述规定的差异在一定程度上揭示了当前对透明度原则的认知分歧。实际上,准确理解人工智能透明度原则,应置于技术与人类社会系统之中,通过把握技术透明与社会需求的关系,还原实现透明度原则价值功能的基本规范要求。

诚然,就透明度原则的规范价值来看,它所要求的不仅仅是一种简单的信息传递的清晰状态,而是通过观察和了解从而实现一定形式的控制。与其他领域不同,人工智能的相关信息是由专业的计算机语言组成,除专业人士外,对其进行“观察”并无法形成正确的认识和判断,更进一步影响到理性选择的做出。换言之,人工智能内部技术信息的披露看似使得人工智能系统变得透明,但由于信息复杂且具有极高的专业性,实现理解需具备一定的知识储备,若是对人工智能系统的相关信息不经转化直接以计算机语言进行披露,信息的专业性会形成知识壁垒阻碍非专业人士对智能系统的认识,实质上仍未打破“算法黑箱”。人工智能系统相关信息的专业性与社会公众的理解力之间存在“鸿沟”,解决这一“鸿沟”成为透明度原则在人工智能领域发挥价值的前提。跨越理解“鸿沟”的桥梁是将相关信息通过一定的方式转译为与社会公众理解力匹配的表达,也即人工智能领域透明度原则的实现需要对相关专业信息进行解释。人工智能的解释性要求正是满足包括具有一般知识能力的普通用户在内的社会公众、合作伙伴、监管部门等不同受众群体对人工智能系统的信息可获取的需求,体现了透明度原则在法价值层面适应不同受众群体(特别是非专业人士)需要的主客观统一性属性。综上,人工智能透明度原则要求智能系统对外具有可见性、可知性,而要真正发挥其破解“算法黑箱”作用,人工智能透明度原则不能只是智能系统体现自身意愿的单向度的任意信息披露,换句话说,透明度原则具有信息披露的形式透明要求,更需具有面对不同受众可解释性需求的实质规范内容。

形式透明是指人工智能透明度的义务主体通过采取多种措施实现信息的公开,包括但不限于用户与人工智能的交互提示、人工智能生成物的标识以及将系统的设计目的、训练数据、算法模型等相关信息进行披露,从而使人工智能在表面上具有透明性,能够被人类所感知和观察。根据披露信息的深度不同,又可将形式透明分为浅层披露和深层披露。浅层披露主要是提示、告知用户其在与人工智能进行交互或该决策、结果由人工智能自动生成以及对人工智能生成物进行标识。浅层披露是一种对用户的提示,更侧重于面向用户的“界面”公开,不涉及系统内部结构及自动化决策原理,主要目的是使用户知悉其正在使用的产品或服务为人工智能所提供,或某一作品或内容为人工智能生成物。我国《个人信息保护法》《暂行办法》《互联网信息服务深度合成管理规定》(下文称《深度合成管理规定》)《算法推荐管理规定》均有对人工智能系统浅层披露作出明确规定。深层披露是对人工智能系统的研发、部署和运管主体,设计理念与基础原理,系统性能与安全性等基础信息的对外信息公开。现阶段,人工智能的深层披露包括基于商业需要的信息公开和合乎监管目的需要的信息公开,通常,相关主体根据有关部门指引提交的信息备案已经成为深层披露主要的实现方式。不管是浅层披露还是深层披露,人工智能的形式透明往往不涉及艰涩难懂的专业术语或者计算机代码,更不涉及到企业的技术方案等商业秘密,不存在描述和表达上的不可理解问题。

实质透明是指在人工智能形式信息披露的基础上,进一步以信息接收者能够理解的方式对该信息进行有意义的解释。相比形式透明,实质透明旨在通过简明易懂的语言向不同受众描述和展示人工智能系统如何一般工作,回答系统为何做出具体的某一决策。此时,人工智能应当具有可解释性。就模型性能解释的角度来看,人工智能的可解释性既包括使人工智能系统原模型具有可理解性(此时的可解释性英文为interpretability),还包括原模型虽不具有可理解性但可通过解释使得模型能够为人所理解(此时的可解释性英文为explainability)。从解释的目的出发,前者是指为了在无需了解输入数据与输出结果之间的因果关系的前提下认识到系统的机理,即系统是如何工作的;而后者则在前者的基础上,要求厘清系统行为的原因。换言之,可解释的人工智能要求提供了必要的技术模型及其运作方案来解释导致系统做出特定决定的过程和缘由。可见,实质透明强调的是“有意义”的解释,这不仅需要对人工智能系统的内部数据,模型类型、结构与训练,自动化决策的原理、逻辑和方案等进行披露,而且信息披露的效果是让信息接受者最终可感知、可理解。

现实中,因解释的主体、受众、场景和目的不同,实质透明下信息披露在内容和形式上也有不同要求。例如,我国《暂行办法》第十九条、《深度合成管理规定》第二十一条以及《算法推荐管理规定》第二十八条均规定了有关主管部门可以依职权对人工智能开展监督检查,服务提供者和技术支持者负有配合义务,需按要求对相关信息进行说明。在面向国家机关的监管解释时,人工智能系统的提供者和使用者对被问询系统的相关信息应进行披露说明,主要回答的是人工智能系统如何工作的问题,但在特殊情形下,面向国家机关的解释内容需包括系统特定决策的做出原因。面向社会公众的解释可根据解释时间和内容不同分为事前解释和事后解释。事前解释是指在人工智能具体决策作出前,将人工智能系统的相关信息如设计目的、运用场景、决策的主要影响因素、可能存在的不良影响或风险等以能为公众所理解的表达予以公开。这种解释是一种普遍的,不具有针对性的解释,其主要通过简明的信息披露,回答系统是如何工作这一问题从而使公众在使用前或权益受影响前对该人工智能系统形成概括性认识。事后解释是指在人工智能系统作出具体决策后,针对该决策作出的缘由进行解释,包括运用的具体逻辑、具体参数的权重等。与事前解释相比,事后解释更具有针对性,主要围绕影响具体决策作出的相关信息进行解释,目的是为了使相关用户能够理解决策作出的理由,判断是否存在歧视或不公等问题。两种解释除解释的时间点、侧重点不同外,作出解释的主体可能存在差异。随着人工智能行业的发展,人工智能系统的开发和使用出现分离,也即运用人工智能系统作出决策的主体不一定是该系统的开发者。人工智能系统从设计到最终影响用户之间的链条越来越长,涉及的主体越来越多,需要确认何者为合适的解释义务主体。笔者认为,考虑到解释内容的特性,由于事前解释所涵盖的内容是人工智能系统所固有的基本信息,此时特定系统的开发者应为解释义务主体,而事后解释是系统运用于实践后产生的,其内容涉及具体输入数据和具体参数的权重等,此时由系统的使用营运者来进行解释更为合适。同时由于系统信息的专业性,开发者对事后解释应当提供必要的帮助。当然,这种义务主体的区分是建立在人工智能系统的开发与使用分离的前提下,若是系统的开发者与使用运营者均为同一主体,则无所谓区分问题,事前和事后解释的主体均为系统的提供者。

形式透明侧重对人工智能系统相关基本信息的披露,而唯有对披露信息进行必要解释才能真正实现透明度原则,发挥透明度原则在人工智能治理上的规范价值和积极意义。随着人工智能治理实践的推进,人工智能系统的可解释性已成为反映和衡量系统的透明度的重要标准,人工智能的信息公开与可解释也逐步作为一个整体被强调,例如OECD等国际组织将透明度和可解释性作为人工智能开发的核心原则之一,是人工智能提供者和使用者的义务,两者共同构成了透明度原则的实现方式和义务内容。


二、人工智能透明度原则受限于技术水平与主体能力


确立和推行透明度原则旨在构建人工智能系统应用的良好创新生态,减少甚至是避免系统带来的歧视或不公。人工智能的透明度在现实中能否完全彻底实现,将透明度原则运用于人工智能领域是否会阻碍技术的创新与发展,影响利益相关者的合法权益呢?回答这些问题,有利于理清人工智能透明度原则的适用空间和作用强度,进而在科学性和合理性上对透明度原则的法治化实现有重要影响。

人工智能透明度原则既是技术规范,也是社会规范,透明度原则法治化关系到人与智能系统互动关系以及社会信息结构的规范建构,必须在科技发展与法律规范的多元价值权衡基础上,在系统控制者与信息受众的主体之间实现利益平衡。其具体原因如下:

首先,现有技术无法支持人工智能透明度原则要求的完全实现。随着ChatGPT等生成式人工智能的面世,人类迈进强人工智能时代。人工智能从浅层学习走向深度学习,算法模型愈发复杂,即使不存在人工调整,人工智能也能通过自我学习实现更新、迭代。这种自我学习能力使得人工智能更好地适应复杂多变的环境和任务,显著提高了人工智能的准确性和有效性。现阶段,由于人工智能的自我学习能力不断增强,其推演逻辑很大程度上突破了人类智慧的边界,人工智能开发者难以基于人类思维对人工智能的决策过程和结果作出完全解释,也即在特定技术条件下,人工智能存在一定程度的不可解释性是其固有特性,不是所有的人工智能及其算法都能进行解释,特别是复杂的机器学习技术越来越先进,训练数据越来越丰富多变的情况下,“可解释性”受技术的限制越发明显。同时,人工智能不可解释性与系统模型的准确性与有效性呈正相关,模型越复杂先进,结果准确性越高,但可解释性的难度相应提高。换言之,系统模型的准确性、有效性与系统的可解释性成反比。无视现有的技术水平追求人工智能的透明度将导致大部分人工智能系统因不合规而无法上市,影响行业的创新发展。

其次,对人工智能系统提出透明度要求存在有损系统安全和提供者、使用者利益的风险。实现人工智能透明性原则的途径是对相关信息如训练数据、算法等的披露和解释。这为投机分子利用算法漏洞达成非法目的或使算法失效,影响相关用户的使用提供了便利。例如在谷歌公开PageRank算法后,很多网站有针对性地嵌入迎合该算法的网页导致一些与用户搜索内容关联性不强或者完全没有关联的网页出现在谷歌搜索结果中。而且,透明度原则所要求披露和解释的内部信息可能涉及企业的商业秘密,这急剧增加了相关信息被竞争对手恶意利用,实施不正当竞争行为的风险,极易造成人工智能系统开发企业利益受损,打击企业创新发展的积极性。

透明度原则的实现并不必然要求对人工智能信息的全部披露和解释,完全透明度的要求是忽视客观现实,极具危险性的做法。完全透明看似可以实现对人工智能系统的更好监督,因为其披露和解释更多的信息,但实际上,这些信息不一定是实现监督和获得信赖所必要的,甚至可能会因为过度的披露和解释造成信息过载而掩盖系统存在的问题。因此,透明度原则的实现存在限度,对于披露和解释相关信息的规范要求应当考虑客观技术限制以及信息接收对象的实际情况,做到真正有效。

第一,透明度原则的实现应考虑现有的客观技术条件,义务主体是否普遍具有履行能力。“法律不强人所难”,法律的道德性要求法律不应当规定法律主体无法做到的事情,立法者应当区分义务的道德和愿望的道德,避免将希望变成义务。无视现有客观技术条件而规定难以实现的信息披露和解释要求,是对相关主体的苛责。当然,为了推动技术的发展,提高整体人工智能系统的透明度,实现对安全、可信赖的人工智能系统的追求,应当发挥法律对主体行为所具有的指引作用。对于立法者所希望达到的更高标准的透明度要求可以通过倡议性规定予以确立,从而引导、鼓励相关主体积极探索研发新技术,规范标记和检查系统变化,进一步提升系统结果可回溯性,提高信息披露和解释的能力。

第二,透明度原则的实现应当根据信息接收主体的不同进行差异性调整。人工智能信息的接收主体可以分为两大类,国家机关和国家机关以外的其他主体。由于国家机关与其他主体在理解、保密能力以及获取信息的目的上存在差异,因而影响信息公开的内容范围和解释要求。其一,不同类型的接收者专业知识储备以及理解能力的差异导致接收者对相关信息解释的依赖程度不同。例如具有专业知识的接收者如审计机构,面对企业所披露的系统的信息,无需将计算机语言进行转换即可实现对该信息的理解;而普通用户由于专业知识的缺乏,对计算机语言直接进行理解存在困难,需要企业以较为形象易懂的方式对相关信息进行解释。同时,接收者的专业程度对披露和解释的信息侧重点存在影响,普通用户更在乎系统的行为或建议的作出理由(为什么)而不是系统的推理规则。其二,不同类型的接收者的保密能力不同。面对用户与公众的信息披露和解释,由于其保密能力远不如国家机关或审计机构,因此需要考虑实现透明度原则与系统提供者、使用者的商业秘密利益间进行平衡,从而确定信息公开的范围。而面对具有较高保密能力的国家机关或审计机构,这种利益平衡缺乏存在基础,因此系统提供者、使用者所披露的信息范围相较普通用户理应更广。其三,由于不同接收者与系统的利害关系、获取信息的目的不同,披露和解释信息的范围也应有所不同。例如以监管为目的的信息披露和解释范围可以涵盖人工智能系统的各个方面,从而保障公共利益;以保障用户知情权、自决权为目的的信息披露和解释则以决策作出的相关数据、算法和考量因素为主要内容。

实践中,透明度原则在监管备案和面向用户和公众的信息公开实践中的规则差异值得关注。《算法推荐管理规定》第24条和《暂行办法》第17条明确指出算法备案内容应当包括“服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息”。以此为基础,互联网信息服务算法备案系统对备案内容进行进一步细分,将其具体划分为主体信息、算法信息以及产品及功能信息三个部分。其中,主体信息包括主体名称、统一社会信用代码、主体类型、注册地以及月活跃用户量等;算法信息分为基础属性信息和详细属性信息,前者包括算法类型、上线时间、运用领域、算法安全评估报告、拟公示内容等,后者包括算法数据、算法模型、算法策略和算法风险与防范机制等;产品及其功能信息包括产品名称、产品的服务形式、服务对象、产品访问地址、功能名称、功能介绍等。监管部门面对人工智能系统的提供者、使用者所披露的信息具有较强的理解能力,但这并不意味着提供者与使用者解释义务的免除,其需要就其备案的内容进行说明解释。我国《暂行规定》第19条第1款肯定了监管部门在检查监督过程中基于监管必要所提出的说明要求,服务提供者和技术支持者应当予以配合,不得以相关信息涉及企业的商业秘密进行对抗。人工智能系统信息的备案范围考虑到信息接收者的理解和保密能力较强以及信息监督的获取需要,较一般信息公开可更为广泛,但这并不意味着相关信息向国家机关的完全披露,其作为一种行政备案理应受到行政基本原则——比例原则的制约。比例原则要求行政机关在采取某项措施时,必须权衡公共利益目标的实现和个人或组织合法权益的保障,若为了实现公共利益目标而可能采取对个人或组织权益不利的措施时,应将不利影响限制在尽可能小的范围和限度之内,保持二者之间适度的比例。因此,人工智能系统信息的备案内容应为实现对系统的监督与问责所必要的,并将系统提供者和使用者的披露和解释负担以及利益受损风险限制在尽可能小的范围。除了比例原则,监管机关节约管理成本也是对信息备案内容范围进行限制的原因。过度的信息披露对监管机关来说是一种负担,同时也造成了监管资源的浪费。

面对用户以及社会公众的信息披露,由于接收信息对象的专业能力差异,需要与实质透明的实现方式即解释披露信息紧密结合,才能实现透明度原则的价值。由于义务主体对人工智能系统信息的解释是建立在信息披露的基础上,因此解释的内容与披露的内容范围具有一致性。换言之,相关主体对于信息向用户与社会公众进行解释的同时也完成了信息公开的要求。因而对信息公开内容的讨论转变为对信息解释内容的讨论。面对用户与公众的解释分为事前解释与事后解释。目前,《算法推荐管理规定》第16条对于事前解释的内容范围有比较具体明确的规定,其要求“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。”该事前解释的信息范围的规定较上述信息备案范围更为简单,仅是对人工智能系统或服务的简要说明,有利于用户与公众对系统形成概括性认识,有效地平衡了社会公众的知情权和相关企业的利益,具有较好的合理性。有关事后解释的规定主要体现在《算法推荐管理规定》第17条中,要求算法服务提供者对因应用算法而受影响的用户依法予以说明,但其对说明的内容以及说明方式并未予以明示。事后解释普遍出现于受影响者对运用人工智能系统所做出的决策存在疑议而要求相关主体进行解释说明。在此种情况下,对人工智能系统的基本情况的解释并非受影响者所关心的内容,他们更多期望得到影响他们切身利益的决策作出的理由性的信息。因而,事后解释的内容应当是有针对性的,是对人工智能系统具体决策过程的相关信息的解释,例如欧盟《人工智能法案》第68c条第一款规定受影响者有权要求部署者就人工智能系统在决策程序中的作用、所作决定的主要参数和相关输入数据作出明确而有意义的解释。基于此,我国法律应当对事后解释的内容予以明确,要求解释的内容应当具有针对性,具体包括决策作出的具体程序、参数权重、相关数据以及其他影响决策作出的关键因素。

第三,透明原则的有限实现应当考虑面向受体的实际效果。透明度原则存在限度隐藏着一个前提条件,即其所披露和解释的信息能够使他人形成对人工智能系统的正确认识,因为一旦这种披露和解释无法为他人所理解或者信息本身是虚假的,也即事实上仍保持“算法黑箱”,那么基于技术限制和利益平衡而产生的透明度限制将失去存在的基础,同时也无所谓透明度原则的存在。因此,在明确透明度原则限度的基础上,应当对信息披露和解释的实效提出要求。

人工智能透明度原则促进了信息向利益相关者的转让,这反过来又成为他们评估人工智能系统是否可信的基础。信息的披露和解释本质上是一种与信息接收者的交流,其要实现的目标是信息的转移。语言哲学家格莱斯的合作原则理论认为,想要实现有效交流需要满足四个条件:数量、质量、关系、方式。鉴此,人工智能系统信息的披露和解释效果实际存在四个维度的衡量标准,即信息的数量、信息的真实性、信息的关联性以及解释的清晰度。信息的数量是指系统的提供者和使用者所披露和解释的信息内容是法律所要求或鼓励,少于该标准将不利于人工智能的监督,多于该标准则容易导致提供者、使用者利益受损以及增加信息接收者的负担。信息的真实性要求系统提供者和使用者不得披露和解释虚假信息、对真实信息进行歪曲解释以及对部分信息进行隐瞒。系统提供者和使用者所披露和解释的信息应与接收者所提要求贴合,这为信息关联性所要求。具体而言,是指面对不同对象,提供者和使用者所披露和解释的信息应当与主体获取信息的目的具有关联性,不得答非所问。最后是对披露信息的解释要求,要做到方式简洁、有效,避免歧义。

我国虽对算法或人工智能透明和可解释有所规定,但在实践中,人工智能透明度的效果参差不齐,并不能完全发挥规范的作用。以互联网信息服务算法备案系统中企业公示的内容来看,不难发现企业采用了包括纯文字解释、图表解释和流程图解释等不同的解释方式。其中,采用流程图或图表等方式的解释能较为清晰、直观地展现人工智能系统的概况,而采用纯文字方式的解释则较为冗长和抽象,甚至有些纯文字解释中对算法基本原理的描述仍存在采用专业术语的情况。解释效果的差异不排除受算法模型的复杂程度的影响,但采用更为直观、具像化的解释方式显然可以达到更好的效果。主管机关应当在有关规定中进一步提出对解释方式和解释效果的要求,引导企业采用流程图、图表、甚至是动画等更为直接的方式对人工智能系统的概况进行解释,如《深圳经济特区人工智能产业促进条例》第71条所规定的人工智能产品和服务的提供者应当采取利于公众理解的方式对算法进行说明,以及《上海市促进人工智能产业发展条例》第16条中明确鼓励相关主体采取公众可理解的方式对算法的基本原理、目的意图等进行说明。与备案的事前解释相同,事后解释义务主体应当采取权益受影响者能够理解的方式对决策作出的缘由进行解释。并且,由于事后解释所面对的是具体的受影响者,其解释方式需要根据信息接收对象的具体理解能力进行灵活调整。


三、人工智能透明度原则需体现分级分类分场景的差异性治理


透明度原则的实现不仅要考虑技术发展与数据保护的因素,考虑不同主体的信息获取的实际需求,而且不同风险等级、不同运用场景的人工智能透明度标准也值得深入探讨。透明度原则是人工智能治理的基本原则之一,但这并不意味着要求所有人工智能系统的开发者和部署者均履行相同标准的透明度义务。一方面,不同类型的人工智能系统具有不同的风险程度,对人类以及人类社会发生损害的概率和损害的严重程度不同。有的人工智能系统具有较高发生损害的概率或带来严重损害后果,如机动车自动驾驶等无人人工智能系统,而有的人工智能系统对人类社会几乎没有影响,如扫地机器人等智能家居系统等。对不同风险的人工智能系统施以同样标准的透明度要求会产生不良影响:若以较低风险的人工智能系统治理需求为标准,将不利于对较高风险系统的监管和公民权益的保护;以具有较高风险的系统治理需求为标准,则对低风险系统的提供者、使用者施加过重义务,既不必要也不经济。同时考虑到制度成本和执行成本,对人工智能进行分级分类治理将成为实践中较为可行的方式。另一方面,不同运用场景的人工智能具有不同的风险治理需求。某些人工智能运用于特定场景具有特定目的,例如,银行的贷款风险评价系统。在此类场景运用人工智能是为了通过挖掘出人类逻辑无法得出的隐形因素,从而更为准确的识别出具有实施某种行为或者具有某种风险的人。将系统的相关信息按照通常标准进行披露和解释会导致信息被不法分子利用从而避免被识别,即人工智能内部信息的披露和解释将会使运用该人工智能的目的无法实现,系统将会丧失其自身价值。

实践中,透明度原则并没有体现上述风险治理的需求。以我国已开展的算法备案为例,我国目前所要求的备案内容是一种普世的、格式化规定,没有根据算法的风险、类型以及运用场景等设定具有针对性、精细化的备案内容要求。例如对个性化推送类等容易引起歧视的算法应当提高对其训练数据来源、算法策略、防范机制等信息的备案要求。又如,由于不同算法的备案内容要求尚未进行精细化区分,为了避免备案主体负担过多的义务而影响行业的发展,目前算法详细属性信息的部分内容例如算法模型的训练数据来源标注为选填,不提供相关信息不会影响备案。这种做法不利于对较高风险的系统进行监管,只能是算法备案制度起步之初的权宜之计。未来,随着算法备案实践的发展,经验不断累积,我国理应根据算法的风险、类型以及运用场景对备案内容提出针对性要求。因此,分级分类分场景对人工智能系统透明度要求进行差异化规定具有现实意义。  

(一)差异化对待系统风险级别

目前,对人工智能系统依风险进行分级治理已经在各国、各地区人工智能法律治理的实践中被广泛运用。欧盟《人工智能法案》将人工智能系统分为不可接受风险系统(也即禁止使用的系统)、高风险系统、有限风险系统和轻微风险系统,并施加不同严厉程度监管措施。对高风险系统的监管是法案的重点内容,其规定了覆盖系统整个生命周期的风险管理体系,对系统的提供者、部署者等施以严格的披露、解释、记录、通知、应急响应等义务,而有限风险系统和轻微风险系统则拥有较高营运自由度。加拿大《自动化决策指令》附录B规定根据算法对个人、群体的权益以及生态环境的影响程度(考虑影响的时间长短和结果是否可逆)将人工智能系统分为四级。我国对人工智能的治理也采用分级的思路,如《算法推荐管理规定》第23条明确规定要建立算法分级分类安全管理制度,对服务提供者进行分级分类管理;《暂行办法》第3条明确指出要“对生成式人工智能服务实行包容审慎和分类分级监管”。但对于分级分类的标准以及对应的监管措施,我国法律尚未予以明确。

借鉴域外的人工智能系统风险分级标准,结合我国现有法律的规定,笔者认为可将人工智能风险分为四级,并根据风险等级的不同对透明度义务要求进行差异化规定,具体如下表所示。I级风险系统是指对个人权益或社会公益、生态环境不会产生或仅有微小概率产生影响并且程度轻微的系统(如扫地机器人等智能家居、AlphaGo等)。II级风险系统是指有一定概率对个人权益或社会公益、生态环境等产生影响,该影响是短期且容易恢复的系统(如信息检索、推荐系统)。III级和IV级风险系统均是对个人权益或社会公益、生态环境有较高概率产生明显、重大影响,III级风险系统产生的影响是长期存在且较难恢复(如自动招生系统、信用评价系统、再犯危险性评价系统),而IV级风险系统造成的影响是不可逆的(如自动驾驶系统)。基于人工智能系统对个人、社会权益以及生态环境的影响概率和程度,对于III级风险系统,应当给予较高的营运自由度,赋予其在系统内部信息的披露和解释要求上享有一定程度的自主选择权,将监管注意力集中于风险较高的人工智能系统;III级和IV级风险系统是监管的重点对象,应当要求其严格履行相关信息的披露和解释义务,确保透明度原则的高标准落实,降低风险发生的可能性,保护个人、社会权益和生态环境。在实践中,为应对复杂的现实环境,解决多种问题,作为整体对外提供服务的人工智能系统可能是多种运用于单一场景的人工智能系统的耦合,或者同一人工智能系统运用于不同场景会出现不同风险。确定这类人工智能系统的风险,出于周全治理的必要,应采取“就高不就低”的方法,根据其所能达到的最高风险确定系统的风险等级,进而制定透明度原则的具体要求。


(二)差异化对待系统类别

对人工智能系统进行分类治理是我国人工智能法律治理的重要思路。目前,我国已对个性化推荐系统、信息检索与过滤系统、智能排序类系统、智能调度类系统和生成式人工智能系统开展类型化规制。对人工智能系统进行类型化规制有利于根据不同类型系统的特性制定有针对性的规制方案。例如个性化推荐人工智能系统的治理重点在于各种因素的权重设置是否合理、是否存在诱导等,其主要目的是避免出现信息茧房、算法歧视等风险。而生成式人工智能系统更多的在于数据以及生成物的合法性、准确性、公平性,避免出现对人格权、知识产权等权利的侵害以及出现生成物欺骗、歧视等现象。除此之外,对人工智能进分类治理,符合敏捷应对技术快速发展的立法思路。面对技术的发展,对人工智能系统进行统一立法规制无疑凸显了法律的滞后性。在统一的人工智能治理通用规定的基础上,根据不同类型的系统特性进行有针对性的立法,有利于对新兴的人工智能系统进行精准规制。

实践中,除上述几类人工智能系统外,还存在其他类型的系统需予以差异化的透明度规制,如决策型系统以及随机型系统等。决策型系统所需履行的透明度义务主要依照人工在决策中的干预程度来确定。人工智能设计和部署等相关主体是否应承担事后解释义务,需要判断该决策的作出是否由人工智能系统起决定性作用。只有在完全由人工智能系统自主进行决策或存在人工干预但决策的主要依据由人工智能系统提供的情况下,才有进行事后解释的必要。而由人工主导作出的决策,则由该工作人员对决策作出的依据和理由进行解释即可,无需涉及对人工智能系统相关信息的解释。随机型人工智能系统通常运用于以抽签方式分配有限资源、彩票号码生成等场景,具有两种特性:“一是结果不能由控制者操控;二是结果不可预测”。面对这种特殊的系统类型,常规的信息披露和解释并无法确保系统的公正,因为即使在系统所使用的数据、算法模型等信息的披露和解释都显示其具有随机性的情况下,而系统操作者可以通过短时间内程序的重复运行来获得预想得到的结果,而这种重复运行因计算机算力的提升成为可能。因此,实现此类系统的透明度需要系统操作者证明其没有进行这种程序的重复。这要求随机型系统在运行过程中同步进行操作日志的记录并确保日志无法被修改或删除,从而通过操作日志的披露来证明结果由系统随机生成而不受操作者的控制。

(三)差异化对待系统运用场景

如前文所述,部分人工智能系统运用于特定场景有通过挖掘隐性信息从而形成准确预测或决策,若对该人工智能内部信息进行披露和解释将会使系统的挖掘行为前功尽弃。在这种特殊场景下,该人工智能的信息公开和解释方式与其他人工智能应有所不同。如何在避免向社会公众披露、解释系统挖掘隐性信息的同时不影响透明度原则的实现是此类人工智能所面临的难题。

就现有的技术条件而言,绕开决策影响因素信息的披露和解释,采用其他方式消除受影响者对决策合理性的质疑存在一定的困难,因为受影响者倾向于通过相关主体对于影响决策的相关信息的解释来判断决策政策是否合理。人工智能系统决策信息保密的必要性与社会公众的知情权存在难以调和的冲突,保持决策信息的非公开将会导致公众的知情权受损,而保护公众的知情权则将贬损人工智能系统的使用意义和价值。鉴此,为保证人工智能系统功能的正常发挥作用,需要对社会公众的知情权作出一定的限制。在解释时,决策者仅需向受影响者证明该系统对所有人适用统一的规则(例如,在相同条件下,任何人都会得到相同的决策结果)以及系统不存在歧视(例如,更改性别得到相同的决策结果从而证明系统不存在性别歧视),除非这种差别对待具有社会公认的合理性(如,收入薪资较低的职业在银行贷款风险评价系统中获得较低评价)。至于决策依据的合法性、合理性问题,将通过人工智能系统提供者和使用者备案义务的履行以及监管机关的审计予以监督和保障,同时也应当赋予社会公众选择人工智能系统决策或人工决策的权利,从而弥补对社会公众知情权的限制。


四、人工智能透明度原则需要知情与监管机制发挥作用


如何推动透明度原则为相关义务主体所实际遵循成为发挥透明度原则价值,实现对人工智能有效治理的核心问题。透明度原则的实现不可能仅仅寄希望于义务主体的自愿、自主行为。人工智能透明度原则的实现需要从社会系统中寻求其运行的支撑机制、资源和可能的实现方式,从而使得原则得以落实。在理想状态中,每个义务主体都被假定具有极高的守法意愿和履责能力,则当相关法律规定明确后,其便会自觉遵循相关规定,无所谓推动制度落实问题。但在现实的市场活动中,每个主体均有其自身的利益,为追求自身利益的最大化是主体行为的最大目标。在义务履行成本和违反成本不对等,即缺少外部监督或其他激励因素时,人工智能的信息披露和解释主体会排除披露和解释某些对于自身而言过于繁重但对公民来说极为重要的关键信息。因此,透明度原则的实现,除期待义务主体的自觉履行之外,外部权力或权利制约就显得尤为重要。基于权利(力)——义务的相对性,透明度原则要求人工智能系统的提供者和使用者对系统相关信息履行披露和解释义务,与其相对的是用户、社会公众的知情权和国家监管权。权利(权力)的实现意味着义务的履行,通过用户和社会公众对知情权的行使以及国家对人工智能实施透明度监管,可以有力推动人工智能透明度原则的实现。

(一)用户与公众知情权的行使

知情权,就广义而言,是指从官方或非官方获知有关信息的权利和自由,就狭义而言仅指知悉官方有关情况的权利。在人工智能治理语境下,用户与公众的知情权属于广义的知情权,具体是指用户与公众知悉、获取人工智能系统相关信息以及影响其权益的自动化决策作出缘由的权利。

知情权是一种基本人权,是人类追求平等和自由的前提和基础。在人工智能领域中,相关信息由于知识壁垒的存在和商业秘密的保护而为系统的提供者和使用者所垄断,这使得原本就因专业知识储备不足而处于弱势地位的用户和公众与系统提供者和使用者之间的地位差距更加悬殊。系统提供者和使用者对这种优势地位的滥用,极易导致出现算法歧视、信息茧房等现象,损害用户与公众的利益。因此,用户与公众的知情权的充分行使和保障,是实现用户、公众与人工智能系统提供者、使用者之间平等关系的延伸,是维护用户与社会公众利益不受损害的必要前提。同时,在信息化的现代社会里,人要实现充分自由,知悉必要的信息是先决条件之一。自由意味着主体能够自行其事,能够自由确定其行为方式,以及可根据自己所执着追求的目标而不是根据别人为实现其意图所设定的强制条件去行动。信息的缺乏将会严重阻碍一个人自决的自由,人工智能系统的提供者与使用者对系统相关信息的垄断,极易导致用户与公众在不知情的情况下,受算法提供的片面信息的误导而作出选择。用户与公众的选择看似基于个人意愿,但这种有意或无意的信息误导,实质上限制了用户或公众的可选项,其本质是使用户与公众处于一种不自由的状态。知情权的行使和保障,使用户与公众有机会获取对个人而言至关重要的信息,从而基于个人意愿而作出理性选择,避免系统提供者和使用者利用信息垄断追求自身利益而损害用户与公众的利益。

作为一项基本人权,用户与公众的知情权要求国家、社会以及人工智能系统的提供者和使用者为用户与公众知悉、获取人工智能系统相关信息提供条件与便利。这种对系统信息的知悉与获取,实际上是对人工智能系统提出透明度要求,对应着系统提供者和使用者的披露和解释义务。透明度原则是透明度要求的原则化、法律化,以系统提供者和使用者的披露和解释义务为内容,是从义务角度对用户与公众知情权的法律保障。知情权与透明度原则的实现均指向系统提供者和使用者的披露和解释义务的履行。知情权的实现意味着系统提供者和使用者对系统相关信息的披露和解释,这也意味着透明度原则的实现。因此,对透明度原则实现的讨论也可以转换为对知情权实现的讨论。

人工智能系统提供者与使用者需要披露和解释的信息如前所述,可以根据内容的详细程度不同分为系统的一般信息以及具体决策作出的缘由。与之相对应,知情权也可以分为一般知情权和重大知情权。一般知情权是对系统的一般信息的知悉和获取,包括浅层披露信息和事前解释信息,从而使权利主体形成对该系统的概括性认识。例如,我国《个人信息保护法》第48条规定了个人信息主体享有的知情权,有权请求个人信息处理者对信息处理规则进行解释说明。重大知情权较为特殊,是指权益受人工智能系统决策重大影响的用户有权要求系统的设计者、使用者等就决策作出的缘由进行披露和解释。这种披露和解释的信息更具有针对性,涉及系统的具体输入数据和参数权重等。《个人信息保护法》第24条规定的“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明”,欧盟《人工智能法案》第68c条规定的受影响者有权要求系统部署者进行解释。

从权利行使角度来看,知情权的实现需要明确其权利的行使主体、行使时间以及行使方式。知情权虽然是一项基本人权,但权利所对应的人工智能系统的提供者和使用者的披露和解释义务即透明度原则的内容如前文所述应当存在限度。因此有必要综合考虑信息披露和解释的详细程度、目的、成本以及义务主体商业秘密的保护等因素,对知情权,特别重大知情权的行使作出一定的限制。这种限制具体体现在权利行使主体的范围、权利的实际取得时间以及权利的行使方式三个方面。首先是权利主体范围的限制。一般知情权所要求的信息内容包括与人工智能的交互提示、对人工智能生成物的标识、系统的基本原理、主要运行机制等非核心信息,不涉及系统提供者和使用者的商业秘密。对此类信息的披露和解释是为了使用户和公众对系统形成一定的认识,避免出现误解和混淆,从而让该系统获得更多的信任和青睐。因此一般知情权的权利主体包括具体用户以及社会公众。重大知情权的内容是对决策的具体缘由的知悉和获取,这涉及具体的数据输入、参数权重等,考虑到对义务主体商业秘密以及具体个人隐私权的保护,其权利主体仅限于受影响的用户个人。其次是权利实际取得时间的限制。自人工智能系统投入运用后,用户与社会公众就有权知悉和获取系统的一般信息。而重大知情权虽有法律明文规定,但用户只有在系统作出的决策对其权益产生重大影响时,才能也才有必要实际取得权利,从而要求系统使用者就决策的作出缘由进行披露和解释。最后是权利行使方式的限制。一般知情权的实现主要依赖人工智能系统的提供者和使用者的主动披露和解释,通常无需权利主体提出要求。重大知情权则需要权利人的积极行使,只有受重大影响的主体向系统使用者提出披露和解释请求后,系统使用者才实际需要向其进行披露和解释。

知情权的实现也需要义务的履行。满足用户与公众的知情权,实现人工智能的透明度,除了人工智能系统的提供者和使用者履行常规的备案义务外,还应在指定平台上根据信息重要性和实效性的要求开展定期报告与不定期的回应性报告。一般而言,用户的透明度要求应高于一般公众,还应设计专门的授权渠道去增强其信息的获取与理解。

从权利维护的角度来看,知情权的实现离不开对权利的救济。在实践中,不论是面对一般知情权还是重大知情权,人工智能系统的提供者和使用者均有可能会怠于履行或不适当履行其披露和解释义务。此时,缺乏对知情权的救济将使该权利流于形式,无法真正实现其对人工智能的监督作用。因此,有必要为用户与公众的知情权提供救济途径。当用户与公众的知情权受损时,用户与公众享有向监管部门投诉、举报,或者向法院提出诉讼,请求国家公权力介入的权利,如《暂行办法》第18条规定了向有关主管部门进行投诉、举报的权利以及《个人信息保护法》第44条规定的向人民法院提起诉讼的权利,从而强制系统提供者和使用者承担相应的披露和解释义务,督促透明度原则的实现。除了传统的公力救济外,系统的提供者和使用者在披露和解释信息的同时,应提供相应的意见平台,以供用户与社会公众对其透明度义务履行情况进行质疑、反馈和讨论,并及时回应他们的疑虑,根据用户与公众的反馈调整自己的义务履行方式从而提高披露和解释信息的质量,保障用户与公众知情权的实现。

(二)国家监管的保障

国家监管是国家机关为实现人工智能产业的有序发展,对人工智能系统的提供者、使用者进行的监督和管理,其背后体现着由国家强制力保障透明度原则的实现。用户与公众虽享有知情权,在一定程度上能够实现对人工智能的监督,但其在市场中处于弱势地位,知情权的实现在某些情况下需要由国家公权力提供保障。并且,个人的能力和理性有限,缺乏国家监管,将监督系统提供者和使用者履行透明度义务的任务完全施加于个体身上,无疑是对用户与公众的信息辨别能力和监督能力的苛求,对人工智能系统提供者和使用者的放任。因此,发挥国家监管作用是推动透明度原则的实现,维护人工智能产业规范发展的重要途径。

通过对人工智能国家监管模式发展历程的梳理,可以将国家监管分为两种模式:基于结果的监管与基于过程的监管。传统监管模式即基于结果的监管是一种事后问责,国家通过立法为人工智能系统运行所产生的结果或影响效果设定违法责任,从事后追责的角度来确保技术应用的合法性。但是随着人工智能不断渗透人类的日常生活以及其从辅助性工具到决策者的转变,这种通过事后问责来间接实现对技术的监管显然无法满足实现安全、可信赖人工智能的需要,国家监管模式逐步向基于过程的监管转变。基于过程的监管是一种预防性监管,国家将实现安全、可信赖人工智能所应具备的要素确定为系统提供者、使用者等主体的义务,通过对义务主体履责的监督和管理,实现对人工智能的有效治理。目前,这种预防性监管是世界人工智能监管的主流方式,无论是对人工智能进行强规制的欧盟,还是为鼓励人工智能发展而采用相对宽松规制政策的美国,其监管方式均为预防性监管。

我国在对人工智能进行国家监管时,也应当考虑技术创新发展的现实与趋势,遵循国家对人工智能监管的规律。正如我国《暂行办法》第3条明确指出的,国家坚持发展和安全并重、促进创新和依法治理相结合的原则,实行包容审慎的监管。在坚持对人工智能进行审慎监管态度的基础上,我国对于人工智能的监管方式可以分为备案、风险评估、算法审计以及问责,而这些监管方式,均是建立在人工智能系统的提供者和使用者的信息披露和解释义务的履行——透明度原则实现的基础上。备案是系统提供者和使用者向国家监管机关披露和解释信息的一种方式。如上文所述,系统信息深度披露的接收者分为公众与国家机关,而提供者和使用者正是通过向监管机关备案的方式实现履行其对国家机关的深度披露义务。在提供者和使用者履行备案义务的基础上,监管机关根据备案的信息对系统进行风险评估以及审计。对于系统提供者和使用者的问责分为两种,一种是没有履行或者怠于履行义务时的问责,另一种是系统的运行出现损害后果时的问责。这两种问责均与透明度原则的实现息息相关,前者是通过法律上的不利后果迫使系统提供者和使用者履行披露和解释义务,后者则是在问责时需要通过对系统相关信息的披露和解释来判断系统的提供者和使用者是否需要承担责任。

因此,我国对于人工智能的一系列监管方式是建立在系统信息披露和解释的基础上,国家在对人工智能系统进行监管的同时,也推动了透明度原则的实现。具体而言,通过备案、风险评估和算法审计对备案内容进行审查,以及通过问责迫使系统提供者和使用者履行义务从而保障透明度原则的落实。目前,人工智能系统的提供者和使用者要完成备案,其内容需符合监管部门的标准,对于信息内容详细程度不符合标准的备案,监管机关会予以驳回。这是对人工智能系统透明度履行状况的初步监督。风险评估是对人工智能系统进行分级管理的前提,以系统对个人权益、社会公益以及生态环境等产生负面影响的概率以及恢复难度为标准,确定系统的风险等级,从而施以不同的监管措施。系统的风险评估需要根据提供者和使用者所披露和解释的信息进行判断,因而风险评估机关在进行评估工作的同时,也是对提供者和使用者披露和解释义务的履行状况的检视,推动透明度原则的实现。在人工智能系统投入使用后,国家通过审计的方式,可预先对人工智能系统的透明度义务履行状况进行监督。算法审计是通过有胜任能力的专业人员对算法进行检测监督,及时发现算法主体(提供者和使用者)滥用算法,以确保算法权力被正当使用。在审计过程中,审计人员应对人工智能系统的提供者和使用者所提供的备案信息、拟公示信息等进行检阅,判断其披露内容和解释方式是否满足法律规定的透明度要求,并视情况要求系统主体予以改正。并且,审计人员在发现问题或存在困惑时可对人工智能系统的提供者或使用者开展问询,要求其就所提问题提供相关数据并进行解释,进而检验提供者和使用者的解释说明能力。透明度原则的实现需要配套相应的问责措施,对不履行或不适当履行透明度义务的义务主体进行追究,要求其承担不利后果,从而迫使相关主体严格按照法律所规定的透明度要求对相关信息进行披露和解释。问责的方式除了监管机关可作出行政制裁,如罚款、责令其限期改正等之外,还可以采取类似于市场监督部门对不诚信商贩进行黄牌警告的信用惩戒措施,向用户以及社会公众提示该人工智能系统提供者或使用者没有遵守透明度原则的义务要求,从而以降低用户对系统信任度,使该系统在市场竞争中处于不利地位。

为进一步推动透明度原则的实现,发展安全、可信赖的人工智能,笔者认为还可以考虑将透明度原则进一步融入风险评估、审计等国家监管措施的设计之中。首先,通过将算法模型的可解释性纳入风险评估影响因素中,激励企业开发或使用具有较好的可解释性的算法模型,从而促使人工智能透明度原则在开发设计阶段受到重视。如前文所述,系统的提供者和使用者落实透明度原则的可能状态或预期水平可通过算法模型的可解释性来衡量。因此,在风险评估过程中,应适当考虑人工智能系统模型的可解释性,确定一个系统的具体风险等级。不同风险等级意味着轻重不同的义务以及监管强度。值得强调的是,将系统模型的可解释性纳入系统风险评级中,可能会迫使企业选择具有可解释性但准确性较差的算法模型,这在一定程度上会对人工智能产业的发展产生一定的限制。因此对于模型可解释性优劣的判定应当考虑客观技术限制,以市场上同类系统模型的普遍可解释性水平为标准。例如同样是信息过滤系统,若A系统的可解释性劣于市场上同类系统的普遍水平,则应当考虑提高A系统的风险等级,因为其预计可实现的透明度水平较低,将影响监管机关以及用户对系统的理解,提高监管和监督的难度,具有较普通同类系统相比存在更高的风险。其次,将可解释性引入审计监督的指标中,对可解释性较差的系统进行更为频繁的审计监督,从而倒逼系统提供者和使用者为减少合规成本和审计压力而进一步完善系统,提高系统的可解释性,推动透明度原则的实现。除了系统模型本身的可解释性应作为审计监督的指标,成为决定审计频率的标准之外,用户以及公众对于系统提供者和使用者所披露和解释信息的满意度也应作为决定审计频率所应当考虑的因素,从而激励提供者和使用者重视用户和公众的诉求,不断提高透明度义务的履行水平。审计监督贯穿系统创造、更迭的全过程,人工智能系统的审计监督,并非一劳永逸,监管机关应根据系统的风险等级变化、更新迭代、前次审计情况等因素引起的透明度问题的关注实施动态跟踪审计。


结语


人工智能技术的创新发展既带来了机遇,也面临着有效治理的挑战。世界上没有不出故障的技术,正如世界上没有完美的人。如何管理和规制人工智能成为信息化时代的重要课题。面对人工智能技术应用所带来的负面影响,我们应当始终坚持以人为本的立场,对人工智能实施有效的监督与管理,发展安全、值得信赖以及负责任的人工智能。作为对人工智能进行有效监管的前提与基础的透明度原则,理应成为人工智能法治化建设的出发点和着力点。在价值层面上,透明度原则的规范要求既包括人工智能系统相关信息的披露,也包含对披露信息的解释,已达到理解和防控人工智能风险,维护人类认识福祉的目的。从某种意义上来讲,信息披露与信息解释具有统一性,人工智能系统的可解释性是衡量系统透明度的标准之一。在实践层面,应当承认追求人工智能透明度对技术的发展并非百利而无一害。想要有效落实透明度原则,发挥透明度原则对人工智能治理的积极作用,就需要在技术运用的宏观社会结构中把握技术发展创新与法治化的关系,明确透明度原则的限度,落实分级分类分场景的透明度要求,通过用户与公众知情权和国家监督权的行使,推动透明度原则的法治化实现。


作者简介

张永忠(1978),男,广东饶平人,管理学博士,华南师范大学法学院教授、博士生导师,研究方向为经济法、信息通信法学。


本文原载《政法论丛》2024年第2期。转载时请注明“转载自《政法论丛》公众号”字样。

政法论丛
《政法论丛》是由山东省教育厅主管、山东政法学院主办的法学类专业学术期刊。本刊坚持正确的政治与学术导向,传播和吸纳国内外优秀的法学研究成果。是CSSCI中文社会科学引文索引来源期刊、全国中文核心期刊、中国人文社会科学核心期刊。
 最新文章