张新宝 魏艳伟:我国人工智能立法的基本问题

学术   2024-11-13 10:40   江苏  

我国人工智能立法基本问题研究

作者:张新宝,中国人民大学法学院教授;魏艳伟,中国人民大学法学院博士研究生。

来源:《法制与社会发展》2024年第6期。

为塑造法学学术前沿微信公众平台的风格,微信推送的外标题系编辑根据文章理解所加,不代表作者立场。


  摘  要  


我国人工智能立法需要解决立法目的、立法技术进路和主要利益关系等方面的基本问题。这一立法应以发展与安全并重为指导思想,以促进研发应用与防范主要风险为二元立法目的,构建具有体系性的发展促进制度,明确赋能增效的正面激励规则和提供减负支持;构建重点突出的风险防范制度,动态科学研判风险、包容审慎规制风险。立法在技术进路上,应以实现体系化立法为基本方向、以优化立法层次为当前主要目标;发挥显现国家法治发展能力的立法特色;适用以搭建框架型秩序为准的立法技术,增强立法的体系性和协调性。立法在主要利益关系方面,应坚持以人为本的基本立场,建立反歧视、权益保障、数字教育和数字信息获取等方面的规则;应建立与人工智能发展相适应的个人信息处理、知识产权保护等方面的协调规则;应建立并维护主体多元、利益分化、市场开放的人工智能竞争秩序;应在积极开展人工智能治理的国际合作、提升反制水平中,稳步推进人工智能涉外法治。

关键词:人工智能立法;风险治理;体系化立法;利益关系;以人为本


  目  次  


引   言

一、二元立法目的

二、立法技术进路

三、主要利益关系与制度设计

结   论



引  言


当前,我国人工智能步入了以大模型开发为主导的发展阶段。在国家战略引领下,我国人工智能产业构建了以应用需求为牵引、立足自主创新的完整技术体系和产业创新生态。面对全球日益激烈的人工智能治理之争,我国一直高度重视构筑人工智能领域的规则优势,早在2017年《新一代人工智能发展规划》提出的“三步走”的战略目标中就明确了立法步调,近几年来,国家立法规划和工作计划也持续布局人工智能领域立法。2024年3月13日,欧洲议会审议通过了全球首部人工智能监管法规《人工智能法》(EU AI Act)。该法案以防范人工智能风险为主要定位,标志着全球人工智能监管新浪潮的到来,也掀起了对人工智能监管路径选择、方案建构的新一轮讨论。

综合来看,当前,我国已初步具备并不断积累人工智能专门立法的一定基础。在治理规则方面,我国已初步形成了以国家政策文件为引领,以网络信息等领域立法为主体,以针对“生成式人工智能服务”“深度合成”“算法推荐”等问题的部门规章、地方性法规和国家标准等为枝干的规则框架,具有一定相关制度上的立法准备。同时,国内学界就是否对人工智能进行专门立法已达成初步共识,涌现了大量对人工智能治理问题(目标、原则和方法等)和部分对人工智能立法问题(立法定位、法律属性和制度架构等)的讨论研究,并已出现了两部人工智能立法建议稿,具有相当的理论储备。

尽管关于人工智能的统一立法呼之欲出,但面对技术控制的科林格里奇困境(Collingridge's Dilemma),如何让我国的人工智能立法更好地适应技术的动态发展、产业迭代、风险治理的不确定性以及背后复杂的利益关系等,仍需要进一步研究。基于此,本文立足于我国国情和制度特点,对当前人工智能立法在立法目的、立法技术进路以及主要利益关系等方面的基本问题进行研究,提出学术建议供参考。

一、二元立法目的


(一)坚持发展与安全并重的二元立法目的
习近平法治思想指出,既要善于运用发展成果夯实国家安全的实力基础,又要善于运用法治方式塑造有利于经济社会发展的安全环境。发展和安全是数字经济的根本支柱,作为辩证的整体,安全是发展的前提,发展是安全的保障。“统筹发展和安全”是我国当前科技法治的重要目的和原则,对于我国人工智能立法具有根本意义。
我国人工智能立法应当以习近平新时代中国特色社会主义思想特别是习近平法治思想为指导,以统筹发展与安全为基本遵循,不宜以单纯的风险防范为单一的立法目的,而应以促进研发应用与防范主要风险为二元立法目的。首先,在全球人工智能竞争格局下,促进发展与防范风险实为秉要执本的一体两面,发展即最优和最稳定的风险防范路径,风险防范亦是发展的底线要求,二元立法目的是契合我国人工智能治理需求的价值定位。其次,面对人工智能技术发展和风险样态的高度不确定性,仅凭借单一的风险管制式立法或产业政策激励立法,都无法有效应对颠覆性技术带来的挑战,立法应当在尊重人工智能科技进步、鼓励创新的背景下,通过法律规范的合理预期引导人工智能发展的方向和限度,发展激励和风险治理应当协同互补。最后,我国在人工智能领域,既有技术先发优势,亦有国家制度优势,将促进发展作为人工智能立法的基本目的之一,有利于发挥立法在增进科技治理和产业发展政策的效能、激励科技成果转化、推动关键要素供给方面的体系性与规范性优势;同时,将防范主要风险作为人工智能立法的基本目的之一,是“以人为本”理念下保障公民合法权益的必然要求,既符合法律作为传统风险控制手段的特性,也有利于在非传统风险领域中引导建构相应的动态敏捷治理范式。
(二)“发展”:促进研发应用
1. 构建具有体系性的发展促进制度
作为发展数字经济的主要路径,人工智能创新发展需要建构切合产业特点、回应实践需求的促进制度,其应当具备一定的体系性。第一,促进制度大致体现为“赋能”与“减负”两个方向,即人工智能立法一方面应当规定正面激励人工智能研发和应用的制度,另一方面应当提供包括减少合规成本、适当在税收上给予扶助等在内的减负支持。第二,促进制度应当考虑人工智能产业的分层业态特点以及产业链的结构和价值属性,能够涵盖数据、算力、模型、硬件、应用场景等关键要素和环节,既包括宏观机制上国家机关对人工智能科技资源的供给和合理配置,也包括具体制度上对关联利益主体的权益保护、协调和行为激励。第三,在具体的制度设计上,促进制度应当在吸收国内外科技激励法治有益规则的基础上,基于人工智能科技的特点和治理需求来探索、适用开放性的新制度。
2. 赋能增效激励
具体而言,正面激励措施主要包括:
第一,构建数据、算力、算法和模型等基础要素和技术以及关键软硬件研发等方面的基础设施保障制度和创新发展规则。明确各级政府机关应科学制定人工智能发展规划,建立和完善相关宏观协调机制(如设置专门机关等),合理配置人工智能科技资源,促进重要科技资源(如公共数据、开源模型等)开放共享,推动产学研深度融合。
第二,专门制定促进人工智能创新与科技成果转化的税收优惠政策和规则。一般而言,包括丰富税收优惠方式、推动税收优惠环节前置、建立风险投资上的税收激励机制、加强对中小型创新企业的税收激励力度等。除此以外,也可以对人工智能公共利益属性明显的特定环节(如安全治理、开源研发)等提供一定的税收优惠激励。
第三,加大对人工智能领域基础科学研究和应用技术研发方面经费的财政补贴。例如,对特定领域内安全可靠的人工智能应用提供政府采购支持,同时拓宽增加科技投入的渠道和方式,例如允许技术研发机构向社会募集资金,鼓励设置各类科学、创业与创新基金等。
第四,在人才培养与激励层面,建立合理的科技奖励法律制度,提升国家与地方各级政府对科技人员和转化人员的评定机制和激励水平,推动相关科研单位对科技成果转化人员激励措施的规范化,健全科技成果转化奖励方式(如股权奖励)等;加强人工智能领域高端人才的交流引进,完善人才服务保障机制;明确并保障科技成果的知识产权归属,丰富人工智能科学技术成果转化途径,简化科研单位和科技人员转化科技成果的程序,优化科技成果转化效益的分配方式。
此外,还可以基于特定目的综合应用上述措施,例如支持应用于公益领域的人工智能的研发,加大对中小型创新企业的激励力度等。同时,应支持引导适应人工智能治理需求和特点的新型机制,包括以技术促进技术发展等,如开发人工智能保险产品,推进人工智能在政务服务等领域的示范应用,建设人工智能应用场景联合研发平台,建立人工智能需求响应平台等。
3. 提供减负支持
人工智能立法应通过明确相关主体的权利、合理设定相应的义务和责任规则、丰富包容审慎监管工具以及鼓励引导行业自治等方式,降低研发主体等的合规成本。除税收抵免等具体优惠措施之外,减负支持主要体现为:首先,人工智能立法应合理界定规制范围,明确相关主体的权益、义务和(尤其是研发环节的)相应利益协调规则,减少研发主体在研发过程中不必要的义务门槛。其次,研发应用环节相关主体的义务和责任应当成比例,与其权益和控制能力相称。最后,善用包容审慎的监管工具。例如,利用监管沙盒制度,通过在开发和投放市场前建立受控的实验和测试环境,双向加强研发应用主体和监管机关对人工智能应用的利益、风险和影响的理解,从而促进人工智能创新。
(三)“安全”:防范主要风险
1. 构建重点突出的风险防范制度
“安全”同样是人工智能立法的重要目的。一般而言,“安全”至少涉及个人利益、公共利益和国家利益等维度的考量,包括国家安全、公共安全(程度上可进一步区分为重大和一般等)、非公共安全等分类。人工智能立法在安全目的上的最大挑战即建构风险治理规则,然而人工智能风险不限于传统可计量的物理风险,其具有高度的不可预见性,故立法不能寄希望于“毕其功于一役”实现对人工智能风险的完整规制,而应构建重点突出的风险防范制度。第一,风险防范制度既要基于“风险”本身的性质出发,考虑风险的发生概率、危害范围和程度等,也要考虑风险的事前和事后规制效益,合理配置义务和责任规则。第二,应基于人工智能研发和应用的特点,既要明确当前需重点防范的风险,同时也要动态开放地研判、防范新的潜在风险。第三,“安全”目标的实现,并非旨在百分之百地规避风险,而是旨在将风险控制在合理的范围内,故风险规制应从单一的具体风险管控,转向促进多元主体协同治理、风险有效分级分类规制、全周期治理和形成有效的可问责机制。
2. 动态科学研判风险
在法律语境中,“风险”一词通常被限制于“科学”证实的范围内,因此,过去法律重点聚焦于健康、环境等领域的“物理风险”,并形成了稳定的调整范式;但人工智能等数字技术的发展,改变了(或者说延展了)传统“物理风险”的范围、程度甚至样态,如产生更难以控制的公共风险,且这种变化是动态的。同时,人工智能发展并非简单线性的,其中最复杂的并非没有人类参与的技术,而是深深嵌入相应人类网络的技术,换言之,人工智能风险存在相当的伦理化趋势。
由此,人工智能立法应明确当前需重点防范的风险,同时设置有利于动态开放识别、防范新风险的规则接口。第一,人工智能立法应当对危害国家安全、公共安全的风险以及违反公序良俗的伦理风险等进行研讨和界定,设置专门的制度进行防范,提升预防风险与化解风险的能力。第二,人工智能立法应当设置预防人工智能风险的通常基准,明确关于人工智能的稳健性和网络安全水平的一般规则和基本要求,以及通过后续立法等对人工智能安全的标准化要求,增强系统与应用的安全性与可靠性。第三,基于人工智能与产业发展融合并为高质量发展提供新动能的实践特点与需求,人工智能立法可以设定不同领域或场景下的一般规则或基础风险防范要求,以及为加强对潜在风险的预防能力,对于系统性风险等新的潜在风险,人工智能立法可以留予一定的授权立法口径。
3. 包容审慎规制风险
欧盟《人工智能法》基于风险分类的监管逻辑,根据风险发生危害的可能性和程度,将人工智能的相关对象(包括实践、系统和模型,并以系统为主要规制对象)分为禁止的人工智能实践,高风险的人工智能系统、特定(意图与自然人直接互动的)人工智能系统和其他人工智能系统,以及通用人工智能模型。除禁止具有不可接受的风险的人工智能实践外,欧盟《人工智能法》主要针对高风险的人工智能系统实施上游治理,规定了严格的审查要求以及事前、事中和事后的规制义务等,对高风险的人工智能系统以外的人工智能系统仅规定有限的合规义务或允许自由开发使用,同时对通用人工智能模型规定了特定的风险防控规则。当前,国内学界对欧盟风险监管方案不足之处的讨论主要包括:一是认定标准和监管成本过高,二是针对人工智能系统、通用性大模型的一体化分类不符合人工智能风险治理的特点,三是整体上风险防控方案不够全面充分且责任部分失衡。
对人工智能技术风险存在技术主义和制度主义两类认知方式。技术主义视角更侧重于人工智能风险和人的互动过程,主张关注风险于应用中的场景化特征;制度主义视角更关注风险与基于组织的决策、行为之间的内在关联,更偏向于整体上的全面横向监管。欧盟的风险监管方案明显体现出了制度主义视角下全面横向强制性监管的特征,当前对此风险分级分类方案的批评意见也多基于对此方案效能的质疑或主张风险场景化治理的偏好。相较于欧盟的风险分级分类方案,当前国内专家学者起草的两部人工智能立法建议稿都试图建构更符合我国国情的风险分级分类方案,在分级上主要采用更为宽松的两分思路,同时,在分类上还考虑对特殊应用场景予以特别规定,体现了既具备宏观协调的统一规制规则,也考虑重点领域和应用场景的风险规制立场。
总体而言,为打造可审核、可监督、可追溯和可信赖的人工智能技术,我国人工智能立法在风险规制上应当坚持包容审慎的态度:第一,风险治理无法仅依赖于行政监管,而应当以多元主体协同治理为准,构建以政府监管为主导、行业企业自律、社会协同参与的多元治理体系,故除必要的监管规则外,应更多鼓励行业制定更及时和敏捷的自律规范、标准,公开有利于企业自我合规的示范性案例等。第二,科学设置风险分级分类管理规则,动态科学研判风险,明确对重点风险的监管要求,并且通过科技伦理审查、强制性风险评估或管理备案、动态监测预警和响应等机制,强化对风险的动态敏捷监管。第三,遵循人工智能全生命周期治理的逻辑,引导全流程中相关主体的风险管理应对机制的建立,并且针对人工智能应用的特点,加强相关主体对投入市场后的人工智能应用的监测管理义务。第四,尽管受预防性法治理念影响,相较于事后救济,对数字技术风险的规制更关注事前预防,但在事前规制机制以外,还应当建立有层次的问责机制,设立专门机关增强监督效能。同时,综合使用软硬法手段,不同人工智能义务主体承担的责任应当与其投放人工智能的目的、其对人工智能的控制能力、人工智能涉及领域等相称,从而合理设置责任和留予适当的责任豁免空间。

二、立法技术进路


(一)“人工智能法”的立法层次
综合考察当前全球人工智能领域的立法实践,以欧盟为代表的统一监管立法模式,通过更具体系性的规范内容和由专门机构统一监管等方式,实现对人工智能领域的整体规制;而以美国为代表的以创新驱动为基准、主要依靠软性规则引导市场主体行动的模式,则主要依赖较为分散的各类法案实现对人工智能重点场景或相关问题的专门治理。为构筑人工智能发展的制度优势,我国应当在人工智能这一新兴领域实现立法的体系化,而在立法技术上,跨法律部门的领域性立法,需要具有整体性、符合多元治理方向的立法设计。相较于欧盟体量庞大、过细过严的《人工智能法》,当前我国人工智能立法并不追求一次性形成囊括所有人工智能问题的“大而全式”的法律,而应当考虑,如何推动形成立法层次合理的规则框架。
关于我国人工智能领域的立法布局,当前主要有如下五类观点:(1)主张人工智能立法分为两个层次,基础层次为具有公法面向的国家安全、网络安全和个人信息保护等现有涉及人工智能关键要素的立法,第二层次为基础层次之上的人工智能法内容层次。(2)主张人工智能立法应遵循现有的科技法制框架,形成包含科技市场法、风险管制法和科技政策法在内的专门科技立法层,以及针对应用领域和功能的人工智能具体应用立法。(3)主张人工智能立法应为包含风险规制、产业促进、技术标准三个层次的领域法,形式上表现为,以基本法(以风险规制为主要内容)为主体,以产业促进法和技术标准法为分支。(4)主张人工智能立法应按照“总—分”式层次,现阶段应先行制定具有统领性、总纲性的人工智能法律总则。(5)主张人工智能立法包含产业促进法和风险治理法两组规范类型,前者包括市场法和政策法两个方面,后者包含人工智能科技、人工智能要素和人工智能应用三个基本层次。前述观点在人工智能立法基本范畴上差异不大,基本都认同人工智能立法至少应当包含产业促进和风险治理两个方面,但在具体层次或构造上有所不同。若不拘泥于如何划分具体的立法文本,前述建议皆可以为规则的体系化提供一定参考。
目前,我国对于新兴科技问题的治理具有较明显的治理事项分散、专门规则急用先行且层次不高(多为部门规章)的特点,这既是科技立法需面对的适应性和连续性挑战,也是应对技术更新、产业迭代等带来的不确定性时的慎重使然。由此,也释放出现阶段人工智能立法最大的需求,即优化立法层次,统合并协调涉及人工智能要素的已有规范,为人工智能领域的立法体系化提供具有方向性的基本规则,同时厘清人工智能治理的本质逻辑。由此,现阶段拟制定的“人工智能法”一方面应当具有一定的统一性和专门性,能够明确人工智能法律规范的基本范畴、统合人工智能治理的基本需求,另一方面应结构科学、内容适当,能够为后续立法或进一步细化规则提供指引和充分的调适空间。具体而言,“人工智能法”应当是我国人工智能领域的基本法律,旨在定基调、明方向,仅对立法目的、调整对象、基本原则、重要制度以及一般规则(包含权利、义务和责任)等基础性问题予以明确,具体的细节制度应在时机成熟时、实践检验下通过行政法规、部门规章等规范性文件以及国家标准等确定。
(二)“人工智能法”的立法特色
现阶段,全球人工智能治理处于从软性规则治理转向硬性规则建构的浪潮中。欧盟在成文立法上的积极态度与“领跑”身姿,包含了其对在人工智能领域借由规则制定能力再现数据领域《通用数据保护条例》的“布鲁塞尔效应”的期待;但鉴于其立法对人工智能技术创新发展的限制程度,现阶段似乎难以实现其旨在通过法律理念、法律制度上的潜在影响形成的超国家法律效应。除此之外,美国、新加坡等国家以及地区尚未出现综合性或全面性的立法文本,仍以政策、文件或软性规则为主。就本质而言,立法与否以及如何立法是一国法治发展需求和能力的问题。我国在人工智能技术发展上具有一定优势和影响力,在已有制度基础和理论储备上显现出综合性立法之可行性。人工智能立法在建构治理规则、制度等时,应当融通本国自主知识体系和部分国外经验资源。现阶段拟定的“人工智能法”,可以发挥显现我国当前法治发展能力的立法特色,具体而言,体现为以下三方面:
第一,现阶段拟制定的“人工智能法”,应当旨在解决深嵌于中国本土社会的人工智能治理问题,体现中国特色的法治理念。发展与安全并重是对中国人工智能治理需求的精准概括。因此,不同于以防范风险为主要目的的强监管立法路径,也不同于以市场理性为主要工具的弱立法路径,我国人工智能立法应当充分发挥本国的制度优势和已有的通过法治激励科技的经验,探索建立和完善具有体系性的发展促进制度。在防范主要风险的问题上,我国人工智能立法亦应充分考虑本土社会语境。例如,在国家安全方面,生成式人工智能领域的技术渗透风险以及现代数字技术和资本的紧密结合,会在生成式人工智能技术的价值预设、传播以及应用过程中给国家意识形态带来安全风险,立法应当关注构建保障主流意识形态安全的机制。再如,我国在科技应用综合治理思路上有高度的“以人民为中心”的追求,针对大众关切的问题和领域,形成了未成年人互联网特别保护、一键关闭算法推荐服务、深度合成生成内容标识义务等制度。人工智能立法应当继续坚持以解决人民的直接、现实利益问题为实践路径,吸纳、提炼和建构适应本土治理需求的规则和制度。
第二,现阶段拟制定的“人工智能法”,应当在本国产业和技术实践需求、实在法体系与规范的牵引下,立足于中国自主的法学知识体系,同时适当将域外的法律实践经验作为研判本国问题的一定论据。在中国自主的法学学科体系的自我革命和自我完善过程中,数字法学等新兴“领域法学”学科,具有对应法治实践不同领域的“实用性”,显示出从“部门法学”向“综合法学”发展的转变。“人工智能法”作为新兴领域立法,在立法背后的知识供给上,同样应定位于领域法学的特点,以问题导向和目标导向为主,回应如何引导人工智能发展和如何因应人工智能冲击的双向挑战,并且适应我国已有的网络治理、个人信息保护、数据安全保护等方面的法律制度。同时,一般认为,法典化、体系化程度较低的部门法(或领域法)往往受比较法的体系约束更弱,即不会特别偏向于已有的成文法文本,而更多功能性地观察动态的法律和实践,与其说依赖形式论据上的借鉴,毋宁说利用域外法治中有用的分析框架。例如,过去我国在个人信息保护领域,就于防御性的隐私权和支配性的个人信息自决权的传统路径中,建构了适宜本土、平衡个人信息保护和数字经济发展的个人信息保护制度。人工智能立法在规则设计上需要平衡共性和个性之间的关系,即以中国实践经验为基础,通约具有相同特质的认知、判断和行为方式,沉淀和明晰适宜本土的个性规则。
第三,现阶段拟制定的“人工智能法”,应当具有国际视野、彰显本国理念,释放出规则形成在人工智能治理上的域外效应。就具体规则而言,受限于现实要求、效力层级等因素,当前已有规则针对的仅为在中国境内提供相应服务的情形,而“人工智能法”应当在相应规定中合理扩大域外管辖范围,以增强规则的域外效力。此外,释放出我国人工智能立法的域外效应,并非指刻意地推广法律制度和理念,而是以法律制度层面的包容性为基准,发挥我国在人工智能科技实力、市场体量以及企业影响力等方面的优势,在积极参与国际规则制定的同时,促使国际性大企业等主体改变过去以西方规则为主的合规策略。在人工智能发展的不确定性前,治理规则同样形塑于主权国家间的平等互动。对于发展人工智能,立法应当坚持以人为本、智能向善的立场,通过推动人工智能能力建设方面的国际合作、加强面向发展中国家的合作与援助等,促进技术和价值观上的相互理解。
(三)“人工智能法”的立法技术
“人工智能法”的立法技术,应既体现对一般意义上构建人工智能领域法律秩序的考量,也包含对具体规则的结构安排、概念选择、语词使用等的斟酌考虑。一般而言,粗放型立法技术有助于快速构建框架型秩序,而精细化立法需要更长期、反复的立法实践,适用于构建更高程度的类型化行为模式。鉴于人工智能立法的实践需求和技术条件,当前立法处于构建框架型秩序以使人工智能在一定方向和合理限度内发展的阶段。面对人工智能发展的巨大潜力和潜在风险,一方面,应当慎重考虑如何从初期的软性规范过渡到硬性规则,以真正构建人工智能发展的基本秩序;另一方面,此种外部秩序的构建,应当从技术发展不确定性的前提预设出发,旨在提供最基本的制度环境和可预期的信息支撑,从而为数字社会留予合适的发展空间。框架型立法下规则的修改成本往往会更高,故更需要发展具备动态性和弹性空间的条款。当前人工智能立法的难题同样包含立法技术上的挑战,制定“人工智能法”应当注意以下三方面:
第一,“人工智能法”应当凝练实质法律问题。数字社会发展会产生新的治理需求和模式。过去,与人工智能问题相关的立法实践和研究范式大多集中或定位于数据、算法以及特定应用场景,多利用急快灵的小切口立法;但当前体系化立法的定位意味着,需要在更宏观、统一的视角下建构人工智能治理框架,而非亦步亦趋地回应每一个新兴技术。立法应善于在已有的立法资源中识别、提炼或吸收成熟的原则和规则,同时适当借鉴域外成功经验。
第二,“人工智能法”应当着力于实现有效的规范性指引。当前,人工智能立法的重点在于提供基本的指引和预测,需要明确技术内涵、安全要求以及可以融入法律制度的伦理基础等,立法行文、措辞应当明确、有针对性。在立法的陈述体系中,概念的一般性与概念特征的融贯性程度正相关。一方面,人工智能立法中存在法律概念界定上的问题,这一点对建构我国数字法学话语体系亦有重要影响。最基本的问题是,如何基于人工智能的本质属性和核心特征等明确“人工智能”的法律定义?人工智能的法律定义会明确法律规范的适用范围,影响法律秩序的涵摄范畴。例如,欧盟《人工智能法》利用了“系统”“实践”“模型”等属性表述,加之对关键特征(如自主性、适应性等)的描述,意图在大的法律框架内实现对专用人工智能系统和通用人工智能模型的分别规制。目前在我国,“人工智能”这一词汇的语用驳杂,缺少一致的法律定义。然而,法律定义并非一味追求教义学上的精准,关键在于能确立恰当的概念外延,故需要在内在逻辑、谱系脉络、价值理念和现有立法素材中作有效梳理。法律定义的选择可以形成界分“人工智能法”与关于人工智能相关要素的法律规则的实质性标准。而对相关(义务)主体的概念选择或建构、定义,亦是如此。另一方面,对相关主体的权利、义务以及责任的设置应当比例相称,在考虑人工智能发展业态和传统的监管机制之间衔接效率的同时,基于相关主体既是规制对象亦是激励对象的特点,明确不同技术风险类型、强度下的主体义务。
第三,“人工智能法”应当体现立法的体系性和协调性。一方面,立法的体系性意味着,“人工智能法”应当在统合人工智能的研发和应用过程以及各类关键要素等的逻辑下,形成以人工智能治理为核心的规则框架。人工智能领域立法涉及网络安全、数据、算力、算法和实践应用等多个方面,并关系到个人信息、数据、算法、深度合成、生成式人工智能等领域的诸多已有规则,故当前的“人工智能法”应当从人工智能的属性和特征出发,以识别、建立人工智能治理逻辑下的规则为核心,对于跨领域的特性下不可避免地涉及到的仅与人工智能某一要素有关的规则,妥当适用援引的立法技术,在减少法律的不确定性的同时,避免法律规范无用的重复。另一方面,立法的协调性意味着,应考虑人工智能治理实践的特殊需求,尤其是在牵涉到与在先权益保护规则的协调问题时。例如,当前,对于人工智能数据训练阶段的数据获取问题,刚性适用现有的个人信息保护、知识产权保护等方面的规则,可能会对人工智能的研发应用质量的提升构成法律障碍,且此等障碍亦并非在利益衡量的基础上保护私人权益的最佳方式,故仍应通过建构例外规则或特别规定等方式,协调平衡不同利益主体之间的关系。此外,“人工智能法”作为领域性立法,会横跨传统部门法,而法律规范的横向衔接效率亦是法律融贯性之重要基准。例如,涉及人工智能的部分责任规则可能会体现在其他已有的精细化立法(例如民法、刑法等)以及之后续造的细节性制度中,因此,应尽可能保持法律语言的一致和通顺,降低法律适用成本。

三、主要利益关系与制度设计


(一)坚持以人为本
“以人为本”是我国对人工智能发展的基本立场,其应当是贯穿我国人工智能立法始终的价值目标。在过去以软法为人工智能治理主要路径的阶段,以人为本的人工智能(Human-Centric Artificial Intelligence, HAI)是全球通行的人工智能治理原则,亦被表述为人工智能发展的核心伦理原则。其通常包含两方面:一是,人工智能发展的本质目的应当是服务人类、尊重人类尊严和个人自主权;二是,人工智能的运行方式应可由人类适当控制和监督。其隐含了两条实施路径:一是,人工智能的设计、开发和应用的内部过程应当合乎伦理和法治;二是,应当通过外部的硬性法律规则或软性规范以及相应的审查监督机制等,使人工智能的发展过程可被人理解和控制。
“以人为本”的理念对于人工智能立法基本原则的确立具有重要意义,无论是以权利保护为基准的治理原则,还是以满足应用领域的实质需求为基准的治理原则,本质上都要求人工智能发展的实质目的是增进人类福祉,都要求人工智能以可持续和环境友好的方式被研发和应用。当前国内学界发布的人工智能立法建议稿在基本原则设计中,大多参考了伦理治理路径下对于建立可信赖人工智能的原则性要求,如公平公正、公开透明、可解释、人工可控、安全、可问责等。同时,鉴于人工智能伦理融入法律的路径包含软法化方式以及利用关于共同体伦理的自我规制机制,“以人为本”作为伦理原则的展现,还会被直接填充入人工智能法,典型如被直接规定为一项原则和关于绿色原则的规定等。
同样,在个人与自动化(或自主性)机器及其背后的利益主体之间,存在愈发巨大的数字信息、资源和技能上的差异,进而产生公平、非歧视以及弱势群体保护等层面的问题,人工智能立法应关注这种差异和背后潜在的社会风险。当前学界也愈发关注技术、伦理与法律之间的融贯性规则的建构,尤其是凝结内在体系中价值理念的一般原则,应当具备真正的可操作性而非仅停留在价值宣示层面,即原则的规则化问题。由此,在“以人为本”的理念下,人工智能立法至少还应具备以下三方面的规则设计:
第一,人工智能立法应建构应对算法歧视等长远、隐蔽的伦理风险的规则。相较于人类主观意图造成的显性歧视,人工智能算法等造成的隐性歧视将会产生更大的伦理风险。因此,在确定公平公正的基本原则的基础上,还须设立有效的反歧视机制规则,包括明确针对人工智能算法歧视的审查机制,在风险影响评估等中增强歧视识别基准的可用性,如动态建构差异化的受保护特征清单等,在后续的细节制度或示范性流程化规范中都应贯穿此价值要求。
第二,人工智能立法应当在切实保障相关主体合法权益的同时,确保人工智能可问责、可救济。充分尊重并保障各群体的合法权益,既包括明确人工智能研发者、运营者等利益主体的合法权益、义务和法律责任,还包括利用有效的救济机制保障人工智能使用者和其他受影响者的合法权益,以及对基于年龄、生理状况和人工智能的特殊社会影响等产生的数字弱势群体的权益进行特别保护,如鼓励、支持适应数字弱势群体接入能力的人工智能产品或服务,规定针对未成年人使用者的防沉迷规则等。
第三,人工智能立法应当回应数字鸿沟下的数字教育和数字信息获取问题,一方面明确国家机关在提升国民数字素养、分享人工智能风险信息和应对方法等方面具有提供服务或作出一定行动的职能,另一方面通过设置合理的信息披露义务(亦称透明度义务),要求具备人工智能技术能力的主体在开发、应用等阶段对受影响者提供必要的信息和说明。当前,已有规范就自动化决策、算法推荐、深度合成、生成式人工智能等问题规定了相应的信息披露义务,主要在于解决服务提供者与使用者之间的信息不对称问题。人工智能立法应当吸收并进一步补充、完善,建构更具有体系性的信息披露义务规则,既包括特定主体对使用者、社会公众以及监管机关等的合理信息披露义务(将更多体现为硬性规则),也适当考虑人工智能价值链中的相关参与者之间的必要(主要是与风险相关的)信息披露义务。
(二)协调相关权益
人工智能的研发和应用必然涉及多元主体的利益。为发挥立法在人工智能治理领域的积极效用,人工智能立法应协调好多元主体间复杂的利益关系。人工智能立法协调相关主体权益,以促进人工智能的研发和应用、防范人工智能主要风险的二元立法目的以及以人为本的理念为基本指引。面对数据质量会对人工智能的性能和效果产生决定性影响的现实,人工智能立法应协调人工智能研发者、运营者在人工智能数据训练等方面的利益与在先的知识产权、个人信息权益之间的关系,已有的权益保护制度不足以适应人工智能的研发和应用现实中利益主体的需求。人工智能立法应当在保障个人私权免受不当侵蚀的前提下,支持人工智能算法和基础模型等的创新发展,针对当前数据获取等方面的难题,适当建立例外规则或责任豁免规则,建构适应人工智能发展需求的新制度:
第一,建立适应基础模型数据训练和模型发展的个人信息处理制度。促进人工智能发展需要减轻传统个人信息保护领域对个人同意的路径依赖,如适度放宽个人信息处理的目的限制原则,建立个人信息处理同意的集中获取规则,强化告知的有用性以适当减轻同意的形式要求,引入新的个人信息处理合法性事由等,将个人信息保护的重点从收集端的事前限制,适当转移至强化人工智能责任主体合规处理信息、利用数据的环节,如实施强制性个人信息影响评估并进行全周期监管。
第二,建立与人工智能发展相适应的知识产权规则与配套制度。当前人工智能的研发和应用过程中既涉及数据获取阶段使用作品的合法性问题,如在输入端使用他人作品时能否构成合理使用,也涉及后续利用阶段人工智能生成内容的著作权问题,如生成内容的可版权性判断、版权归属,以及当人工智能生成内容与他人作品相同或实质性相似时是否构成侵权。立法可以通过增加“数据挖掘”作为合理使用的特定情形等方式,减少提升人工智能数据训练质量的法律障碍,但此等使用不应当影响对作品的正常使用,不应当损害著作权人的合法权益。同时,应通过相应的技术措施和信息披露等方式降低侵权风险。可以通过建构一定的法定许可(或强制许可)规则并完善相应配套规则,支持利用人工智能生成内容进行科学研究和文化创作活动。
第三,探索建构促进人工智能产业发展的权益分配或利益分享机制。例如,针对高质量数据供给不足问题,探索建立公平公正的人工智能训练数据开放使用机制,保障人工智能领域的数据要素供给,鼓励相关主体开展大数据与人工智能技术的协同研发、大数据与人工智能产业的应用融合。再如,针对对研发主体的激励不足问题,明确人工智能研发者、运营者等相关主体在人工智能的研发和应用过程中的合法权益,如知识产权、数据财产权益等。又如,构建人工智能生成内容的多方权益共享机制和算法模型流通中的利益分享机制等。
(三)维护竞争秩序
“竞争”是预设了竞争主体的存在、多元化和相互之间的利益冲突和争夺的动态开放过程。只有确保竞争者的多元和市场的开放,竞争的“对抗”特性才会在“知识发现”上形成对竞争者的激励机制,创造一个有可能刺激创造性突破的环境。在集中度高的市场环境中,纯垄断者往往缺少进行最优水平创新的激励。但如果竞争性市场中的企业能呈现出多元化趋势,那么,即使市场中不可避免地存在规模巨大的企业,此类企业受对创新的激励的程度也会更高。同时,竞争性市场中的创新水平也取决于企业享有创新成果的程度。因此,为确保人工智能产业生态的良性发展,需要构建主体多元、利益分化、市场开放的竞争秩序,推动市场主体走向效率和技术进步。
当前,人工智能发展存在潜在的技术垄断风险。整体来看,一方面,人工智能研发的投入成本高,加之专业芯片、算力、大规模数据和专业技术等关键要素多被集中控制于少数科技巨头企业手中,降低资源质量和赋能价值的同时,易形成相关产业的进入壁垒;另一方面,在当前人工智能的“模型—服务”业态下,前端开发的累积优势会通过规模经济和网络效应等进一步辐射至下游应用市场,使优势方在人工智能相关市场中得以巩固或扩大市场力量,进一步加剧市场壁垒、损害竞争。此外,人工智能应用也会带来对竞争秩序的挑战,尤其是算法共谋行为,即经营者利用算法在信息获取、传递、分析以及自动化决策等方面的优势,以更隐蔽的方式达成合意。算法共谋会引发市场失灵等负外部性问题,典型情况如,通过基于高级分析或机器学习技术的定价算法,经营者可以对市场需求、竞争对手的行为以及市场趋势作出快速回应并优化定价,此种动态定价技术在提升决策效率的同时,也强化了经营者之间的相互依赖效率,便于其在市场上形成隐性共谋。垄断行为的长期后果不仅包括价格提高,更包括失去创新。尽管针对算法带来的新型垄断难题,当前已出现一些专门应对措施,但在当前的反垄断规制框架下,对此类共谋行为仍然存在认定和归责方面的难题。对于此难题,学界关注到了相关法规应扩大主体认定范围、明确共谋信息交流认定方式、确立算法垄断行为规制标准、形成算法透明度要求规则和专门性监管执法工具等应对方法,这些都需要人工智能立法在治理规则上先作一般性统筹。
保护良好的人工智能生态系统、维护人工智能市场的竞争秩序应当考虑:第一,在宏观层面制定并完善竞争政策,推动智能要素的基础设施建设和形成数字资源调度利用制度,有效降低市场进入成本。第二,人工智能立法应充分考虑人工智能产业分层业态,形成鼓励公平交易、自由选择的基本竞争原则,对利用人工智能实施的垄断行为、不正当竞争行为作出一定专门性规定,并授权细化规则的制定,在鼓励实施包容审慎监管的同时,善用软性规则加强对企业进行自我审查和合规整改的引导。第三,提高反垄断和反不正当竞争执法水平,综合运用事前、事中及事后规制工具,提升市场监管措施的区分度和颗粒度。第四,探索新的动态监管机制(如监管沙盒),通过适当监管、一定豁免和引导企业自律管理,降低中小型创新企业风险合规的成本,鼓励研发、应用与监管机制上的双向创新。
(四)推进涉外法治
人工智能的机遇、风险和挑战本质上是全球性的,人工智能治理需要(尤其是在基本安全层面)形成全球共识和加强国际合作。在日益复杂的地缘政治背景下,人工智能发展也被赋予了国家间竞争的意义,人工智能技术先发国家具有将技术优势转化为制度权力的机会,当前人工智能国际治理迈向了主权国家战略博弈的新阶段。人工智能立法应妥善应对国际竞争与合作的内在张力。我国一直积极参与人工智能全球治理,先后发表或参与签署了《全球人工智能治理倡议》《布莱切利宣言》《中法关于人工智能和全球治理的联合声明》《加强人工智能能力建设国际合作决议》等文件,彰显了我国坚持发展以人为本、智能向善的人工智能和相互尊重、平等互利的立场,表明了我国积极参与推动形成具有广泛共识的全球人工智能治理框架和标准规范的态度。
我国对推动人工智能治理国际合作的立场包括:第一,在人工智能治理框架层面,倡导建立全球范围内的人工智能治理机制,支持在充分尊重各国政策和实践的基础上,形成具有广泛共识的全球人工智能治理框架和标准规范。参与推动确立与人工智能安全相关的硬性规则;鼓励符合发展需求的各类倡议、原则共识、技术标准指南等软性规则共用共享;推动跨国技术合作,分享人工智能的测试、评估、认证与监管政策实践,确保人工智能技术的安全可控可靠。第二,在人工智能能力建设方面,推动人工智能能力建设方面的国际合作,同时加强面向发展中国家的合作与援助,弥合智能鸿沟和治理差距。第三,在促进基于技术和价值观的相互理解层面,尊重各国在开发和利用人工智能技术方面的权利平等、机会平等、规则平等,反对任何形式的歧视;坚持在相互尊重、平等互利的基础上推动制定数据保护规则,加强各国数据与信息保护政策的互操作性;在人工智能技术、产品和应用的国际合作中,互相遵守对象国的法律法规和适用的国际法,尊重其文化传统和价值理念。
同时,在人工智能治理领域的主权国家战略博弈中,面对不友好国家干涉我国内政、针对我国实体和个人实施单边制裁或其他歧视性的禁止、限制等措施,我国根据实际情况采取相应反制或对等措施。当前“人工智能法”可以对此制定一般性规则,统筹指引后续立法和执法等。一般而言,制度型反制措施包括立法型反制措施、执法型反制措施和司法型反制措施。在法律和政策框架层面,我国当前已有《反外国制裁法》《出口管制法》以及商务部发布的《不可靠实体清单规定》《阻断外国法律与措施不当域外适用办法》等,并需在实施中提升威慑力,尤其是改变国际性大企业行为的后果参数和合规策略。同时,在立法型反制措施短时间内无法迅速实施的情况下,应当提升执法型反制措施的效能,在实践中通过适当行使自由裁量权,合理解释法律法规及部门规章,妥当厘定其域外效力,增强中国法域外适用的实效性和威慑力,推动人民法院跨国司法治理权的发挥;进一步完善反制裁工作协调机制、具体执法程序等方面的相关配套制度。提升反制能力与水平,防治数字霸权,维护国家安全

结 论


面对全球日益激烈的人工智能治理之争,在大规模集中立法浪潮下,如何找到适应中国国情和需求的人工智能立法方案,是亟待明确的重要问题。当前,统一的人工智能规范阙如,而现有规则面对人工智能问题仅能分散、碎片化适用,需专门立法回应社会关切、引导科技治理。在人工智能技术发展具有不确定性的前提预设下,现阶段应优化人工智能立法层次,以推动人工智能领域立法的体系化为方向,坚持问题导向和目标导向,先搭建人工智能领域的框架型法律秩序,释放法律规则在提供稳定的制度环境和可预期的信息供给方面的基本效用,为容纳、适应日益智能化和自主化的人工智能应用实践以及后续动态科学立法留予空间。


我国的人工智能立法,应当在推动人工智能创新发展和风险治理深度协同的基础上,形成契合定位的规则框架。应以发展与安全并重为指导思想,以促进人工智能研发和应用、防范人工智能主要风险为二元立法目的,既规定促进人工智能研发和应用的正面激励制度,亦在简化合规、责任适当豁免等方面为相应主体提供减负支持,并且不囿于一体性的规制方案,建立符合我国国情的风险防范机制。在人工智能立法涉及的主要利益关系上,“以人为本”是人工智能立法应当坚持的基本理念和伦理原则,并且贯穿于涉及伦理治理、私权保障等方面的规则建构中;应协调好人工智能相关主体之间的权益;应构建并维护主体多元、利益分化、市场开放的人工智能竞争秩序;应积极开展国际合作,统筹推进关于人工智能的国内法治和涉外法治。


END



张新宝:单位的反性骚扰义务与相关侵权责任研究

张新宝:论个人信息保护请求权的行使

书评 | 张新宝:环境法典编纂既要有技术,更要有特定价值体系

论道 | 张新宝 赖成宇:个人信息保护公益诉讼制度的理解与适用

张新宝:个人信息权益构造 | 基于“两头强化 三方平衡”理论

法学学术前沿
法学学术前沿由【易明法律研究院】举办,始终立志于做一家识时务、讲方法、有情怀、结善缘的学术传播平台。
 最新文章