◆ ◆ ◆ ◆
上海市社会科学界联合会主办主管
有学术的思想 EXPLORATION AND FREE VIEWS
官网地址 http://www.tsyzm.com
◆ ◆ ◆ ◆
目前本刊只接受《探索与争鸣》网站投稿。请收藏唯一真实官网地址www.tsyzm.com。原编务邮箱tsyzm@sssa.org.cn停止使用,原投稿邮箱tansuoyuzhengming@126.com为编务邮箱和应急邮箱。原创文章,未经授权,谢绝转载,如需转载请留言。
中国人工智能法的调整对象:
锚点、主客 坐标与效力边界
郑志峰|西南政法大学科技法学研究院副院长、教授
本文原载《探索与争鸣》2024年第10期
具体内容以正刊为准
非经注明,文中图片均来自网络
郑志峰教授
人工智能科学立法的首要问题是确定其调整对象,准确把握立法调整对象背后的规律和本质。对此,笔者认为,中国人工智能法的调整对象可以从三个维度进行界定。
对于人工智能法来说,其调整对象的界定、制度框架的搭建以及具体规则的设计,都需要对人工智能进行科学、合理的法律定义,以便充当识别社会关系、定性法律关系的第一道“滤网”。
第一,人工智能的界定。人工智能的技术逻辑是模拟、增强甚至替代人类智能,这直接导致机器智能的产生,使得社会关系的运转多了一种介入力量,直接冲击现行法律制度以人类为中心展开的预设前提。而人工智能的智能特征又集中表现为自主性,即人工智能能够自主地进行计算、推理、学习、决策甚至行动,在特定的输入端与输出端之间将人类排除“环外”。据此,自动驾驶汽车、深度合成、人脸识别、生成式人工智能都符合人工智能的定义。与此相反,辅助驾驶并非自动驾驶,需要人类驾驶员处于“环内”,不符合人工智能的定义;达芬奇手术机器人完全由外科医生操控,没有人工智能的自主性;而人形机器人强调的是外形与人形相似,也不能当然地归入人工智能的范畴。
第二,人工智能的形式。明确人工智能的定义可以很大程度上划定人工智能法的调整范围,但人工智能作为一种技术,本身不能成为人工智能法的调整对象,故还需要明确人工智能法调整的客体形态。对此,欧盟《人工智能法案》采取了“人工智能系统”这一概念,我国学界两部人工智能法建议稿则使用了“人工智能产品或者服务”的表述。笔者认为,“人工智能产品或者服务”一词更加适合本土立法的语境。其一,人工智能技术通常需要以产品或者服务的形式呈现在公众面前,以便进入法律视野。其二,人工智能产品与服务适用的法律规则不完全一样,如人工智能产品受产品责任约束,而人工智能服务可以适用通知删除规则等,区分两者可以实现立法的精细化。其三,人工智能产品或者服务的表述能够与《产品质量法》《民法典》《刑法》《生成式人工智能服务管理暂行办法》等法律法规进行衔接,延续以往产品与服务两分的调整规则。
与此同时,当前人工智能主要是应用于特定领域、特定事项、特定任务的专用型人工智能,但不排除未来出现通用人工智能的可能。那么,人工智能法是否需要关注通用人工智能就成为一个问题。欧盟《人工智能法案》就通用人工智能模型做了专章规定,第51条规定,委员会可以根据适当的技术手段和方法,对通用人工智能的能力和影响进行评估,以便确定是否属于具有系统性风险的通用人工智能。同时,当一个通用人工智能模型用于训练的累计计算量,以浮点运算计大于1025时,应推定该模型具有高影响力。国内方面,《人工智能示范法(专家建议稿)》规定了基础模型,《人工智能法(学者建议稿)》就通用人工智能的内涵做了明确。考虑到大模型带来的“智能涌现”现象,人工智能法应当对通用人工智能进行适当的超前部署,以增强立法的前瞻性。
第三,人工智能的例外。人工智能的概念非常宽泛,是否所有的人工智能类型都需要交由人工智能法调整,值得进一步思考。一是军事人工智能。军事人工智能直接关系国家安全,要求军事人工智能像普通人工智能产品或者服务那样履行报备批准、公开透明、审计、伦理审查等义务并不妥当。同时,军事人工智能有着特定的用途,社会公众一般无法接触,适用专门的法律法规以及相关的国际法规制更加合适。二是免费开源人工智能。免费开源意味着人工智能需要开放源代码,任何人都可以自由无偿地查看、修改和分发。免费开源人工智能对于技术创新具有促进作用,其伦理基础是社会鼓励公民自愿合作的精神。基于此,《人工智能法(学者建议稿)》规定本法不适用于“免费开源的人工智能”。然而笔者认为,免费开源人工智能并非毫无风险,一概排除在人工智能法的调整范围之外并不合适,如欧盟《人工智能法案》就将高风险的免费开源人工智能模型纳入监管。建议我国人工智能立法主动明确免费开源人工智能的界定,合理豁免相关主体的义务与责任。
中国人工智能法调整对象的主客坐标
人工智能法具有科技法的属性,其调整对象需要指向人工智能科技活动及相关主体。对此,可以从主体与客体两个方面,对人工智能法的调整对象进一步加以描述与定位。
第一,人工智能开发者与开发活动。对于人工智能法是否调整开发者与开发活动,理论和实务界存在不同的做法。欧盟《人工智能法案》采取提供者与部署者的二元主体结构,明确指出“本条例应支持创新,尊重科学自由,而不应损害研发活动。因此,有必要将专门为科学研究和开发目的而开发和提供服务的人工智能系统和模型排除在其范围之外”。国内方面,《生成式人工智能服务管理暂行办法》同样不涉及人工智能开发阶段,将不提供生成式人工智能服务的活动排除在外。与之不同的是,学界两部人工智能法建议稿都明确将开发者与开发活动纳入调整范围。
笔者认为,人工智能法应当调整开发者与开发活动。首先,开发活动是人工智能科技活动的重要组成部分,将之纳入调整对象可以实现对人工智能全生命周期的治理。其次,算法设计、数据标注、模型训练和优化等开发活动是人工智能风险产生的源头,将开发者与研发活动纳入调整范围,可以事半功倍地预防、管理人工智能的风险。最后,人工智能法应当调整的是面向市场的人工智能开发活动,纯粹的科学研究活动应当排除在外。欧盟《人工智能法案》就规定“本条例不适用于人工智能系统或模型在投放市场或提供服务前的任何研究、测试和开发活动”,但“在真实世界条件下进行的测试不在此豁免范围内”。因此,建议人工智能法采用开发而非研发一词来界定相关主体与活动。
第二,人工智能提供者与提供活动。提供活动处于开发活动与使用活动的中间阶段,对人工智能的风险治理起着承上启下的作用,是人工智能法重点调整的对象。唯有明确提供者的权利、义务与责任,方能推动人工智能的技术创新与大规模应用,真正回应人工智能产业发展的需求。对此,我国学界两部人工智能法建议稿都明确将提供者与提供活动纳入调整范围。与此同时,《新一代人工智能伦理规范》使用了“人工智能供应活动”的概念,指代人工智能产品与服务相关的生产、运营、销售等。有学者则采用了“人工智能应用活动”的表述,指人工智能系统提供者向用户提供人工智能系统服务的活动。笔者认为,相较于供应活动、应用活动,提供活动一词更加合适。首先,应用活动似乎可以包括供应与使用两个环节,并不限于提供活动,指向不够精准。其次,供应活动与提供活动两者大体相当,但供应活动更加像是一个产业链视角的术语,强调人工智能的生产、运营、销售等活动,而提供活动更具法律色彩。最后,欧盟《人工智能法案》以及我国学界两部人工智能法建议稿都使用了提供者的概念,同时《生成式人工智能服务管理暂行办法》也使用了提供者这一概念,人工智能法使用提供者的概念可以节约立法成本。
第三,人工智能使用者与使用活动。除了开发活动、提供活动外,使用活动也应当是人工智能法调整的重要对象。一方面,相较于开发者、提供者,使用者对于人工智能的风险管理有着重要的影响力。即使人工智能产品或者服务本身没有安全隐患,但若使用者没有进行合理使用甚至是滥用的话,仍然会引发严重危害。例如,有条件自动驾驶汽车需要人类用户在紧急情况予以及时接管;生成式人工智能的生成结果高度依赖用户的关键词指令;人脸识别既可以帮助企业用于安防、打卡等正常用途,也可能被滥用为监视员工的不法工具。另一方面,使用者是离人工智能产品或者服务风险最近的群体,常常是人工智能技术风险的侵害对象,理当成为人工智能法的调整对象。
由此,人工智能的“四层二分”框架已清晰可见。首先,根据是否包含可学习和迭代的参数,人工智能可被分为学习型人工智能和规则型人工智能。其次,根据模型是否有能力生成事先未完全指定的信息,学习型人工智能可被分为生成式人工智能和非生成式人工智能。再次,根据模型生成信息的过程中是否对包含语义的载体(尤其是文本)进行编码、解码操作,生成式人工智能可被分为处理语义的人工智能和语义无涉的人工智能。最后,根据模型是否以一定强度学习了公开途径可得数据以外的知识及信息,处理语义的人工智能可分为公用模型和特殊用途模型。每一层的划分都以确定的技术特征为基础,也都具有相应的法律治理需求,可以导向治理规则的分层渐进设计,进而形塑人工智能法律体系之纲目。
立法方面,欧盟《人工智能法案》使用的是部署者(deployer)一词,而我国学界两部人工智能法建议稿则采用了使用者的概念,两者本质上是一致的。具言之,欧盟《人工智能法案》之前的版本一直采用的是使用者(user),直到2023年12月才替换为部署者(deployer),但具体定义并未改变。与此同时,使用者与用户很多时候可以等同使用,但用户更多地指向作为个体的使用者,不能涵盖企业、政府机构等组织类群体,使用者则更具包容性。此外,使用活动非常广泛,是否都属于人工智能法的调整范围不无疑问。对此,欧盟《人工智能法案》规定“在个人非职业活动中使用人工智能系统的情况除外”。国内方面,《人工智能法(学者建议稿)》也明确“自然人因个人或者家庭事务使用人工智能的”,不适用本法。笔者认为,个人或者家庭事务中的人工智能使用活动主要免除的是使用者的合规义务,并非一概不适用人工智能法。例如,开发者、提供者仍然需要保障使用者的权利,使用活动致人损害的使用者需要承担责任。
第四,人工智能监管者与监管活动。从性质上看,人工智能法具有领域法的特征,其不等于部门法,也不等于人工智能+部门法。这意味着人工智能法具有公私法交融的特征,既要调整平等主体之间因为人工智能的研发、提供与使用活动产生的法律关系,也要调整不平等主体之间围绕人工智能监管活动产生的法律关系。从内容层面来看,人工智能法既要克服规制科技不足,也要避免规制科技过度,至少应包括人工智能市场促进法、人工智能政策促进法与人工智能风险治理法的内容。其中,人工智能政策促进法、人工智能风险治理法都属于监管法律关系,是人工智能法的重要部分。
国内方面,两部人工智能法专家建议稿都明确规定调整人工智能的监管活动。例如,《人工智能示范法2.0(专家建议稿)》设有“人工智能管理制度”与“人工智能综合治理机制”专章,并规定了包括国家人工智能办公室、国家人工智能主管机关、中央人工智能领导机构、各级人工智能主管机关、其他有关部门和军队有关部门等各种监管者。《人工智能法(学者建议稿)》也设有“监督管理”专章,同时就人工智能的监管部门、监管职责以及开发者、提供者、使用者违反监管规定的行政责任承担进行了规定。欧盟《人工智能法案》更是将人工智能监管活动贯穿始终,确立了基于风险的分级规则、“全链条”的监管措施、实验性的“沙盒监管”等制度。
中国人工智能法调整对象的效力边界
除了从内部界定人工智能法的调整对象之外,还需要从外部确定人工智能法调整对象的边界。这就涉及人工智能法的空间效力及其与相关立法的关系。
第一,人工智能法的空间效力。面对国际竞争的复杂局势,人工智能法应当规定对特定的境外人工智能科技活动保有管辖权。首先,当前人工智能的国际竞争已经上升到国家安全与国家战略的高度,一些西方国家长期通过长臂管辖规则对我国人工智能产业进行打压和排挤。此种背景下,我国人工智能立法必须予以反制。其次,从以往立法实践来看,域外管辖已经成为维护国家主权的重要方式,人工智能法应延续这一做法,全方位维护我国网络主权、数据主权以及人工智能主权。最后,人工智能的风险具有跨境性,人工智能法必须要应对境外人工智能活动带来的风险,践行总体国家安全观。对此,我国学界两部人工智能法建议稿都确立了域外管辖规则,明确在境外开展人工智能活动影响或者可能影响我国国家安全、公共利益以及个人、组织的合法权益的都属于我国法律管辖范围。建议未来我国人工智能法在确定最大连接点的基础上,细化域外管辖的具体情形。
第二,人工智能法与智能要素法的协调。2020 年8月,美国安全和新兴技术研究中心发布的《人工智能三要素以及对国家安全战略的意义》指出:“可以用一句话来概括现代人工智能的复杂性,即机器学习系统使用计算能力来执行从数据中学习的算法。”由此可知,人工智能神奇的关键在于数据、算法及算力三要素。从这个角度来看,人工智能法需要处理好与智能要素立法的关系,协调好各自统辖规制的边界,最大程度避免重复规制与规则冲突。
一方面,人工智能法必须对智能要素有所关注,让智能要素融入人工智能的治理规则中。从产业促进角度来看,人工智能法应当鼓励算力基础设施建设、算力资源利用、算法模型创新、数据要素供给、数据合理使用等;从风险治理角度来看,数据要素、算法模型、算力资源会直接影响人工智能产品或者服务的安全、稳定、有效,人工智能法应当就训练数据质量、算法模型监管、算力资源供给等进行规定。另一方面,人工智能毕竟不同于智能要素,人工智能法应当适当留白,否则会偏离人工智能法调整的中心主线。例如,人工智能的个人信息保护可以援引适用《个人信息保护法》;人工智能的数据安全可以通过《数据安全法》来解决;对于训练数据以及输出端生成数据的产权问题,也应当留给未来的数据立法。
第三,人工智能法与智能应用法的关系。对于人工智能法如何处理具体人工智能应用,国内外存在不同做法。国内方面,《人工智能示范法 2.0(专家建议稿)》并未就具体人工智能应用作出规定,仅从整体层面对人工智能进行规制。与之不同的是,《人工智能法(学者建议稿)》设置了“特殊应用场景”专章,就执法人工智能、司法人工智能、新闻人工智能、医疗人工智能、社交机器人、生物识别、自动驾驶、社会信用人工智能、通用人工智能等典型人工智能应用做了专门规定。此外,欧盟《人工智能法案》在进行人工智能分级分类时,也提到了生物识别、深度合成、司法人工智能、执法人工智能等具体的人工智能应用。
人工智能本身是一种通用赋能型技术,可以广泛应用于医疗、交通、金融、教育、司法、物流等领域。欧盟《人工智能法案》就指出:“人工智能是一个快速发展的技术族,能够为各行各业和社会活动带来广泛的经济、环境和社会效益。”实践中,不同人工智能应用的风险表征、治理机制不尽相同,人工智能法不能仅仅停留在抽象的人工智能层面,还要看到不同人工智能应用的特点,使人工智能治理规则更具针对性、操作性。与此同时,人工智能法规定具体人工智能应用也符合总分立法的逻辑,可以实现人工智能一般规则与特别规则的融合,为未来智能应用的专门立法提供指导。基于此,人工智能法应当对具体人工智能应用的典型挑战进行适当规制,如自动驾驶汽车的电车难题、医疗人工智能的辅助定位、司法人工智能的公平透明等。
有学术的思想 有思想的学术
聚焦中国问题
秉持人文立场
人文社科学者的平台
欢迎一起“探索与争鸣”