点击蓝字关注我们
生成式人工智能与“不可解释性”危害结果的客观归属
曾聪,中国政法大学刑事司法学院博士研究生
原载《华中科技大学学报(社会科学版)》
2024年第5期
摘要:生成式人工智能的有限自主性源于以大数据为基础的算法决策的不可解释性,意味着其可以独立造成法益侵害。既有理论深陷人工智能体有无责任能力的主观归责问题,却忽视了生成式人工智能犯罪首先面临的是危害结果之客观归属问题。生成式人工智能不是强人工智能,其所造成的法益侵害无法归属于智能体本身,应当根据《生成式人工智能服务暂行管理办法》等技术规范,在生产者与使用者之间分配生成式人工智能所致法益侵害的风险,以填补刑法处罚漏洞。风险分配的依据是技术规范在科技发展与人类安全之间的价值判断立场,其规定了生产者与使用者对不可解释性算法决策可能存在“最差的情形”的注意义务。风险分配的方式是在准备、运算与生成这三个阶段,结合当前人工智能犯罪的不同类型,在生产者与使用者之间进行不对称的风险分配。为避免过度限制科技发展,应根据下位规则限制危害结果的客观归属,一是根据溯责禁止原则限制对生产者的结果归属,二是根据有限的自我答责原则限制对使用者的结果归属。
关键词:生成式人工智能;不可解释性;客观归属;风险分配
ChatGPT4.0的横空出世,为我国数字法学研究注入了一剂“强心针”,数字法学作为独立于现代法学之一级学科的理想图景似乎也愈发清晰。其实,在ChatGPT等生成式人工智能尚未问世之前,法学界就已经对“什么是强人工智能”以及“强人工智能应否承担刑事责任”等问题进行了诸多探讨,这些探讨充分展现了法律人的想象力,即在真正可以摆脱人类控制的强人工智能诞生之前,就前瞻式地预测了“技术奇点”必将到来,并就相关法律规制问题进行了理性的谋篇布局。然而,诚如刘艳红所言:“如果说‘我们即将迎来人工智能时代’、自主思考的强人工智能就在‘明天’,那么我们离这个‘明天’究竟有多近?连科学家都不知道这个‘奇点’何时来临,法学家又具有何种特异功能参透AI的未来禅机?”毋宁说,从来没有什么“未来已来”,已经到来的就是正在发生的,法律人不应回避新问题,但是只要强人工智能还未取代人类,社会仍需要人类的法律维持秩序,法律人就仍应在传统公私法划分的基础上,运用部门法解决数字社会提出的新问题。对于部门法而言,了解人工智能与算法是什么很重要,在法学范式中运用这些跨学科的智识更加重要,ChatGPT的诞生意味着更要坚持法律人的主体性,而不是改变法学的思考范式,即把注意力放在“奇点”到来之前的现实问题上,至于对未来的想象,最好还是留给科学家与科幻小说家。就刑法学而言,生成式人工智能在以大数据为基础的算法决策中确实存在一定程度上的不可解释性,在这种“人工不完全支配智能”的情形下,人工智能体本身就可以创设并实现法所不容许的风险,那么最终的危害结果是否应当以及如何归属于人工智能体本身或者其生产者、使用者,这就是法教义学亟待回应的问题。申言之,在刑法领域,生成式人工智能首先要解决危害结果的客观归属问题,而不是人工智能有无认识能力与意志能力的主观归责问题,后一问题在“奇点”来临之前就不是一个真问题,在“奇点”来临之后强人工智能体也不需要人类“帮忙”解决这个问题。
一、从工具属性到有限自主性:法律视角下的生成式人工智能
生成式人工智能的刑事责任是一个跨学科问题,在法学视角下,生成式人工智能在科技层面处在哪个发展阶段以及该阶段呈现出何种不同以往的特点,是法律人进行规范思考的事实前提。在此基础上,科技层面的智识只有能够“转译”为法律层面的规范表达,才能真正称得上是关于人工智能的法律思考。事实方面,生成式人工智能处于强人工智能与弱人工智能的中间阶段;规范方面,生成式人工智能具有算法上的不可解释性。
(一)生成式人工智能:在工具属性与有限自主性之间
根据学术界的代表性观点,人工智能强调的是要让计算机像人类一样理性思考,像人类一样理性行动。人工智能中的“智能”,是以人类的认知能力、推理能力为模板的理性思维能力,是借助传感器在不同环境中的理性行动能力;人工智能中的“人工”,是指人类能够基于大数据的供给与算法的设计对智能产品进行理性的控制,即“代码的规制”。与之相关,人工智能一般被划分为限制领域人工智能与通用人工智能,前者“主要为了复现人类智能的某一功能或某一方面”,后者“可以复制与自然人相似的人类智能水平”。这与当前法学界“弱人工智能与强人工智能”的划分内在一致,但“弱”与“强”的表达更不容易导致“人工智能主要根据适用领域划分”的误解。从法律视角来看,弱人工智能与强人工智能的对比更能让人们以关系型的视角看待“人工”与“智能”的关系:“弱”在事实层面是指人工智能产品处于人类的绝对控制之中,在规范层面是指使用人工智能产品的行为依旧是人的行为;“强”在事实层面是指人工智能摆脱了人类的控制,在规范层面是指人工智能产品可以独立于生产者与使用者,创设并实现法所不容许的风险。一言以蔽之,弱人工智能是指“人工”对“智能”的绝对控制,人工智能只有工具属性;强人工智能是指“智能”摆脱“人工”的控制,人工智能摆脱了工具属性,具有自主性。
那么生成式人工智能到底是弱人工智能还是强人工智能呢?或者说生成式人工智能产品是“人工控制智能”还是“智能摆脱人工”呢?答案是:生成式人工智能处于弱人工智能与强人工智能的中间阶段,即“人工对智能的不完全控制”,一方面,生成式人工智能依然无法摆脱人类的控制,基于人类提供的大数据与设计的算法,其依旧可以得出人类大致设想的答案,实现人类大致期待的功用;另一方面,生成式人工智能产品的确能在大数据基础上作出不具可解释性的算法决策,得出人类无法解释的答案。这种有限自主性也将是人工智能产品在“奇点”来临之前的常态,那么,有限自主性在法律层面有何意涵呢?
(二)有限自主性的法律意涵:生成式人工智能具有一定程度的不可解释性
关于人工智能的法律研究,刘艳红指出:“探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策……法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任; 法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。”至少在“奇点”到来之前,所有的法律问题依然是以人为中心的,之所以要强调人工智能的可解释性,是为了将大数据基础上的算法决策归属到人的行为,无论是人工智能产品生产者的行为还是使用者的行为。法律作为一种行为规范,只有能够区分正确或者错误运用大数据与算法的行为,才有可能实现指引功能。
那么这是否意味着,要在人工智能的法律评价中“切割掉”与不可解释性有关的所有问题?当然不是。现代刑法的预防转向,不就体现了人们对未知问题作出判断的欲望与可能性了吗?直到当下,人们都很难判断特殊预防与一般预防的目的能否实现,但这并不妨碍现代刑法对犯罪预防的坚持。同样,人工智能的不可解释性意味着大数据基础上的算法决策可能导出未知的结果,不代表人类就应当对其保持缄默。技术规范作为平衡科技发展与人类安全的具体体现,本就反映了立法者在刑事政策层面的考量,完全可以就不具可解释性的算法决策在生产者与使用者之间进行风险分配,毕竟在刑法规范无法提供明确答案的情形中,刑事政策原则就是最好的风向标。
不过在此之前,对于生成式人工智能的法律问题,首先要区分好科学家与法学家的不同观察视角:对于科学家而言,其使命是从科学角度理解与解决算法黑箱、算法歧视等技术难题;对于法学家而言,其使命是在接受科学技术尚有未解难题的前提下,从规范角度合理评价不可解释的人工智能产品所导致的危害后果。人工智能的不可解释性是无法否认的事实,但这种不可解释性依然能够通过既有的法律规范与理论学说予以应对。特别是,生成式人工智能只是具有一定程度的不可解释性,其虽然可以在大数据基础上通过算法决策得出人类未曾设想的答案,但是人类依旧能够在准备、运算与生成等阶段对人工智能产品实现较强的控制力。因而就刑法而言,重点在于:这样一个具备有限自主性但尚未完全摆脱工具属性的智能体,能否创设并实现法所不容许的风险?当生成式人工智能尚未真正成为“类人”的强人工智能时,是否应当以及如何将前述风险导致的危害结果归属于人工智能产品的生产者或者使用者?
二、人工智能的有限自主性与刑法处罚漏洞的产生
有学者指出:“由于人工智能技术的复杂性、裁量的独立性和行为自控性等特点,使得现实中会出现人工智能因过失导致的法益侵害,存在无法归责的空白地带。”也就是说,由于人工智能体的自主性,其所造成的法益侵害无法完全归属于人工智能体的生产者与使用者,且人工智能体本身也不是法律意义上的自然人或者单位。这样一来,处罚漏洞就产生了:有法益侵害,但缺少进行结果归属判断的行为主体。对于这一问题,至少须回应以下三个递进的问题:其一,生成式人工智能造成的法益侵害是在结果客观归属的层次讨论的;其二,生成式人工智能造成的法益侵害为何不可被归属于智能产品本身;其三,生成式人工智能造成的法益侵害如何被归属于生产者或者使用者。
(一)生成式人工智能可以独立创设并实现法所不容许的风险
或许是事实思考先于规范思考,法学界对人工智能体特别是机器人的刑事责任问题,总有一种拿机器与人进行类比的思维惯性,而人之所以为人,正在于自由意志设想下的认识能力与意志能力,因而最具热度的学术议题往往是机器人的法律地位或者主观归责问题。但是,就刑法视角而言,行为只有先符合构成要件并且具有违法性,才有必要进入有责性的判断。无论如何,人工智能犯罪成立与否,总是要先确定“法益侵害的结果必须可以视为行为人为行为支配后的‘作品’”,即危害结果的客观归属问题。结果的客观归属,主要是判断人工智能是否创设并实现了法所不容许的风险。
对生成式人工智能的客观归属的判断有何不同呢?在生成式人工智能诞生之前,人工智能依然不具备自主思维与行动的能力,人工智能产品作为一种工具,其造成的法益侵害可以完全归属于生产者或使用者。以自动驾驶技术为例,自动驾驶的实现依赖于生产者提供的大数据与预先植入的算法,在此基础上通过环境对传感器的不同刺激实现驾驶的“自动性”,如果自动驾驶的车辆误判了路况并导致他人伤亡,生产者依然要承担刑事责任,因为事故的发生并不是因为自动驾驶车辆在大数据基础上进行了不具可解释性的算法决策,而是生产者提供的大数据基础无法充分涵盖自动驾驶车辆可能遇到的情形,而这正是生产者需要承担的注意义务。在生成式人工智能诞生之后,人工智能具备了一定的自主思维与行动能力,其所造成的法益侵害,原因并非生产者预先植入的大数据基础不够,也不是预先设计的算法决策出现错误,而是人工智能经过自主学习后进行了预设算法之外的独立算法决策,且这一决策并不具有可解释性。以知识产权犯罪为例,ChatGPT完全可能在生成式人工智能的编程控制范围之外,在数据挖掘、内容生成与使用等不同阶段侵害知识产权,这些行为无法通过预先编写的程序进行解释,因而能否将法益侵害结果归属于人工智能的生产者或使用者就成了疑难问题。
所以不得不承认的是,生成式人工智能具有独立创设并实现法所不容许风险的能力。一般认为,虽然动物、大自然也可以造成法益侵害,但是刑法只关注人的行为,因为与人类无关的行为也无法通过法律实现预防,更没必要通过刑法予以制裁。不过,人工智能犯罪问题更加复杂,因为一方面人工智能的确是“人工”的产物,另一方面当前人工智能所造成的法益侵害往往是生产者、使用者与人工智能产品共同实现的。在生成式人工智能诞生后,既不可能完全“切割掉”其与生产者、使用者的联系,也不可能将其视为受人类绝对控制与支配的机器。因此,法律层面的重点,是判断生产者与使用者分担新技术发展所必须承担的风险,即不具可解释性的人工智能所造成的法益侵害应在何种程度上归属于生产者或使用者。应当反对的做法是,对行为、责任等传统法学术语进行不同以往的理解并独立创设一部“机器人刑法”。
(二)拒绝“机器人刑法”:将危害结果归属于人工智能体本身并无意义
所谓“机器人刑法”,就是赋予机器人或者“电子人”真正的法律地位,其享有权利,也要承担相应的责任。为了填补人工智能犯罪的处罚漏洞,德国学者拉塞·夸尔克(Lasse Quarck)认为:“无论是出于法律政策还是从刑罚目的理论层面考虑,电子人地位的采用都是有意义和必要的。对实现一般预防目的而言,仅确定可罚性是不够的,还必须向社会大众明确说明已实施的不法行为之可罚性,通过尽可能适当的量刑,对罪责非难进行量化,具体包括进行公益劳动、对机器人的身体进行干预、执行算法所违反规范的内容而进行重新编程、关闭机器人。人工智能的可罚性由此成为可能。”毫无疑问,这样的设想无疑只有通过新的立法才能实现。
相对于上述立法论思路,有学者从哲学层面重新解释“什么是人”,并认为应当摆脱“人类中心主义”的桎梏,承认“人工道德”(artificial morality)的存在,并且认为“人工道德智能体”本就可以承担责任。如果承认人工道德,那么就可以对行为、责任与归责等传统刑法关键词进行“机器人视域”下的重新诠释。例如,德国学者希尔根多夫(Eric Hilgendorf)就认为,在摆脱“人类独一无二”的思想后,这些关键词完全可以从机器人的视角进行解释。其一,人类遵守规则的行为模式与机器人依照指令的行为模式并无本质不同;其二,既然拟制的法人可以承担责任,那么机器人也可以承担责任;其三,只要机器人能在对与错之间进行抉择,意志自由的问题完全可以被悬置。总的来说,以机器人视角对刑法进行不同以往的全新解释,也可以填补机器人犯罪的处罚漏洞。
笔者认为,不论是采取立法论思路还是解释论思路,都将面临如下无法解决的难题:一方面,从立法与解释这一对范畴来看,就立法路径而言,如果人类都无法理解机器人某些具有自主性的行为,又怎么能够创设出一部预防机器人犯罪的法律?就解释路径而言,既然要赋予机器人独立于人类的“人工道德”,那么对与错的标准为什么还要由人工的算法来决定?另一方面,从报应与预防这一对范畴来看,如果惩罚机器人是为了实现对不法的报复,满足人类的正义需求,那么依据什么认为人类真正想谴责的是机器人而不是机器背后的生产者或使用者?如果惩罚机器人是为了实现犯罪预防,对于不具可解释性的机器人行为如何可能?总之,只要“技术奇点”还未到来,只要机器人还没发展到真正的强人工智能,法律就依然是人的法律。
(三)如何将生成式人工智能所造成的法益侵害归属于生产者或使用者
既然生成式人工智能可以独立创设并实现法所不容许的风险,且由人工智能产品本身承担刑事责任并无意义,那么为了设计出填补处罚漏洞的理想路径,就依然要关注人工智能产品的生产者与使用者。既然人工智能仍处在不断快速发展的阶段,且人工智能犯罪的刑法规制主要也是前瞻式的预防而非回顾式的报应,那么理想规制路径的设计就应当是一个风险分配问题,即在科技发展与人类安全之间进行价值权衡。与此同时,既然生成式人工智能的刑法规制首先是一个结果的客观归属问题,而风险分配与客观归属具有紧密的联系,那么客观归属的基本思想及其下位规则就可以将刑事政策层面的风险分配转化为教义学层面的具体准则,进而合理地将生成式人工智能产品所创设并实现的风险归属于生产者或使用者。
三、通过风险分配填补生成式人工智能的刑法处罚漏洞
风险预防的前提是风险管辖(Risikozustndigkeit),即“风险属于谁的管辖范围,谁便需要对风险及由此产生的结果负责”。德国学者金德霍伊泽尔(Urs KindHuser)将其界定为:“如果某人单独或者和他人共同地创设了一种条件,这种条件使得发生符合构成要件的结果的可能性(相比于原来的情况)在客观上得到提高,那么,这个人就要为这个风险以及由该风险产生的结果负责。”风险管辖创设了行为人的注意义务,但“风险由谁管辖”并不能由风险概念本身解答,而只能求诸刑法之外的技术规范。
(一)风险分配的前提:人工智能创设并实现的是法所不容许的风险
英国学者布朗斯沃德(Roger Brownsword)认为,当前世界正处于通过技术解决方案实现风险预防的法律3.0时代。在这个时代,法律人的主要任务是根据相关领域的专家意见,对科技发展带来的新风险进行法律层面的规范评价。科技产品总是会产生人类在某个时间节点无法完全预测的风险,但是,无法完全预测的风险不等于不被容许的风险,只有不被容许的风险才能被归属于不法行为。之所以在人工智能犯罪中提出法所不容许的风险,是为了强调平衡科技发展与人类安全的重要性,即使人们对前沿科技领域并无充足的风险认知,也不能违背经济社会的发展规律而一概禁止科技创新。例如,若让生产者承担生成式人工智能在不具可解释性算法决策下造成的所有法益侵害,无异于对企业创新宣告“死刑”,但如果有原则、规则明确限定了科技发展不得触碰的界限,企业就可以在法无禁止的领域安心发展。
对于容许性风险的判断标准问题,希尔根多夫认为,提出容许性风险这一概念,是为了“避免将在可带来积极结果的新技术的适用过程中产生的、被社会伦理所接受的风险在刑法上被评价为不法”。既然不可能将新技术拒之门外,就应当基于既有的科学认知,对人工智能的法律风险进行某些前瞻式的判断,从蒸汽机到汽车飞机,再到当前的核技术,人类一直都在科技风险与人类安全之间进行立场抉择,事实证明,虽然人类抉择往往会承受不小的代价,但技术发展往往就是在不断试错中实现的。如波普尔(Karl Popper)所言:“我们不知道,我们只能猜测。”从法律角度而言,只有设置某些原则、规则,才能避免人们在风险面前不知所措,而这些原则、规则就在刑法外的技术规范之中。
(二)技术规范作为容许性风险的判断标准
基于法律不可避免的抽象性,若要使刑法规范实现指引功能,就必须对其进行一定程度的具体化。德国学者穆尔曼(Uwe Murmann)认为,行为规范的具体化可以通过前置于刑法的交往规范(Verkehrsnorm)实现,特别是技术领域明确的安全标准,对这些具体规则的违反也就是对刑法上行为规范的违反。我国也有学者认为,应当根据技术规范,从容许性风险的角度判断人工智能犯罪中生产者、设计者与使用者的责任。若容许性风险的判断要依赖技术规范,那么技术规范来源于何处以及如何对技术规范进行体系化的加工就是亟待回应的两个问题。
其一,对于生成式人工智能技术规范的来源问题,《生成式人工智能服务管理暂行办法》(以下简称《办法》)进行了较为全面的整合。一方面,《办法》本就规定了当下较为重要的技术规范,例如第四条第(二)项“在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视”,第七条第(一)项“使用具有合法来源的数据和基础模型”,就分别从人工智能算法的大数据准备与大数据运算等方面进行了规定。另一方面,《办法》第一条还指明了其他法律中可被运用的技术规范,例如《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》等法律、行政法规。此外,《办法》也提出了规制生成式人工智能犯罪所应遵循的刑事政策立场,即第三条规定的“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管”。不过,这些技术规范依然需要进行一定的体系化加工,才能被更好地用于生成式人工智能犯罪的客观归属判断。
其二,技术规范的体系化应以刑法中危害结果的客观归属判断为中心。我国有学者认为:“未来人工智能刑法规制中‘技术规范’拓展至全方位动态技术监管体系,需要进一步固定与设计技术法律规范的概念标准,需要进一步完善和加强技术法律规范的具体制度,在搭建起数据安全动态监管框架的基础之上,需要考虑进行框架内具体的技术规范制度设计与填充。”从对人工智能的全过程动态监控思想来看,这当然是较为妥当的设计,但很难就生成式人工智能在具体案件中的结果归属提供可靠的判断标准。
笔者认为,《办法》在刑事政策与刑法规范这两个层面都进行了较为明确的规定:一方面,《办法》第三条规定了“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展”,这说明在风险分配问题上,立法者采取了略微偏重科技发展并兼顾人类安全的刑事政策立场,因而即使生成式人工智能不具可解释性而导致了法益侵害结果,也可以将其归属于生产者或使用者,只是要施加一定的限制;另一方面,《办法》还对“准备、运算与生成”人工智能的三个主要的运行阶段进行了规定,如准备阶段的数据来源、模型的合法性要求(第七条),运算阶段的数据标注、数据抽检以及数据真实性、准确性、客观性、多样性的要求(第七条、第八条),以及生成阶段的签约使用协议(第九条)、明确适用对象、场景(第十条)、个人信息保护(第十一条)、深度合成标识(第十二条)等要求。对于判断生产者或使用者应否承担生成式人工智能所创设并实现的风险而言,过程式的、体系化的技术规范足以提供明确的指引,接下来的问题就是,如何将技术规范运用到客观归属的具体判断之中。
(三)技术规范违反与风险分配
若人工智能产品的生产者或使用者违反技术规范,即可被视为创设了法所不容许的风险,但就结果的客观归属而言,还需要确认不被容许的风险得以实现,才能最终将法益侵害结果归属于生产者或使用者。这主要涉及客观归属的义务违反性关联问题。义务违反性关联是指,法益侵害必须是违反注意义务的行为所造成的,若行为人遵守注意义务也无法避免法益侵害结果的发生,就不具有注意义务与法益侵害结果之间的关联性,风险就不能被评价为是由行为人实现的。在人工智能时代,对义务违反性关联可能存在不同的理解。例如,瑞士学者比扬·法塔赫-穆加达姆(Bijan Fateh-Moghadam)就认为:“由于人工智能系统的决策根据在科学上的可解释性存在局限,这也导致了义务违反性关联方面的证明问题……因此人们一方面讨论在制造者与运营者的责任方面突破罪责责任,即引入严格责任(strict liability);另一方面的讨论则涉及将人的责任能力扩张到机器人以及软件代理(software-agenten),以此实现将责任从人转移到技术上的效果。”
笔者认为,立法者对生成式人工智能不具可解释性的法益侵害风险,本就通过技术规范在生产者与使用者之间进行了分配,因而义务违反性关联的判断不应采取一般人标准,而应使用专家标准。例如,人机共驾模式下,使用者虽然履行了安全操作义务,但机器通过生成式的算法作出了生产者无法预见的算法决策并导致法益侵害结果,就不具有传统意义上的义务违反性关联;但如果生产者使用的是生成式人工智能技术,本就要承担更大的注意义务。这是因为,《办法》第十条对生成式人工智能技术在适用领域上进行了类型化要求的指示,即“提供者应当明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术”。申言之,生产者、使用者知道其所生产、使用的是生成式人工智能产品,就应当做好未知风险可能带来更糟糕的后果的预判,因而应当承担更高的注意义务。
不过,技术规范作为前置法,虽然为智能产品的生产者与使用者创设了注意义务,但在交通肇事、侵犯著作权以及侵犯公民个人信息等领域中,注意义务的规定又较为抽象、概括,这就可能导致一种法治风险,即技术规范创设了过高的注意义务。然而,应当明确的是,义务违反性关联是一个不法层面的判断,而不法层面设置的客观标准,完全可以根据刑事政策的需求上下调整,只要能确保对危害结果的客观归属不会严重影响科技发展的积极性,就可以在刑事政策的价值判断中向保护人类安全这一端倾斜。特别是,生产者、使用者本就能够认识到生成式人工智能产品的抽象危险,只是无法精准预测到其所可能导致的具体危险。一个使用生成式人工智能产品进行写作的人,难道不知道该产品具有更高的知识产权侵权风险?一个将生成式人工智能技术植入自动驾驶系统的人,难道不清楚该自动驾驶车辆更有可能不受控制?只是在刑法尚未修改之前,在罪刑条款依旧要求具体危险或者实际侵害时,不能违反法律将结果犯、具体危险犯认定为抽象危险犯。毋宁说,真正成问题的是,技术规范作为标准是否会对人工智能产品的使用者施加过高的负担,这就要求我们对生产者与使用者进行不对称的风险分配。
(四)生产者与使用者之间不对称的风险分配
根据《办法》第三条,应当对生成式人工智能服务实行包容审慎政策和分类分级的监管。因此,在生产者与使用者之间分配风险的最佳方案,应当是在准备、运算与生成这三个阶段就不同的犯罪类型进行设计。
其一,准备阶段。该阶段主要涉及人工智能产品的生产者。就结果的客观归属而言,准备阶段要应对的难题是:区分大数据基础不充足的算法决策与大数据基础充足但是不具可解释性的算法决策。对于前者,有学者认为:“在自动驾驶汽车自主控制状态下发生交通事故的,其生产者、使用者和其他人员难以按照我国现有刑法的罪名定罪处罚……应当建立以生产者全程负责为中心的新刑事责任体系。”笔者认为,这种思路在准备阶段对生产者赋予了过低的义务,却又在运算阶段为生产者赋予了过高的义务。一方面,准备阶段生产者不仅在算法上要符合安全标准,还要尽可能确保充分的大数据基础,仅仅只是算法符合安全标准,还不足以合法化生产者的行为;另一方面,如果大数据足够充分且算法符合安全标准,那么运算阶段出现的法益侵害结果就应当有限地被归属于生产者,否则生产者就要承担漫无边际的风险。只有生产者明知自己使用的是生成式人工智能,才能基于科技发展与人类安全的价值判断,适当提高其注意义务。
因此,大数据充足而不具有可解释性的算法决策才是生成式人工智能在准备阶段真正要解决的问题,即生产者对大数据是否进行了充分合法的挖掘,对算法是否进行了合规的设计。在这个阶段,应当在区分犯罪类型的基础上,采取不同的风险分配模式。一种模式是限制数据挖掘。就侵犯知识产权、侵害公民个人信息、侵入计算机信息系统等常见犯罪而言,不是要让人工智能尽最大可能地挖掘大数据,而是要尽量克制对不必要信息的收集。例如,公民个人信息应当以收集必要的信息为限,不能过度收集。运用ChatGPT等生成式人工智能完成文字工作,以挖掘不违反知识产权的内容为限。另外一种模式是追求充分数据挖掘,自动驾驶即为典例。这是因为,生成式人工智能的算法需要依赖道路、天气以及其他车辆的状况等大数据基础才能进行正确运算。至少,生成式人工智能要比传统的弱人工智能进行更为充分的数据挖掘,才有资格进入算法运算与产品生成阶段。总的来说,无论哪种模式,都要求准备阶段的算法尽可能符合安全标准,即要求生产者对生成式人工智能可能导致的法益侵害抱有一种桑斯坦(Cass R. Sunstein)所说的对“最差的情形”的预估。
其二,运算与生成阶段。运算与生成阶段生产者与使用者均有参与,因而可以一并探讨。这两个阶段需要解决两个问题:一是算法黑箱、算法歧视的规范评价问题,二是以此为基础的生产者与使用者的风险分配问题。算法黑箱、算法歧视既是一个技术问题,也是一个法律问题,法律人的主要任务是根据科学家确立的科学认知基础进行规范评价。有学者认为:“无论是事前规制还是事后问责都需要以法律系统与算法系统的良性互动为前提……应当通过算法标准自我声明机制推动软法的‘硬化’,规范算法贴标,逐渐消灭‘无标生产’,构建软法硬法混合算法规制模式。”这一思路,其实就是要让科学家尽可能为算法区分出不同的标签,法律人就可以根据这些标签判断《办法》第四条第(五)项、第七条第(四)项等规定要求的算法透明度。然而,对于具有有限自主性的生成式人工智能而言,算法黑箱、算法歧视会以更加多样、复杂的形式呈现,因而期待科学家能够为算法运算过程提供一套完整的标签是不现实的,在算法黑箱、算法歧视无法避免的基础上,法律人还是要对其进行风险分配上的规范评价,这就涉及生产者与使用者之间的风险分配问题。
就风险分配而言,一是风险的外部分配,即生产者与使用者对生成式人工智能产品都要有一定程度的“最差的情形”的预估;二是风险的内部分配,即生产者相对于使用者总是要承担更高的注意义务。
就风险的外部分配而言,要对算法的先天缺陷与后天缺陷发展出不同的技术规范,并赋予生产者、使用者相应的注意义务。所谓算法的先天缺陷,是指算法本就存在算力不足、算法无解等问题,对于这种情形,生产者要进行最大限度的人工调校,在未进行充分调校和审查的情况下,不得随意将人工智能产品投入市场。所谓算法的后天缺陷,是指生成式人工智能产品投入使用后,通过自主学习产生的算法黑箱、算法歧视。对于这种情形,要对生产者的责任进行适当的扩张,即生产者对生成式人工智能可能会自主生成某些不具可解释性的、可能导致更严重法益侵害的算法决策,要有一种“最坏的预计”。不过,如果生产者充分承担了事前告知义务、事中监控义务与事后召回义务,则可以认为义务违反性关联并不具备,进而否定结果的客观归属。
就风险的内部分配而言,生产者与使用者所承担的注意义务是不对称的。一方面,对于人-机协同操作的智能产品,技术规范对生产者赋予了更高的注意义务。例如自动驾驶遇到算法故障并造成法益侵害时,应当由生产者而非使用者承担责任。这是因为,若故障较为简单,生产者就应当预先设计应对此类故障的算法;若故障较为复杂,则更不能苛求使用者进行技术层面的调校。另一方面,对于完全自主的智能产品,应当由生产者主要承担注意义务。例如涉及知识产权的内容生成问题,ChatGPT“作为一种内容生成技术,它的行为射程和效用状态体现的仍然是背后设计者和使用者的主观意志与价值选择”,在不涉及人工操作、调校时,知识产权方面的法益侵害当然应当被归属于生产者,而不是使用者。
总的来说,外部的风险分配是将生成式人工智能所造成的不具可解释性的法益侵害有限归属于生产者或者使用者;内部的风险分配则是在此基础上对人机协作与机器自主进行区分,人-机协作中生产者承担相对较高的注意义务,机器自主中生产者承担主要的注意义务。
四、科技发展与法益保护的平衡:人工智能危害结果客观归属的限制
之所以要通过风险分配来填补生成式人工智能的刑法处罚漏洞,是因为生产者与使用者知道其生产或使用的是具有一定程度不可解释性的智能产品,因而应当承担更高的注意义务。不过,从《办法》第三条“包容审慎”的政策来看,为寻求科技发展与人类安全之间的平衡,还是要对生成式人工智能所致法益侵害的客观归属进行一定程度的限制,引入溯责禁止与自我答责等客观归属理论的下位规则是较为可行的路径。
(一)将危害结果归属于生产者的限制:溯责禁止
溯责禁止(Regressverbotsfall)是指:“一个自由答责地实施行为的行为人接续了一个事前举止,而该事前举止在首次行为者看来并非犯罪计划的组成部分。该事前举止可以说被犯罪化地‘滥用了’,最多只能对首次行为人进行过失非难。”我国学者将其总结为三种类型:一是狭义的溯责禁止,即前行为人的过失行为引起后行为人的故意且完全答责的行为时,前行为人原则上不可罚;二是广义的溯责禁止,即前行为人的过失行为对后行为人自我答责的过失行为产生一定作用时,前行为人原则上不可罚;三是最广义的溯责禁止,即前行为人的故意或者过失行为对后行为人自我答责的行为产生一定作用时,前行为人都无须承担责任。
不同于传统犯罪的客观归属,生成式人工智能犯罪的难题是智能产品在大数据基础的算法决策上具有一定程度的不可解释性,对此类智能产品的生产者、使用者负有更高的注意义务,理由其实并不在于生产者、使用者能够认识到生产、使用行为可能导致某个较为具体的危害结果,而在于生产、使用生成式人工智能产品本身就存在一种抽象危险。因而,如果将生产者的生产行为视为前行为,其主观构成要件方面至多也是一种“危惧感”过失,即“对于预见可能性的判断来说,并不要求具体的预见可能性,只要达到一般人所具有的危惧感的程度就足矣”。因此,在生成式人工智能犯罪中,生产者的前行为至多只是过失引发了使用者的行为。当然,若生产者故意设计某种“杀人机器”,其要么对使用者构成直接正犯,要么利用使用者作为工具构成间接正犯。所以,基于使用者相对于生产者的不利地位,只有使用者存在重大过失或者故意时,才应当考虑狭义溯责禁止的适用。
具体而言,其一,就人机协同人工智能产品而言,例如ChatGPT需要使用者不断输入新指令、半自动车辆需要驾驶者履行必要操作等情形,若使用者存在重大过失,可以考虑对生产者的溯责禁止;其二,就全自动智能产品而言,除非使用者故意破坏智能产品的大数据、算法以及某些硬件,才可考虑对生产者的溯责禁止;其三,对于极端天气、他人违反交通运输管理法规肇事等生产者无法预见的情形,应结合情形的特殊程度以及生产者对产品有无预先植入符合安全标准的监控风险与应对风险的算法来进行综合考量。总之,溯责禁止是一种客观归属的实质判断,其依然要根据技术规范在科技发展与人类安全之间的价值权衡来进行综合考量。
(二)将危害结果归属于使用者的限制:有限自我答责
除根据溯责禁止规则限制将危害结果归属于生产者外,还要对自我答责原则进行限定,以限制将危害结果归属于使用者。自我答责,与上文提到的风险管辖具有内在逻辑关联。刑法中,危害行为导致的法益侵害结果只能归属于创设并实现风险的人。虽然行为人的行为对被害人会产生法益侵害风险,但如果被害人自愿接受了风险,就阻止了行为人对风险的管辖。在人工智能领域,智能产品可能危害的不仅仅是生产者与使用者之外的第三人,还有可能是使用者本人。与此同时,生产者为规避自己的法律责任,一般都会以使用说明、免责声明等方式将风险转嫁给使用者,在可以预见的未来,若生成式人工智能因不具可解释性的算法决策导致使用者受到侵害,如何在刑法层面评价此类免责条款的效力,会在实践与理论中引发不小的争议。笔者认为,既要认可自我答责理论对生产者责任的限制,也要限制使用者自我答责的范围,即使用者对生产者只是有限的自我答责。
一方面,对于生成式人工智能产品的不可解释性特点,生产者与使用者在生产之前或者使用之前都是了解的,不能因为出现大数据基础上不可解释的算法决策,就将其导致的后果一律归属于生产者。例如,在运用生成式人工智能的全自动驾驶技术时,使用者依然要遵守道路交通安全方面的法律法规,在既有规范未做修订之前,使用者并无理由基于对全自动驾驶技术的信赖就在驾驶座位上睡觉、休闲、娱乐,如果此时出现了无法解释的算力不足、算法偏差且使用者可以及时调校、操作以避免风险实现的情形,那么使用者受到的伤害就不能归属于生产者。毋宁说,在自动驾驶真正取得公众对其安全性的信任,且在技术上完全达到类人的水准时,才能允许使用者在驾驶座位上作出“不同以往的举动”。毕竟,使用者对生成式人工智能可能出现的“最差的情形”也具有一定的注意义务。另一方面,即使将生成式人工智能不具可解释性的法益侵害结果归属于使用者,绝大多数情形危害结果的发生并不能通过使用者对智能产品的操作、调校予以避免。其一,有关生成式人工智能产品的使用说明书、免责格式条款甚至更为具体的免责协议,都不能将生成式人工智能的法益侵害风险全部转嫁给使用者。一部分原因在于生产者相对于使用者更了解产品的缺陷与风险,另外一部分原因在于生成式人工智能的不可解释性,将未知的风险通过民法层面的协议转嫁给使用者并不可取,即使是被害人自陷风险、被害人同意也要求使用者认识到较为具体的危险,而不是某个未知的抽象危险。其二,对于生成式人工智能产品创设的不被容许的风险,若使用者只有具备超出社会一般人的能力才能完成人工调校,那么危害结果的实现仍应当归属于生产者。这是因为,虽然法益侵害不具可解释性,但在科技发展与人类安全的价值权衡中,立法者通过技术规范为生产者规定了更高的安全监督义务,即使生产者最终因为责任排除事由不构成犯罪,也应承担相应的民事责任。
五、结 语
生成式人工智能不是纯粹的工具,而是具备有限自主性的智能体,应当避免陷入“机器人是否具有与人类相似的自由意志与道德判断”的事实思维,拘泥于人工智能有无认识能力与意志能力的主观归责问题。应当注重规范思维,即如何在法律层面评价“生成式人工智能在大数据算法基础上作出的不具可解释性的算法决策”这一事实。真正的问题在于:生成式人工智能可以独立创设并实现法所不容许的风险,却又无法由智能体本身承担责任。为填补这一处罚漏洞,应当将注意力集中于客观归属问题,即能否以及如何将人工智能产品所造成的法益侵害归属于生产者或使用者。《生成式人工智能服务暂行管理办法》等技术规范,体现了立法者在科技发展与人类安全之间的价值立场抉择,因而应当以技术规范为依据,在生产者与使用者之间分配风险。一方面,只要生产者与使用者知道其所生产、使用的是生成式人工智能,就应当要求他们对人工智能产品在不可解释性算法决策下可能造成的法益侵害有着“最坏的预计”,这也是将风险归属于生产者、使用者的依据。另一方面,在准备、运算与生成这三个阶段,应结合犯罪类型将风险不对称地分配给生产者与使用者。在准备阶段,由生产者承担注意义务;在运算与生成阶段,由生产者承担相对较高的注意义务。此外,既然生成式人工智能具有一定程度的不可解释性,应当根据客观归属理论的下位规则限制危害结果的客观归属。对于生产者,可以根据溯责禁止原则限制结果归属;对于使用者,可以根据有限的自我答责原则限制结果归属。
- 欢迎关注本微信公众号 -
《华中科技大学学报(社会科学版)》
唯一官方微信平台
联系电话:027-87543616
投稿网站:http://hzls.cbpt.cnki.net/
版权所有
欢迎个人转发,媒体转载请联系授权
(文中插图未经注明均来自网络)
长按识别二维码关注我们
点“阅读原文”了解更多