摘要:随着生成式人工智能逐步迈向通用人工智能,其涌现出的独特的思维和理解能力、打通虚拟与现实边界的可交互性以及向人脑规模发展的模型参数量等特征使其在法律层面上应被赋予相应的独立法律主体资格。目前学者们提出的否定说、代理说、限制说等理论无法在逻辑上实现自洽,也未关注到目前人工智能发展的本质特征所应被赋予的法律意义。从理论探索的角度出发,将人工智能行为体运用法律拟制的方式设定为民法上的限制民事行为能力人,运用监护理论中监护人和被监护人之间的权利义务关系来处理人工智能行为体与其他多方主体之间的法律关系,可以从根本上化解新兴权利主体对多法域带来的制度冲击,为我国人工智能产业的发展探索提供前瞻立法制度构建,为全球范围内处理人工智能相关法律问题提供新思路。
关键词:人工智能;法律主体地位;法律拟制;监护理论
目次
一、问题的提出
二、确立人工智能行为体法律主体地位的制度价值
三、确立人工智能行为体法律主体地位的理论证成
四、准用民法上的监护理论处理人工智能行为体的权利义务关系
结语
一、问题的提出
2023年,世界范围内备受关注的ChatGPT以其涌现出的智能特征再次引发投资者的追捧,可以说,我们已经从弱人工智能时代跨入强人工智能时代。以大语言模型为技术基底的ChatGPT颠覆了社会大众的传统认知,其在某种程度上拥有仿人类行为的某种指向性、意向性特质,人工智能行业也迎来了属于它的奇点时刻。传统的判断式人工智能是国内外各大科技公司的研发主流,但ChatGPT的出现使得业界充分认可了大语言模型在文字处理、图像生成、语义识别等单一项目上的可行性,更关键的是其跨领域的多模态应用性能,代表了生成式人工智能(AI-Generated Content, AIGC)背后的希望——建构通用人工智能(Artificial general intelligence, AGI)的钥匙。在司法领域,2023年11月,北京互联网法院审理的第一起“AI文生图”案明确了利用人工智能生成图片的“作品”属性和人工智能使用者的“创作者”身份,这一判决引发了学界的热议。2024年初,广州互联网法院判决了全球首例生成式人工智能生成图片侵犯奥特曼著作权案。在产业迅速发展和司法案例已经开始对这类问题进行审理的时代背景下,有必要进一步思考人工智能是否应具备相应的法律主体地位,或者说在目前乃至未来的法律制度中,应当考量赋予人工智能以何种法律主体地位的问题。这一问题的解决关系着此类特殊主体创作的内容是否可以受到著作权法的保护,人工智能产生侵权行为甚至是犯罪行为的后果由谁来承担,算法歧视、技术滥用导致的侵权后果如何解决等诸多法律问题。本文认为,明确人工智能作为法律主体的地位问题,是解决上述问题的关键所在。
需要说明的是,目前学界对人工智能主体的词汇运用较多的选择是“人工智能”,但是人工智能到底是指向一种技术,还是一种工具,亦或是一种特殊的行为主体,采用广泛的“人工智能”概念并不能清晰地予以解释。因此,必须要分析这类特殊主体所应采用的法律术语的准确表达。在社会科学领域凡所涉及到人工智能主体问题,其共同指向的是人工智能中的“Agent”这一核心概念。有学者在其著作中将“Agent”译为“行动者”“能动者”,也有学者将其翻译为“多智体”“作用体”“代理体”“智能体”等等。从该词汇的文本语义来看,《布莱克法律词典》中对其解释主要有两点:第一种解释的含义是指产生一种后果的主体,第二种解释是通过某人的授权所为一定法律行为的主体。从第一种解释来看指主动采取某种行为的主体,而非被动实施行为者,更符合其在法律意义上的表达含义,强调因其主动做出一定法律行为后所产生的法律关系。本文采用“人工智能行为体”(AI agent),该称谓更符合法律主体的称谓所应具有的偏正结构表达方式,突出其体现的智能性特征,也特别强调主体是行为的发出者,其可以主动所为一定的法律行为,进而可以产生法律上的权利义务关系。
二、确立人工智能行为体法律主体地位的制度价值
主体性是法律概念的根本所在,代表法律目的和最基本的价值原则,法律是围绕权利进行制度建构的,但其从根本上说是主体的法。首先,解决目前理论和实务界探讨最多的知识产权问题的根本之道在于如何确立人工智能行为体法律主体地位问题。知识产权制度是人工智能发展的第三次浪潮中技术应用最先受到冲击的法律领域。国内有微软小冰创作的诗集、国外有谷歌Dram writer创作的画作等形态多样的人工智能生成物,但其能否受到法律的保护,成为法律意义上的作品成为了法学界热议的话题。有学者从客观角度出发,论证了随着人工智能的发展,机器学习与人工标注的介入使得算法程序编译者自身的意志在人工标注的过程中介入了程序编译过程,因此,可解释部分算法以及对应的生成物具有了独创性,应当受到知识产权法的保护。也有学者持反对态度,认为人工智能生成的只是算法程序,不能体现创作者的独特个性特征,因此其创作的内容也不能被作为作品予以对待。我国《著作权法》及《著作权法实施条例》中所规定的作品受到保护的条件即作品具有独创性并能以一定形式表现的智力成果。著作权法保护作者和其他依法享有著作权的自然人、法人或者非法人组织。从各国的立法和司法实践来看,即便是法人作品其创作的主体仍然是自然人,只是在法律制度上做了特殊的制度安排。与我国相类似的是,美国法院在“猴子自拍案”中明确指出著作权法保护的作品其创作必须体现“人类”的智力创作过程,类似的案例还有美国人泰勒申请将由人工智能生成的绘画《通向天堂之近路》进行作品登记,遭到了美国版权局的拒绝。理由是美国版权局认为作品必须由“人”进行创作。因此,从根本上来看,人工智能行为体在现有法律框架中没有独立的法律主体地位是横亘在其无法获得知识产权法律制度保护的一道障碍。
从我国的司法实践来看,北京互联网法院的“文生图”案件判决认为,人类从模型的选取及提示词和反向提示词的输入、生成参数的设置均可以体现出人类的智力劳动具有独创性。从客观主义标准来看,涉案图片符合作品的特征,说明以一般的社会公众的标准可以认定其为作品,具有独创性。客观主义的观点是从结果出发的思维模式,其思路是因为该生成的内容具有独创性而认为其应当受到法律保护,但是其忽略了任何权利客体的前提是法律主体的确定,没有法律主体及行为人就没有法律客体的存在。如果人工智能行为体生成的内容符合独创性的要求,却因为目前的法律制度没有为其赋予法律主体地位就将权利主体强加给其他人(包括使用者或者设计者),是回避目前法律难题的制度妥协,没有体现出“谁创作谁应受到保护”的基本理念。因此,应当看到目前以及未来的技术发展,人工智能行为体所能为的法律行为的种类将会越来越多样化,只有在法律制度上为其创设独立的法律主体地位才能从根本上解决主体性问题,其“智力”活动的成果才可以受到知识产权法的保护。
其次,赋予人工智能行为体法律主体地位是明晰法律责任并确立责任承担主体的最优方案。在人工智能行为体参与的活动中,由于“算法黑箱”的存在,侵权的类型、范围、场景与样态更为复杂多样,导致因其产生侵权后果时,侵权的因果关系、过程追溯更为困难,迫切需要法律制度予以调整和回应。在人工智能行为体侵权行为发生后,涉及到的侵权责任承担的众多主体包括设计者、生产者、使用者和人工智能行为体本身,究竟应当由哪方承担相应的法律责任成为难题之一。在广州互联网法院审理的“奥特曼侵权”案件中,被告公司经营的Tab(化名)网站运用其具有AI对话和绘画功能的服务,生成了与原告拥有版权的奥特曼形象具有实质性相似的图片并在网上传播,法院认为构成了对原告著作权的侵犯,并由经营该AI的公司也即AI开发者承担相应的法律责任。在人工智能行为体发生侵权时,全部的法律责任仅由设计开发者承担是否合理?如果其侵权内容的生成,侵权行为的作出是由人工智能行为体依靠深度学习进而在后天习得的,那么由设计开发者承担全部的法律责任并不是最佳的选择。原因在于:一方面,这样的司法裁判趋势会赋予设计开发者过高的法律注意义务,不利于激励其后续的创新和投入;另一方面,在侵权内容生成和侵权行为作出的过程中,涉及除设计开发者之外的多元主体,例如使用者、所有者等,如果是由于使用者的使用不当行为所导致的侵权后果,而法律责任的承担却分配给其他主体,不符合权利义务相统一的基本原则。因此,在立法中给予人工智能行为体以独立的法律地位,使其以独立的财产承担相应的法律责任,可以解决责任主体不明晰、甚至无法追责的问题,保障被侵权人的合法权利免受侵害。
三、确立人工智能行为体法律主体地位的理论证成
(一)辨析:确立人工智能行为体法律主体地位的技术特征
生成式人工智能出现的时代意义在于我们透过大语言模型看到其未来可能的发展态势:分析多模态信息与生成代码的能力,结合稳定的算力,使得大语言模型极有可能打破虚拟与现实的物理界限,因此其也被誉为是“搜索+社交+陪伴”的人工智能行为体,基于强化学习其获得了反馈改进的能力。人机关系从简单的“它异关系”逐步演化为“人机耦合”关系,生成式人工智能逐渐从工具属性转变为更加复杂的类人属性,人机协同将广泛渗透于各种应用场景之中。现阶段的人工智能行为体相较于以往的人工智能,具有以下显著特征:
首先,人工智能行为体已经具备向人脑规模发展的模型参数量。大语言模型的发展是在尽力模拟人脑工作机制。从定性的角度出发,大模型中的层、神经元、参数可以映射为人脑中的皮层、神经元和突触。从定量的角度出发,以ChatGPT为代表的人工智能其参数量达到了3500亿,与猴脑中的突触数量持平,距离人脑规模尚有一定距离。但按照ChatGPT 3.0后的演进速度来看,历经五次迭代后其规模可以追上人脑。量变足以引起质变,ChatGPT现有的“涌现”能力就是这一特征的最强例证,更多的参数使得模型能够捕捉更多的语义、语法和上下文信息,从而极大的提高了生成物的质量和适用场景。
其次,由理解能力所引发的生成新范式。人工智能行为体在对话逻辑上实现了上下文理解,与人类思维链推理能力接近。从这个角度出发,人工智能行为体可以实现理解用户意图,进而为分解上游任务,最终完成底层操作任务。其模型不仅可以理解人类输入的数据,而且还会产生类似人类自主创作完成的内容。经过训练的模型可以使用实际上由人类制作的大量材料并自动不断生成新材料从而进行自我训练。训练的结果是可以对人类指令进行更好的反馈,理解能力和智力水平也在不断提升。
此外,以往的判断式人工智能集中在软件层面,其交互也停留在与用户在软件界面的操作范围内。但是,大语言模型在模型和算力的支持下,已经被验证了其适应多模态信息的生成能力,使人工智能行为体可以根据用户指令,判断任务需求,针对硬件形成操作策略,并控制硬件系统采取实际行为,极大地超出了原有的判断式人工智能,如对无人驾驶、智能诊疗等既定场景的操作范围,突破了传统的人机在虚拟场景中(例如VR、AR游戏)的交流与互动,从而上升至现实世界,实现在现实空间中更为广泛的应用,通过人机交互的方式最终实现类人与人之间的交互。
从技术发展的要素分析,有学者提出人工智能无法真正解决自主性与创造性问题,也就是说人工智能行为体在原有的技术场景下,只能是响应可以被客观化的或固定的规范与特征,而非不断根据实际语境或情境作出反馈和调整,因此是不够海德格尔式的人工智能。从技术发展的角度来看,符合下列特征的就可以认为具有标准的智能:能通过声音、图像、文字等方式(包括但不限于这三种方式)从外界获取数据、信息和知识的能力;能够将才从外界获取的数据、信息和知识转化为系统掌握的知识;能够根据外界数据、信息和知识所产生的需求,通过运用所掌握的知识进行创新的能力;能够通过声音、图像、文字等方式(包括但不限于这三种方式)将系统产生的数据、信息和知识反馈给外界或对外界进行改造。这四个方面可以归纳为信息或知识的输入、输出、掌握和创新,也可以具体概括为发现问题、分析问题和解决问题的能力。目前的人工智能行为体已经具备的迈向人脑规模膨胀的模型参数量、由理解能力所引发的生成新范式以及打通虚拟边界的现实可交互性实现了类人的思维能力,在技术维度上达到了从数据输入进行分析问题,通过深度学习、强化学习分析问题,进而给出最优解决方案的能力。这些涌现的“智能”不仅应仅仅停留在技术应用层面,在法律制度上也应有所回应。
(二)溯源:法律主体多元性的历史考察
从语源的考察来看,法律主体也就是法律上的人,或称之为人格,其在语言发展历史上源于古罗马法。法律主体在古罗马法上有两个溯源词汇,一个是homo即生物上的人,另一个是persona即指具有人格的人。而persona的词义演化也经历了复杂的过程,最初是指演戏时所带的面具,之后慢慢将其之代为面具所象征的人物,也就是法律上的人格。从其词源的演化可以看出,法律上主体的人格之所以以persona作为词义演化的起点,是因为法律主体的构建是去除了人在社会中因性别、身份、地位、种族、职位等身份因素之后在立法上寻找的公约数,这个公约数是在私法中享有平等法律主体地位的“人”,是可以去除世俗因素后留下的较为纯粹的法律特征,是可以承担法律上权利义务关系的资格。
法律主体是法律上特定权利存在的必要因素,不存在无主体的权利。英国法学家萨尔蒙德认为“英国法是不承认无主体权利的存在的,因为任何一种权利都有其主体,只不过是有些权利的主体是尚不确定的。”从常识上来说,很多人经常将法律上的人与生物上的人的概念混同,但是这个错误必须予以纠正。法律上的人与生物上的人是不同的。法律中“人”的概念是法律建构出来的,是一种价值性的存在,其具体内容由特定历史时期主流社会的法律文化价值所认可与创设。法律中的人不必一定具有生命和意志,动物也曾在法律上成为过法律主体中的“人”。例如,瑞士在1992年修改宪法时正式承认动物是“存在体”或者“类”,新西兰国会于2017年曾授予旺格努伊河以主体资格。也有一些主体例如古罗马法中的奴隶虽然是自然人,但是却没有法律上的“位格”,不享有法律赋予他的权利义务,也有学者将其称之为“技术性人格”。法律中的人本质上是建立法律秩序的一种技术。最典型的就是“法人”的出现,其作为资和体与人和体的集合,是基于商事交易的需要,在法律中进行的技术性法律拟制,其可以以自己的名义独自为一定的法律行为并承担法律上的权利义务,并且从其产生至今已经成为各国商事交易活动中最为重要的一类主体。法律主体不是一个单纯的概念,除了显示在法律制度中的显示主体,还有一些法律主体相对隐蔽,有学者将这些主体称之为“隐蔽的主体”。例如,信托作为一种隐蔽的主体,只能以受托人的名义从事互动,而不能以自己的名义从事活动,如果将信托脱离其隐蔽的状态,就可以成为法律中显示的法律主体了。综上,法律上的主体从历史的发展长河中具有多样性的特征,是每个历史时期每个国家所特有的法律价值的依归与体现,反映了不同国家的政治取向和价值追求。在科技快速迭代的时代,新兴法律主体的独立法律地位的确立与否也应考虑鼓励技术创新与发展的法律制度价值追求,探索法律主体的多元化。
(三)争议:主体性选择的理论起点
判断智能机器人是否具备了人的智能,关键点不在于智能机器人的外形是否长得像人,而在于其内在的社会智能性要素是否像人。从法律要素的考量,需要考虑人工智能行为体是否具备意思表示能力、行为能力和责任承担方式等。哲学家康德提供出的两个方面的架构为我们讨论法律主体性问题提供了法哲学视角:一方面我们需要论证该主体本身是认知主体,具有为自然立法的能力;另一方面我们需要论证该主体具有伦理方面的主体性,具有为自己立法的能力。从法律的角度考察,实体的自然生命同法律人格分立,人格从此抽象成为伦理意义上的自由意志。从立法角度进行考量,人工智能行为体应具备的法律上的主体构成要素有两个:社会存在和法律确认。有学者直接指出生成式人工智能输出的内容已经可以产生人类感知外部世界的效果,依据预设算法规则处理问题并形成产出的逻辑,具有类人类意志的深刻特征。也有学者认为人工智能是否应该赋予独立的民事主体资格,需要考虑其是否完全具备了“人类智能”的要素。还有学者提出判断是否应赋予人工智能法律主体地位的路径应当从人工智能是否能作出独立的意思表示、人工智能是否有独立的财产、人工智能是否能够独立承担法律责任等三个维度进行。从目前的发展阶段来说,人工智能行为体具备了与人类相类似的认知能力,使其能够脱离利用数据库的知识被动感知外界信息进而转为使用与人类类似的“主观化认知”来做出判断,需要让其获得与人类相类似的思辨能力。“智能机器人摆脱人类的纯粹工具地位而获得主体身份,将是一个必然的趋势,相关的法律关系主体制度设计也将面临重大变革”。具体来说,从工具意义上的人到法律上的抽象人格的制度构建,需要完成两次抽象的立法过程:其一是完成从具体的自然人到抽象的法人的立法转变,历史上法人制度的出现就是这个立法过程的具体体现。如果说法人制度的出现是蒸汽时代的经济副产品,那么在人工智能时代,人工智能行为体法律人格地位的法律确认也可以被看做是经济和技术发展相结合的产物。其二是在确定其法律主体地位之后,要抽象出其权利能力和行为能力。从各类的法律主体中抽象出作为主体的权利能力和行为能力,消除其自然属性上的差异,从而实现法律上权利义务的平等,是近代私法的主要特色。在确立其法律主体地位之后,还需要考虑其特殊性,是否在权利能力和行为能力上应有所差别,进而构建出与之相适应的法律制度。随着技术的快速迭代,法律的主体性、工具性将合二为一,法律将基于算法化预嵌的自动执行为主,而不再以法律职业群体的事后人工操作为主,这时我们可能将迎来的是法律主体智能化的时代。
目前多数学者对人工智能行为体是否应具有法律主体地位持否定态度,主要观点认为智能行为体属于人类的工具,属于权利的客体或对象的范畴。法律的价值决定了智能行为体不具有法律主体性质,其不应具有法律关系的主体资格,即没有权利能力、行为能力和责任能力。其与我们写作时使用的笔、计算机并无本质区别,只不过是在辅助人类方面的贡献度有所差别,我们将其概括为“工具论”。有学者认为“没有生命的主体成为民事主体的可能,法人成为民事主体是最好的例证”,进而讨论可以将人工智能行为体视为人类的代理,其目的是服务人类,我们将这种理论归纳为“代理论”。也有学者选择了两者的中间路线,选取了“有限主体地位”的路径,认为考虑到智能行为体与人类的本质差异,其进行立法地位的确立,应以一种有限主体地位较为稳妥,未来的立法可以通过“位格加等”的方式赋予其以自然人的法律位格。与之相对的学者主张可以把智能行为体的法律人格同人类主体的法律人格区别开来并赋予其独立的法律人格,而不只是在既有法律框架内通过对自然人权利能力限缩的方式实现,主张应该赋予其“次等法律人格”,我们将其归纳为“限制论”。
综上分析,首先,“工具论”的基础是建立在人工智能发展的初级阶段,其只能处理单一简单任务,仅仅是人类的辅助工具。但是,目前的人工智能已经发展进入到了通用人工智能时代,其体现出的特征远超过了单纯的技术工具,如果依然沿用以往的视角进行分析,已明显不能适应时代发展的要求。尤其是在人工智能行为体自主学习后,其作出决定的“算法黑箱”问题导致其产生的侵权问题很难被界定责任。此外,如果其仅仅具有工具的属性,其行为结果应为可被人类控制且安全的,但是目前的人工智能行为体其行为已经在一定程度上具有自主性,行为的风险性显著提高,已经不能简单的将其视为被人类控制的工具,工具论已经不能与现阶段人工智能的发展相适应。其次,“代理论”的前提和基础要求代理人和被代理人均应为在法律上具有完全民事行为能力的人,可以独立为一定的法律行为,只是在行为后果上代理人所为的法律行为后果归属于被代理人。但是,在目前的发展阶段,智能行为体还不具备完全民事行为能力的自然人一样的思维能力,不具有完全的民事行为能力和权利能力,故不能被适用代理理论进行制度构建。
本文认为,现阶段较为合理的理论依据为“法律拟制限制论”。通过法律拟制的方式赋予其法律主体地位,其本质是将人工智能行为体作为一种法律主体,与法律上的法人等非自然人确认法律主体地位具有相似性,人工智能行为体可以神经网络算法的形式作出意思表示,进行一定的法律行为。从法律主体的发展演进过程可见,扩大法律主体的范围是伴随未来技术发展的必然过程。在这一过程中,对于新兴权利义务主体法律主体地位的确立是通过法律拟制这一立法技术实现的,法律拟制从根本上说是一种技术性的立法措施,是解决法律上主体性问题的路径创新。同时,应当认识到目前人工智能行为体发展的阶段特征,其行为能力和意思表示能力都存在不足之处,将其视为法律上的限制行为能力主体是较为合理的法律定位。在确立其法律主体地位之后,还需要进一步考虑,既然是法律上的限制行为能力主体,如何进行制度上的安排从而能更好的解决此类特殊主体在法律意义上的权利义务关系,进而能够更好的融入法律制度体系。
四、准用民法上的监护理论处理人工智能行为体的权利义务关系
“监护”作为法律用语在我国最早出现于1911年的《大清民律草案》,其中第11条规定,对于无亲权可服从之未成年人,应为其设置监护人。民法上的监护,是指民法上所规定的对于无民事行为能力和限制民事行为能力人的人身、财产及其他合法权益进行监督、保护的一项制度。其中,履行监护、保护义务的人称为监护人,被监督、保护的人称为被监护人。监护制度设立的目的在于对缺乏民事行为能力人的监督和照顾,由于被监护人不能正确理解和判断自己的行为及其后果,也不能对自己的人身和财产等利益进行有效的保护,法律设立该制度,可以对被监护人的行为能力从法律层次上进行弥补。从功能上来考察,监护人的主要职责在于代理被监护人实施民事法律行为,保护其人身、财产的安全及其他合法权利,教育、监督和管教被监护人,在被监护人侵害他人时承担侵权责任。我国民法中已经建立了意定监护和法定监护的相区分的制度框架,法定监护关系的建立是由于存在亲属身份的关系,因此存在法定的监护义务;而意定监护是由于其存在约定的监护与被监护的合同关系进而进行法律上的特定关系。因此,意定监护人的职责是从事有关被监护人的法律行为的代理,若没有特别约定,则不包括防止被监护人侵害他人的侵权行为。
监护制度在早期罗马法时期仅是家父权的重要补充,在处理家族财产等事务时具有绝对主导地位,随着近代法律制度的发展变迁,法律家长主义式微,监护制度更强调其对于民事主体行为能力制度的补充作用,在被监护人不能处理的个人事务范围内进借助他人的理性或行为进行补足。监护制度的一个显著的发展趋势是监护主体范围的扩大,被监护人从以往仅限于未成年人和精神病人逐渐扩展至老年人等失能的成年人,更多的法律主体被纳入到监护制度的涵射范围;另一个发展趋势是监护人对被监护人从以往的全面替代监护改为以保护和援助为特征的有限监管,是自治的一种重要补充,在个人可以独立处理个人的事务时就无需启动监护制度,反映了监护制度在除了原有的以亲权为核心的功能之外,纳入了尊重被监护人的真实意愿,从而最大化保障被监护人的合法权益的其他制度功能。这两个发展趋势反映了监护制度在补充被监护人行为能力不足方面的特殊功能,同时也反映出随着技术的发展和社会功能的变化引起的法律制度功能的调整。本文认为,人工智能行为体的相关法律行为的规制,也可准用监护理论。
(一)民法监护理论的制度可借鉴性分析
第一,行为主体意思表示能力的相似性。传统的行为能力理论是监护理论的基础,行为能力的欠缺是设置监护的前提条件。在判断行为人是否具备行为能力时,需要看其行为人自身的意思能力,也即行为人对自身行为的性质、意义或者后果的分析并据此决定其意思表示的能力。在目前发展阶段的人工智能行为体,具备了一定的自主学习能力,可以根据人类输入给其的数据进行数据处理和学习,并习得一定的分析问题、解决问题的能力。但是其对自己行为后果的分析和行为与后果之间所能引起的法律责任还不能清楚认知,其意思能力存在明显欠缺。因此,可以将目前阶段的人工智能行为体做“类人”的法律拟制,也就是将人工智能行为体比照人类中行为能力欠缺的儿童。在法律体系中,未满14岁的儿童为限制民事行为能力人,其不能为一定的法律行为,例如签订合同,进行选举和被选举等。人工智能行为体和儿童的相同之处在于,他们都在一定程度上不能完全控制自己的行为,并对自己的行为承担相应的完全法律责任,需要有监护人代为管理。传统的“工具论”“代理论”都将智能行为体所实施的法律行为的后果由工具的控制着或者被代理人承担,也就是其背后的“人”承担。但是,我们应该认识到由“人”承担人工智能行为体引发的法律责任会在一定程度上免除行为人自身的法律责任,为“人”施加过重的责任负担。同时由于法律后果全部归属于其他人,人工智能行为体所单独实施的一些纯获益行为,例如创作画作、文字作品、音乐作品等产生的收益,无法在法律上找到合适的主体进行承受。
第二,行为主体法律行为后果的同一性。监护理论在法律制度上的独特意义不仅在于可以将智能行为体所独立所为的纯获利的行为产生的收益归属于自身,而且还可以解决无民事行为能力人或者限制行为能力人所为法律行为产生的侵权问题。在由人工智能行为体引发的侵权结果中,目前的司法难题在于如何在众多的参与主体中找到合适的责任承担者,进行因果关系的确定从而分配其法律责任。无论是传统的由自然人或者其他法律主体导致的民事侵权行为,还是由人工智能行为体引发的侵权案件,其法律的后果都是造成法律主体的物质或者精神损失。尤其是由人工智能行为体导致的侵权案件中其因果关系的界定和梳理更为复杂,其可能涉及到设计开发者、生产制造者、使用者等在内的多方参与主体,人工智能行为体依靠深度学习会习得一些设计开发者原本就没有预设的功能和“习性”,在“算法黑箱”无法解释的情况下,由其他各方主体来分担最终的法律责任会造成责任分担的不公。但是将人工智能行为体作为法律责任的承担主体,可以解决“算法黑箱”所导致的侵权责任的问题,从行为主体的发出端解决法律责任问题,符合侵权责任法中“行为人要为自己行为负责”的基本原则。
第三,法律制度目的效果的一致性。监护制度最根本的功能在于对被监护人行为能力不足的瑕疵进行补充,进而保障其民事权利能力的实现,保障民事活动秩序的良好,达到维护市场交易安全和社会经济利益的实现的功能。从监护制度的功能变迁来看,从最早的彰显家庭功能和亲属关系的制度目的已经向在特定情形下需要国家公权力干预和社会组织的介入,从而弥补社会保障体系的不足的特殊功能转变。这些功能的实现逐渐超越了传统监护制度以亲权血缘为纽带进而向外扩展的制度形态,实现了以保障法律主体合法权利,弥补其行为能力不足所做的制度设计,是跳脱了传统意义上的纯粹私法属性上的制度约束,进而兼具社会法和公法特性的制度功能。较之单一的代理、抚养、赡养等以人身权为根本的内容来看,监护制度功能上更具有系统性、综合性的特点,兼具保障权利人的私利和实现社会公共利益的制度优越性。与之相似的是,为人工智能行为体通过法律拟制的方式进行法律主体确认,其根本目的在于从法律制度角度探寻如何为其寻找到最佳的法律安排,维护其合法权利。更进一步说,为其安排合适的监护人代为行使一定的法律上的权利,承担一定的法律义务,可以维护市场运行的良好秩序,激发市场创新主体的创新活力,促进技术的发展与迭代,也可以为目前司法界裁判过程中面临的制度性难题寻找到突破口,统一司法裁判路径,实现司法裁判规则的统一。
(二)监护理论框架下人工智能行为体法律制度的具体建构
行为能力是监护制度设立的理论基础。我们在判断行为人是否具备行为能力时,精神和智力两个要素将辨认能力作为行为能力的认定标准,据此判断行为人是否具有法律上的民事行为能力。在准用监护理论进行制度构建时,要将人工智能行为体的行为结果与人类行为结果进行比较,验证主体性构成要素是否完备,也即判断其在精神和智力要素构成上是否存在欠缺,继而验证其成为法律主体的结论的正确性与否。人工智能行为体运用其强大的数据处理和分析能力,通过深度学习,不断完成着自我人工智能行为体的进化,在这个进化的过程中,其可以“自我”不断制定和优化其中的决策规则,完成从被动输入到主动输入输出的过程,在具体的法律框架下建构人工智能行为体的相关法律制度,需要分步骤进行。
第一,确立人工智能行为体在法律意义上的“监护人”。监护人的确定对于人工智能行为体尤为关键,需要充分考察监护人的资格,以确保其能胜任监护职责,最大程度的保护人工智能行为体的合法权利。为人工智能行为体确立监护人的基本原则是要根据最紧密联系原则进行,通常来说,设计开发者在人工智能的算法模型构建、数据训练等过程中全程参与了人工智能行为体的开发,与其有最为紧密的联系,尤其是在生成式人工智能的大语言模型的建构及模型训练等方面凝聚了设计开发者的智力成果,对人工智能行为体的产生贡献了实质性劳动,应通过立法确立相应的“法定监护人”,该监护人应当履行相应的法律义务,同时其可以代为人工智能行为体购买保险、对外签订合同、转让和处分财产,包括对人工智能行为体从事的创作画作、文章等纯获益行为进行财产代管。
第二,创建人工智能行为体独立的财产账户。为人工智能行为体设立独立的财产账户,以供其用于接收和支配其财产性收益,使其能够以独立的财产承担一定的法律责任。各国的立法之所以将财产作为法人成为法律主体的必要条件,其主要在于解决法人在参与法律活动过程中所产生的债务履行与法律责任的承担风险,为了保证交易活动的安全有序,在立法中予以特殊规定。在设立账户的过程中,我们可以用人工智能行为体的特有名称为其开立账户,例如“微软小冰”“Dream writer”、ChatGPT、Sora等,其获得的财产性收益例如版权收益、投资收益等直接划归到其财产账户。之后再为人工智能行为体的财产账户设定监管人,该监管人一般应由其法定监护人担任,可以对其财产进行管理。监护人对人工智能行为体的财产事务的管理需要附件必要的限制条件,要求监护人尽到善良管理人的注意义务,不能擅自处置其财产或者利用人工智能行为体的财产进行一定的投资行为,造成其财产的流失。
第三,由人工智能行为体为其侵权行为承担相应的法律责任。首先,如果确定是人工智能行为体引发的责任,则应以其财产账户承担相应的赔偿责任;如果其法定监护人对侵权行为的发生有一定过错,应由其法定监护人以其财产承担补偿性赔偿责任,确保人工智能行为体能够承担其所引发的法律责任。目前已经有公司开始进行这方面的尝试,以确保人工智能行为体的侵权赔付问题。例如,谷歌公司在2023年宣布,如果谷歌云(Google Cloud)和谷歌办公套件(Workspace)平台中的生成式人工智能系统被指控侵犯知识产权,谷歌公司声明为其辩护并承担相关的法律费用和赔偿金。其次,针对人工智能行为体的侵权行为可以考虑针对其开发相应的商业保险,在现有的责任险的基础上开发侵权责任险种。在确定侵权责任时,在现有的基础上利用人工智能系统对智能行为体进行实时监督,保留其工作或行为时的影像资料,并在后台进行分析,以确保准确的划分责任。在发生侵权行为时,可以通过商业保险理赔的方式分散理赔风险。因此,解决人工智能行为体引发的侵权责任问题,其主要责任的承担需要由人工智能行为体用自己的财产进行相应的赔偿或者通过保险赔付的方式进行理赔。只有在其“监护人”对其行为有监管过失或者其行为是由其“监护人”发出指令后进行的行为而导致的侵权行为时,才由其法定监护人承担相应的补充赔偿责任,否则对于监护人的赔偿责任过重,不利于激励监护人尽职履责。
第四,人工智能行为体法定监护人的报酬请求权。在私法领域,无行为能力或者限制行为能力人的近亲属或者近亲属以外的其他人自愿承担监护职责的,享有报酬请求权。这类主体因不具有基于亲权而对被监护人承担法定的抚养、照顾的义务,但是在履行监护职责的过程中,也要付出相应的人力和财力,对其进行一定的经济补偿是应然之义。人工智能行为体的法定监护人在其开发、设计过程中付出的经济投入是巨大的。从模型的预训练、有监督微调、奖励建模再到强化学习,整个过程需要几年才能完成,其经济成本的投入更是在亿元级别。因此,在监护人履行监护职责过程中,应为其在人工智能行为体的财产收益中划定一定比例的报酬,一方面是对监护人尽职履责的合理回馈;另一方面,可以激励监护人在后续的过程中提升对人工智能行为体进行持续的改进,促进其朝着更加智能的方向发展。
结语
在人工智能从弱人工智能向通用人工智能和超级人工智能方向发展转化的过程中,技术变革的关键步骤在于实现了从感知能力向自主认知能力的跨越。智能的实质是去重建一个简化的神经元网络,从而实现智能体在行为层面上与人类行为的相似。“智能是主体在各种各样的纷繁复杂的环境中实现目标的能力”。如何测量和评价智能行为体是否具有智能或者其智商如何是一个很复杂的判断过程,这个问题也实际上在回答“人何以为人”这个本质问题。
随着生成式人工智能逐步迈向通用人工智能,其涌现出的独特的思维和理解能力、打通虚拟与现实边界的可交互性以及向人脑规模发展的模型参数量等特征使其在法律层面上应被赋予相应的独立法律主体资格。而监护理论可以很好的解决传统法律主体地位的理论难点问题。将人工智能拟制为法律主体,使人工智能行为体在目前的智力水平还不能如同完全民事行为能力人一样时,可以独立所为民事法律行为。同时,通过法定或者意定监护的方式为人工智能行为体设立监护人,对其所为的法律行为进行一定的监督和管理,并为其侵权行为承担一定程度的赔偿责任。在以人工智能迅速发展为特征的第五次技术革命的浪潮中,我们需要重新审视人工智能发展的新阶段所特有的技术特征带来法律制度上的意义,探索人工智能法律主体地位在未来立法和司法中的制度安排,才能回应技术发展的需要。人工智能领域的相关立法,不应采取回应性立法模式,而是从动态的维度上,采取“渐进式”和“前瞻式”相结合的立法模式。在各国积极出台人工智能相关立法的趋势下,我国只有在立法上进行一定的制度性突破,才能在一定程度上为我国人工智能产业发展营造良好的法治环境,将我国打造成为世界人工智能发展的技术新高地。
END
作者:孙那(1986-),女,内蒙古包头人,法学博士,西安交通大学法学院副教授、博士生导师,主要研究方向:知识产权法、科技法。
来源:《法学论坛》2024年第5期“热点聚焦”栏目
王锡锌、黄智杰:网络义举还是网络暴力——网络举报监督行为的边界及法律控制