上政学报 | 郭少飞:代理视域下人工智能体缔约研究

文摘   2024-12-03 19:30   上海  

点击蓝字

关注我们


新兴权利法律问题研究


代理视域下人工智能体缔约研究


本文刊登于《上海政法学院学报》2024年第6期

摘  要

数智时代,人工智能尤其生成式人工智能开始广泛应用,构造出人、人工智能体等非人行动者组成的智能技术交易系统,交易行为结构呈现鲜明的数字化、虚拟化、智慧化特征,加剧了缔约的复杂性、非线性及混沌态,导致基于人工智能工具论的算法合同效力认定、法律责任归属等陷入困境。对此,有必要转换思路,赋予人工智能体有限法律人格,将其厘定为当事人的代理人。依据代理制度,对于人工智能体缔约,采取法律推定拟制方法,基于人设置利用智能体的行为,认定两者之间的代理关系。一旦人工智能体超越预期,原则上由本人承担相应风险责任,除非超越程度过巨,导致双方利益严重失衡或显失公平。在算法合同效力判定基准中,本人行为能力、真意的作用弱化,意思表示以外观为主。效力瑕疵涉及人工智能体背后之人、相对人、第三人,以及合同当事人的人工智能体、第三方人工智能体等非人,缘于不同行动者的瑕疵事由对合同效力的影响存在显著差异。


关键词

生成式人工智能;人工智能体;非人行动者;缔约;数字代理法


作  者

郭少飞,河南师范大学法学院副教授、博士生导师。

引用格式

郭少飞:《代理视域下人工智能体缔约研究》,《上海政法学院学报》(法治论丛)2024年第6期。


目  次

一、人工智能体缔约结构与行动者分析

(一)人工智能体缔约的行为结构

(二)人工智能体缔约中的行动者

二、人工智能体缔约的民法理论困境

(一)人工智能体算法合同的效力认定挑战

(二)工具论下人工智能体缔约的归责难题

三、人工智能体在缔约中的代理人定位

(一)范式转变下的人工智能体有限法律人格

(二)人工智能体代理人的电子合同理论渊源

四、基于代理制度的人工智能体缔约解析

(一)本人与人工智能体代理关系识别

(二)人工智能体超越预期的行为归属

(三)人工智能体算法合同的效力基准

(四)算法合同的效力瑕疵事由及影响

五、结 语


21世纪以来,人类社会持续由信息社会迈向智慧社会,呈现强烈的数字化、网络化、智能化特征。随着人工智能、大数据、云计算等新一代信息技术跃迁,深度应用于生产生活,人工智能体(AIagent)开始广泛分布于社会领域。特别是ChatGPT的开发者OpenAI于2023年11月发布GPTs,并推出制作工具GPT Builder,进一步引爆“智能体中心”(agent-centric)的多模态大模型发展模式。一个人人均可拥有专属智能体的时代正在到来。此类智能体以大语言模型为驱动,能够记忆、理解、决策、使用工具,自主行为。当下,人工智能体可自动执行复杂任务,如个人助理、智能用户界面、电子邮件管理、安排会议、制造运营、娱乐购物、医疗诊断等,发挥着重要的行为塑造、社会重组功能。尤其在市场交易领域,人们经由人工智能缔约,智能体协助完成交易,或者智能体直接作为一方与相对方交易,“一些算法通过搜索和连接潜在的供应商,并与领先的供应商达成协议来建立供应链”;甚或,人居于人工智能体后,智能体之间径直完成交易。无论是具身智能体如智能机器人、自动驾驶出租车,还是虚拟智能体如个人助手、智能投顾或销售;也不管是缔约辅助,还是自主参与交易活动,人工智能体在缔约、履约、执行等合同全生命周期都发挥着重大作用。
因智能性、自主性特点,人工智能体参与商业交易,缔结合同,在交易模式与结构、意思表示认定与归属、合同效力判定与责任承担等诸多方面,均产生了异于传统法律行为的新特性,衍生出新的理论难题和制度困境,而其基础性核心问题在于人工智能体与人的关系,此与人工智能法律定位密切相关。基于学界主流的客体说,人工智能仅系人类工具,人工智能体缔约本质上是人利用智能体的结果,智能体彰显人的主体性及意志,人应受合同拘束,当事人意思、合同内容、法律效力、责任后果等依照传统法律行为理论处理即可。然而,客体说轻忽了人工智能体不同于完全受动受控客体的特异性,未能充分回应智慧自主的智能体行为超越预期、不可解释所致的法律难题。对此,有必要立足人工智能体缔约的基本结构,梳理智能体作为非人行动者的行为特点及功用,厘定其作为当事人代理人的角色地位,进而依据代理制度,探析智能体缔约中的代理法律关系、超越预期的行为后果承担、算法合同效力等。
一、人工智能体缔约结构与行动者分析
人工智能体缔约至少涉及人、人工智能体两类行动者,若两造均有智能体介入,行为结构则更复杂。人工智能体作为一种新型行为能动者,与人共同形塑缔约行为网络系统,有必要根植此网络,廓清人与人工智能体的缔约行动者功用,为厘定两者关系奠立基础。
(一)人工智能体缔约的行为结构
在社会领域,所谓结构,既可以表现为宏大的社会结构,也可以在中观及微观层面展现观察,它不是永恒静态的,而是在动态流变中保持一定的稳态。结构是转换性关系的某种虚拟秩序,体现着结构性特征。同时,作为时空在场的结构只是具体落实于实践,并作为记忆痕迹,导引着具有认知能力的人类行动者的行为。结构是一种以人为中心的关系实践,无论是在宏观社会结构中,还是在特定行为场景的微观结构里,行为主体与周围环境、多元对象或要素持续互动,特定行动者一方面受原有环境结构的制约与束缚,另一方面通过行动影响改造系统,推动结构演化。在双向沟通互构进程中,行动者不断从行为结果、社会影响、他人反应中获得反馈,以强化或者调整自己的行为策略与方式,在长时段内产生行为流,形成一种相对稳定的行为模式,内蕴基本行为结构。由此,主体- 客体、行动- 结构的二元向度,并非断然决然的对立抵触,而是相互作用、沟通交流。一个行动者既塑造他者,又被重塑重构,增添新属性新特点。人工智能体缔约就深刻蕴藏着人工智能嵌入社会系统后广泛的行动者效应,促使缔约行为结构发生重大变革,新型人工智能体缔约结构诞生。
科技革命推动当代技术社会发展,不仅提升了人类文明高度,而且对社会生产、日常生活产生重大影响,在交易领域尤其合同缔结方面发挥着重要作用。科学技术推动交易系统革新,交易效率跃升,成本大大下降。从技术史角度考察,交易方式从面对面的现场交易,到远距离交易,再至电子交易,相伴于交通运输技术、信息通信技术、自动化技术等诸多技术的创制、传播与应用,在合同类型方面表现为传统人际合同、人与机器直接沟通生成的合同、人与电子代理缔结的电子合同等。在前智能时代,由当面口头到异地书信,再至电报、电话、电邮等,只是缔约形式变化,并未实质改变直接缔约主体即当事人;自动化机器如自动贩售机,广泛应用于商业交易,一方当事人得以离场缺席,合同形式主体乃人与机器;信息技术令一方当事人无需或难以可视化地触达具象的相对人或机器,交互者只是电子形态的虚拟代理。在历史演进中,电子化、信息化取代了有形性物质性实体,除了时空体系的转换,即由现实世界向虚拟空间延伸、共时同步向历时异步演变,主要在于人际间嵌入了机器、电子代理等异质性因素,导致人际交易间接化、媒介化,主体匿名陌生。
人工智能推动技术交易系统智能化,智能技术交易系统不仅加剧了上述交易演进趋势,而且催生特点迥异的新交易结构。就人工智能体本体而言,既可以是单一智能体,如AutoGPT、JarvisHuggingGPT,也可以是多智能体(multi-agent)构成的智能体集群,如MetaGPT、斯坦福小镇。人工智能体,特别是基于大模型的智能体,在基本框架方面通常具备长期或短期记忆,调用外部工具,人机或智能体间通信,以标准操作流程(SOP)进行工作流程定制、目标任务确定等符号控制。同时,它也能够感知环境,自主决策,设定目标任务,自动执行,具有适应环境以及自主学习能力。相较于非智能交易机器、电子代理,人工智能体的本质特性在于智慧化自主性。自动化机器仅能在结构化的固定环境与模式、程序与步骤中运行,可预见性和可预期性强,基于此的非智能缔约行为能够确保人的意志一以贯之,断裂脱序非常罕见。故此,法律行为理论仍把机器、电子代理的行为及后果归属于人。而人工智能体尤其采用大模型巨参数的生成式人工智能体,不可预见性和不可解释性显著,超越预期、对外表示偏离人的意思的概率极大。此需廓清在“人-人工智能体-人”的交互中人工智能体负责的事由、限度等,进行更加翔实地结构分析。
基于人利用人工智能体的方式,就一方当事人论,人工智能体缔约结构表现为人工智能体居于人后、人仍系直接当事人的“人工智能体-人”的传统模式,以及人处于人工智能体后、智能体系直接交易者的“人-人工智能体“的新模式。此可深度细分为:第一,人工智能体-人——人,或者人工智能体-人——人-人工智能体,人工智能体仅系人缔约之参照;第二,人工智能体-人——人工智能体-人,一方以人工智能体为参照,另一方以其为直接行动者;第三,人-人工智能体——人,这和第二类无本质区别;第四,人- 人工智能体——人工智能体-人,人工智能体系合同双方当事人的直接行动者。在以人工智能体为参考的结构里,人是直接缔约主体,与前智能时代的缔约无本质区别,非本文关注焦点。在以人工智能体为直接行动者的结构里,根据人工智能体分布于单方或双方,可把第三类称为“人工智能体缔约单一结构”,第四类则系“人工智能体缔约复合结构”。在单一与复合结构中,因各方利用人工智能体的程度、方式等不同,意思归属、合意发生、内容确定、效力判断、后果承担等均存在一定差异。
(二)人工智能体缔约中的行动者
20世纪70年代,科学哲学转向,行动者网络理论(Actor-Network Theory,ANT)产生,主张应在人与物之间的中点位置,同时追踪非人类和人类属性的归属。人与非人之间的对立和区别消失了,能动性对称地分布到人与非人行动者之间。对于行动者网络,拉图尔认为,网络指称每个参与者都被视为一个成熟的转义者的一系列行动。所有的行动者都在做事。每个节点都可能成为一个分支、事件或新转译的起源,而非简单的传递效应(effects)却不转换它们。网络赋予自身客观性,即每个行动者促使其他行动者做出意想不到的事情的能力。基于行动者网络理论,人与非人处于广义平等地位,非人之物亦发挥与人相当的能动作用。该理论试图消弭主客体之间的二元对立,启示我们更加平等地对待非人。具体到人工智能体缔约,除了当事人,尚有人工智能体、技术系统等诸多非人要素,人与非人共同建构着新型缔约结构。人工智能体初始进入交易领域,主要是人们利用其算法优势、数据运算能力,辅助交易达成及履行,协助人类生产生活,如个人虚拟助手等。此时人工智能体主要系人类辅助者,令人类从繁杂的交易过程抽离,不必事事躬亲。此等益处加速技术创新应用,人类赋予人工智能体更丰富的功能,不断改进人工智能体,提升其类人智能性,进而推动人工智能体更广泛地参与商业交易。该正向反馈循环正在持续强化。
在人工智能体缔约的稳态结构中,人仍系核心行动者,但相较于传统缔约结构呈现异质性。首先,人跨越现实与虚拟空间,真身与数字分身共存。一方面,身体被改造增强,新技术提升人体机能,甚至通过脑机接口,人与技术网络互嵌,高速切换;另一方面,通过身体数据的积累,身体从肉身延伸到数字数据档案,数字分身与它们呈现的肉身具有独立但相互纠缠的生命。其次,人的数字化、网络化、虚拟化令人或人体与具体交易场景分离。人们通过在线虚拟方式,能够减少非自愿的交互,控制他人对自己生活的介入,降低对他人生命的涉入程度,在市场领域表现为交易自由度大增。再次,交易发生在虚拟、现实、虚实融合等多样空间,人的远距化、陌生化、匿名性成为常态,交易信任主要系于技术,有赖于技术构造的复杂交易系统。基于技术信任的交易甚少关心对象是谁,人、人工智能体或其他事物无所谓,人在人工智能体缔约中的功用地位大大弱化。后,人处于复杂智能技术社会系统。行为人跨越多重空间,面向现实或虚拟多属性客体,人际、人机、机机之间多向交互,基于多元素巨参数的人工智能体加剧了行为的非线性、随机性、混沌态,整个社会系统呈现强烈的技术性、复杂性。人陷入其中,难以名状,且因技术引诱、信息茧房等,人的偏好固化,偏见丛生,思维钝化,意志削弱,加剧了合同当事人意思真实、合意判定的难度。
人工智能体是技术社会系统的非人行动者,发挥着重要的行为功能。人工智能体包括虚拟或具身智能体、化身或非化身虚拟人等形态,无论何者,除情感价值有所不同,无碍其法律地位及关系认定。自生成式人工智能爆发以来,人机协同呈现三种基本模式:其一是“嵌入”(embedding)模式,即智能体接收用户指令或提示,提供信息建议,协助完成任务目标;其二是“副驾驶”(copilot)模式,即智能体介入任务步骤,完成初步工作,最后由人确认;其三是“行动者”(agents)模式,智能体自主完成工作,人类仅设定目标、提供资源、监督行为、评估结果。在这些模式中,智能体分别相当于参谋、伙伴、独立行动者。由此,在人工智能体缔约时,不论是一方利用智能体的单一结构,还是各方利用智能体的复合结构,就人工智能体参与缔约而言,仅仅考量人与人工智能体之间的支配-自主性,如智能体为人提供参考、作为人的意思表达通道、设置后独立运行等,其结构关系颇为复杂。
就“人-人工智能体”单向而论,至少应区分为人类提供建议的参考型智能体、接受实施人类指示命令的协作型智能体,以及较少受人类干预的独立型智能体。三者在缔约行动者网络中的能动性差异显著。参考型智能体仅系人类决策参考,行为基本由人类完成,对现有法律行为理论影响较小;协作型智能体接收管理指示命令,参与部分行为环节,行为总体仍由人类把控结束;独立型智能体自主实现目标任务,结束行为,人类基本不参与行为过程,类似于宏观战略管理者角色。从单一缔约行为看,在当事人意思的发现与归属方面,前两者较为直接明确,后者则抽象概括。当然,人工智能体通常并非一时性缔约,而是持续性实施,在行为流层面应当对长时段内的行为方式、后果、可预期性、后果与预期偏离度等进行综合分析。
总之,在技术社会系统中,人工智能体融入交易活动,构建智能技术交易系统,深度推进交易的数字化、虚拟化、自动化、智慧化,同时加剧行为的复杂性、随机性、非线性及混沌态,面对人工智能尤其生成式人工智能的伦理安全风险和治理挑战,有必要在治理上倡导并推动践行“负责任人工智能”的理念。人工智能体在交易缔约中的积极能动性显著,能够对人、其他智能体等非人行动者施加转换作用,从广义角度与人趋于对等。在新型智能交易结构下,面对人与非人行动者的复杂交互,面向人工智能体缔约的法学理论应有所革新。
二、人工智能体缔约的民法理论困境
人工智能体的智慧性自主性远超传统缔约利用的自动化机器或电子代理,缔约方式巨变导致人工智能体缔结的合同效力认定、法律责任归属等产生新境况,令根植非智能缔约结构的传统民法理论捉襟见肘,需要重新检视。
(一)人工智能体算法合同的效力认定挑战
人工智能体作为非人行动者,直接与相对人或相对人的智能体交互,缔结合同。由于直接一方或双方是以算法为核心的人工智能体,故人工智能体缔结的合同可称为“算法合同”,即基于人工智能体算法成立的合同。无论人工智能体是协作型或独立型,在行为主体、缔约意思、表示方式等方面皆富有特性,致使传统合同效力认定标准难以完全适用。依照传统法律行为理论及合同法理论,合同效力判定主要涉及主体相应行为能力、意思表示两大积极要件,以及不违反强制性规定、公序良俗等消极要件。合同当事人不具备相应行为能力或资格,意思表示不真实,或不具有合法性,合同效力发生瑕疵。消极要件在人工智能体缔约中的应用与传统缔约没有实质区别,仅需遵循,不违反即可。本文不过多关注消极要件对算法合同效力的影响。在积极要件方面,主体适格、意思表示均因人工智能体介入发生颠覆性变化,相关理论面临挑战。
其一,人与人工智能体的关系复杂,难以一概以工具论。两大法系的主流观点认为,缔约的自动化机器或电子代理是人表达意志的技术工具,当事人受合同拘束。所谓自动化,是指设置后通常无需人类实时干预,在预先确定的固有步骤内按一定顺序完成特定目标或任务。从行为过程与结果看,自动化机器具有极强的秩序性和可预见性。与之相较,人工智能体自主性显著,不可预见性强,也不可解释。“人工智能体程序比人类能够在给定的时间内搜索更多的可能性,从而使得人工智能体系统可以分析潜在的人类未虑及、更少尝试实施的方案。当可能性所在领域足够集中,人工智能体系统甚至能够产生最优方案而非仅仅满意的方案。甚至在更复杂的环境下,人工智能体系统的方案会偏离人类认知过程。”人工智能体自行决策、自主行为,绝非受动的无机客体所能比拟,相较于自动化机器,因海量数据、巨参数所致不可预见性亦非自动化特性所能涵盖。故人与人工智能体关系不宜简单地归入传统的主体- 客体二元结构,应正视人工智能体在行动者网络中的“转译”能动作用。相较而言,主体论省思了工具论的内在缺陷,应有所借鉴。
此外,在受控与独立之间,缔约的特定人工智能体的自主性程度差异化分布,需要开展场景化分析。就两端而言,协作型人工智能体如智能医疗诊断系统,接收人的指示命令,在单方表意方面犹如人的意思通道或实现者,但把人工智能体表意归于人,是基于人工智能体工具、使者、代理人等何种法律定位,需要仔细辨析。独立型人工智能体如智能销售,自行表意,人未直接介入特定合同关系,何以把人工智能体缔约的表意归于人?这需要更加充分合理的论说。基于工具论的传统理论学说解释力有未逮,毕竟人工智能体与非智能工具天壤有别。
其二,人的主体适格性因缔约时空体系变化而难以判断。人工智能体缔约场景多元,既有人与具身人工智能体直接沟通缔约,如乘客通过App呼叫乘坐自动驾驶租出车,也有虚拟非具身人工智能体缔约,如智能投顾基于市场数据、客户数据等,预测最佳投资组合,提供客户投资建议。缔约交易的在线化、虚拟化加剧了主体的陌生化、匿名性,不必确信交易相对方,无需了解对方主体状况,交易焦点转移到一方预期的行为结果的实现。既然行为主体非关注焦点,主体相应行为能力或资格的重要性随之弱化。人对与之缔约交易的人工智能体背后之人的状态难以了解,也没有了解的内驱力,只要自身的核心关切与需求通过缔约交易得到满足即可。
那么,可否实施人工智能体背后之人信息披露制度呢?理论上无不可,但与智能交易的效率目的、成本考量等存在张力,与数字经济的内在运行规律不甚契合,尤其在双方人工智能体缔约的情形下,将大大增加系统摩擦。而人工智能体与其他新型技术如区块链的融合,深刻改变了交易信任基础,技术信任开始超越主体信任、制度信任,可经由技术确保交易自动履行执行,减少对中心化平台、机构等权威的依赖。随着分布式技术与智能技术广泛融合应用,人工智能体缔约中的交易主体适格性问题逐渐消解。故此,在算法合同效力判准中,行为人具有相应行为能力的必要性需要反思,特别是双方人工智能体缔约的情形。鉴于人与人工智能体关系的复杂性,应立足特定缔约场景,辨析主体能力要件的可适用性。
其三,传统意思说不完全适合人工智能体缔约的意思表示。意思表示是合同等法律行为的核心。现行理论有两种意思表示效力判定学说,即主张以行为人内心真意为准的意思说,以及以表示外观为准的表示说。各国民法典以意思说为主,表示说为例外。法律行为效力判准之一即意思表示真实。在人直接表意,或者经由信息不耗散的方式表意时,追寻人的真意彰显着人类支配力、控制力,弘扬了人的主体性。但是,人工智能体缔约时,交易主体陌生匿名,交易方式在线虚拟,交易远距异步全时空,缔约行动者复杂交互,相对方无从了解人及其内心真意,人及意思的重要性趋弱。此时,仍以内心真意或意思说为据,有损交易效率与交易安全,亦不合交易的自主性、实时性、便捷性。因此,人工智能体缔结算法合同应以人工智能体表示为准,不论背后之人的真意,除非出现严重利益失衡或不公,或相对方知道、应当知道等,以实现利益均衡、价值公允。
(二)工具论下人工智能体缔约的归责难题
传统法律责任建基于主客体二元结构。客体为人所用,受人控制支配,客体引发的责任应归属于主体,由人承担。依据此种以人外之物为工具手段的责任机制,人工智能体作为客体工具,其行为后果及责任亦应由人承担。然而,自主人工智能(算法)存在主体识别确认、人类主体和人工智能相互不理解、人工智能决策偏离本人的意思等风险。基于人工智能体工具论的责任归属忽视了人工智能体特性及潜藏风险,面临诸多难题。
其一,人工智能体缔约中,众多行动者交互,责任主体厘定困难。除了人工智能体黑箱、不可解释性等原因,人类、其他人工智能体等非人行动者也是重要的行为因素。在行为过程中,人与人工智能体、人工智能体之间密切关联、混合交互,互构彼此行为策略。人工智能体算法由人创制,包括其实现所需大数据,难免受限于人,人类偏狭的充满立场偏见与歧视的认知影响着人工智能体的表现。人对待人工智能体的方式也严重影响人工智能体行为,人的指令偏好成为人工智能体自我调教、塑造自身行为的重要参数。相同型号的机器人会在几天或几周后出现完全不同的表现,这取决于人类扮演其看管人角色的方式。此外,人工智能体受其他人工智能体影响,选择特定行为方式。例如,智能股票交易系统调用其他智能体,如市场分析人工智能体、财经新闻机器人输出的数据,自主判定买入卖出。在智能体交互过程中,信息数据的收集、传递、解读误差会急剧放大,人工智能体缔约偏离当事人意思的概率大增。在众多行动者扰动下,尤其当人工智能体超越预期时,人工智能体缔约的责任承担主体不易判定。
其二,人工智能体缔约中,诸多行动者行为交叠混合,责任行为难以厘清。人工智能体缔约处于行动者网络,涉及众多人与非人行动者,它们交流沟通,相互作用,产生了非常复杂的不确定性、混沌态。对于协作型人工智能体,因指令的明确与否,或曰基于不同规模数据集训练的人工智能体对指令的“理解”差异,亦会产生各式行为。至于独立型人工智能体,随机行为的溯源更加困难。人工智能体仰赖算法、数据及算力。算法数据与开发设计者密切相关,算法是否客观中立,数据是否准确完整,对人工智能体均有重大影响。即使是人工智能体背后非专业的一般控制者或用户,与人工智能体表现亦脱离不了干系。缔约时,用户向人工智能体输入的数据如提问、资料,囿于真实性、完整性,也会导致人工智能体输出反馈错误。例如,患者仅向智能诊疗系统提供部分症状描述或前期检查结果,叠加系统内在缺陷,产生合成谬误。在此,厘定用户责任有必要区分专业人士与非专业人士,前者包括人工智能技术专家、缔约所涉领域专业人员等。人工智能体与其他新型技术系统或智能体连接,行动者规模大幅扩充,关系网络延展,系统复杂性剧增,不可预见的涌现事件发生频次升高。人工智能体缔约中的行动者众多,交互关联性强,行为网络效应突出,难以廓清人工智能体缔约的决策参数、影响因素、具体行为及其作用力比重。
其三,人工智能体缔约中,人(内心真意)-人工智能体(对外表示行为)-行为后果的线性关系断裂。人工智能体采用深度学习、生成对抗网络技术或大模型等,其行为基于数量巨大的决策变量分析,是一个复杂的巨系统。其“固定的可能结果集合”规模之大、范围之广,接近无尽可能,加剧了概率因果性的不确定。依据事件发生次数确定的频率概率面临客观性公平性质疑。由此,贝叶斯概率被提出,它以能够做决定和执行行动的代理对事件发生的置信度(degree of belief)为核心,是个人的、主观的,具有可塑性,可把不同来源的信息组合起来,通过简单的规则不断修正之前相信的概率。贝叶斯概率用途广泛,渐成概率的基本解释。但是,无论是基于计算的客观分析,还是主观相信,均难以发现概率因果。究其原因,智能行动体不是简单地按照特定的时空顺序相互触发,可能有多个同时发生的原因,但没有机制可以挑选出在法律上是“实质性的”(从而导致责任)的原因。随着时间的推移,活动元素的配置会发生变化:不同的行动体作用于突变数据,不同的行动体集合随时相互作用。在不断变化的背景下,行动体是多态的, 没有内在的实体或持久性。
三、人工智能体在缔约中的代理人定位
在人工智能体缔约中,基于工具论产生了算法合同效力认定、责任归属等理论难题。对此,有必要转换思路,糅合纯粹客体工具论与独立主体论,赋予人工智能体有限法律人格,即作为其背后之人的代理人,从而为人工智能体缔约提供适切的法律框架。
(一)范式转变下的人工智能体有限法律人格
人工智能体法律地位学说可概括为客体论与主体论。客体论乃现代主体哲学的体现,人之外皆为客体,人作为主体支配客体,在法理与部门法意义上均否认人工智能的主体性。依此,人工智能体是人支配的客体,但在法律层面到底是服务、产品或类动物等,不一而论。主体论可分为独立人格说、有限人格说。前者认为应赋予人工智能体完全独立的法律人格,后者则认为人工智能体能力有限,适宜于一定范畴内赋予其法律人格。两学说争议巨大,学界整体倾向客体说,认为:人工智能体是类人智能,是对人类智能模拟的结果,当前智能程度不足,不具备人类般的自我意识和精神意向性;人工智能体是人类创造的产物,并受人控制,和其他客体无本质区别;当下人工智能体法律问题仍然可在传统法律框架内解决,无需另辟蹊径,赋予人工智能体法律主体资格;等等。
客体论不无道理。当前人工智能体的智慧程度确实未达人类级,未能犹如人类般思考决策、自主行为,在诸多社会领域需要人类协助。但是,人工智能体法律地位论域中的一些核心问题没有得到全面考量。其一,在主体性判定时,是遵循现代主体哲学基本观念,仅以人为主体,还是兼顾后人类主义思想,从更广阔的视野,在更加平视的角度,重视人外之物的作用与地位,缓和人类中心立场,赋予人工智能体法律主体资格?其二,在能力认定方面,到底应以“人类”还是个人为准?毫无疑问,目前人工智能体的整体能力水平未及人类,更未超越人类,仍受限于人类智能。然而,从个体角度,最新的生成式人工智能体能够进行逻辑推理,思考对话,生成文本,创制代码,能力显著超越个人,引发人被人工智能体取代甚至统治的忧思。其三,人工智能体的自主性、不可预见性难以被传统客体含括,非线性因果律下责任不宜笼统地归于人工智能体背后之人,需要综合经济、社会、文化、伦理、科技等因素,贯彻新理念,构建新模式,调谐各方私益及社会公共利益。其四,从技术演化角度,智能体在生成式人工智能技术加持下,正在加速朝拟人化方向迭代,展现出愈发多样的类人甚至超人特性。面对技术发展趋向以及对社会系统与关系的重大影响,有必要作出前瞻性回应。就此,主体进路不宜绝然否弃,应当审慎探析其理论根基、实践可能及制度机制。
在缔约场景或其他应用领域,人工智能体行为叠加,风险责任外溢,通过赋予有限法律人格,厘清人工智能体与背后之人的基本法律关系,进而确定人、人工智能体、相对人三方之间的权利义务,为责任承担奠定基础。之所以是有限人格,既是源于后人类主义理念、对主体论部分理据的采信,也是对客体论合理成分的吸收。当下,“算法已经变得越来越能够充当有能力的沟通伙伴,适当地回应我们的请求,并提供人类思维无法构建或重构的信息”。但在人工智能体无法如人类般智慧自主时,在其尚未获得社会普遍认受前,在法律制度体系未能做好充分准备时,不必强求赋予人工智能体独立法律人格。从务实功利的角度,针对特定应用场景,不断拓展深化人工智能主体性,寻找更优制度方案即可。人工智能体缔约就是当下人工智能体逐渐普及应用、具有突出现实意义的场域。以人工智能有限人格为媒介,最终厘清算法合同当事人的法律关系,特别在缔约中“服务使用者依据使用需求决定着与智能系统的互动行为,应当承担以规范使用为核心的治理责任”。利用人工智能体的当事人承担智能体超越预期的行为后果,能够获得合理的法律框架以及充分的法律论证。
从技术的历史漂迁看,人工智能体有限法律人格只是过渡性制度安排。现代人工智能作为一门学科可追溯至1956年的达特茅斯会议,距今不过70年。其间历经符号主义、行为主义、联结主义等技术发展阶段,目前随着人工神经网络、深度学习、大数据等技术应用,当生成式人工智能通过引用价值偏好来实现“总结现智能”的可能,使强化学习的交互为系统引入经验、升华经验,实现了人工智能系统智能的升级之时,生成式人工智能真正地逼近了通用智能,通用人工智能奇点已来。在人工智能体发展的特定历史阶段,在由弱到强,实现人类级的过程中,人工智能体法律主体资格的本体基础——可媲美甚至超越人类的主体能力逐渐成型。在此之前,人工智能体智慧不足、能力不备、自主不够,适合有限人格,就此开展理论探索与制度建构能够面向未来人工智能体技术的发展性及人工智能体的成长性。当然,人工智能体可能无法达至人类级或实现超级人工智能体,但无论如何,有限法律人格进路能够丰富法律主体理论图景,切实发挥实践支撑功用。
人工智能体有限人格实践价值突出。在一般意义上,人工智能尤其生成式人工智能,已经具备类人化意识与行为能力的基本形态,在拟制主体对人类经济发挥巨大作用的现实借鉴下,可考虑由生成式人工智能自身承担部分责任。有限人格使得特定场景中的人工智能体利用者能够得到一定程度的责任豁免,不必如在工具论下尽担责任此举有利于推进人工智能产业发展与广泛应用。尤其在初始动能方面,人工智能体需要开发设计者、产业企业界大力投资投入,有限人格能够为此提供制度保护与激励。当然,为避免人工智能体有限人格滥用,尚需配套监管制度,以确保人工智能体契合特定伦理价值标准,符合社会公共利益,普惠民众。此外,从智慧社会发展的内在规律看,泛化人工智能体的泛在必将是社会常态,每个人拥有和/或使用智能体。当人工智能体紊乱崩溃、行为有悖社会道德伦理或违法时,除了事后的技术修正,有限人格能够为此刻人工智能体引发的广泛而巨大的责任框定范围,既能避免用户损害无法填补,利用者遭遇不可承受之重,又有助于各方建立稳定预期。
具体到缔约场景,有限人格能够为算法合同效力认定确立主体及法律关系基准,适当分散人工智能体风险责任,不至于在合同当事人尤其相对人权益保护与人工智能体技术产业发展之间进退失据失衡。以在我国开始投入运行的自动驾驶出租车为例,乘客在线呼叫车辆,系统自动接单并就近分配,自动驾驶汽车自主达到乘车点,按地图运送乘客到达目的地,乘客完成支付。此一运输合同从缔结到履行,无需自动驾驶汽车部署者直接介入,基于有限人格,以自动驾驶出租车为代理,可以为合同奠定主体基础,而缔约后果原则上归部署者。一方面能够充分保护乘客权益,另一方面可避免客体论下不论事由、责任尽归部署者的严苛情形,从而推动自动驾驶汽车技术研发与产业应用发展。
(二)人工智能体代理人的电子合同理论渊源
人工智能体缔约法律问题,虽然是智能技术应用引发的新问题,但是由工业社会进阶至信息社会的过程中,类似问题早已出现。基于计算机、软件程序、电子设备等,电子化意思表示产生,总体处理方式仍遵循既有法律行为理论,锚定主体意志。“建立、编程和运营这套电子数据处理系统就已经包含了一个一般性的、也即针对无数在将来发生的法律行为的意愿”。在英美法中,蕴含电子化意思表示的合同被称为“电子合同”,它由电子代理人(electronic agent)缔结。根据美国《统一电子交易法》(UETA)S2.6规定,电子代理人指全部或部分地独立用于实施行为或回应电子记录或履行,而无需个人检视或行为介入的计算机程序或一种电子或自动方法。该法述评第23条解释称:“电子代理人指缔结或履行合同的自动方法。电子代理人必须以与创立或履行合同有关的方式独立实施行为。仅使用电话或电邮系统不属于使用电子代理人。”同时,按照美国《全球暨全美商务电子签名法》第101条(h)、《统一计算机信息交易法》第107 条(d) 的规定,即使当事人不知道或未审核电子代理人的行为或行为后果,电子代理人的行为仍可合法地归结于当事人。
可见,无论在理论上,还是在制度实践中,电子化、自动化意思表示以一种抽象方式归于当事人。假定人使用计算机时具有可见的“广泛意图”(generalized intention),当事人设置或利用自动化机器设备或系统,即可推定当事人有以自动方法缔约的意思,即使出现错误,偏离当事人意思,当事人仍应一并概括承受。此种适用于自动方法下电子合同的意思推定或拟制,未必完全适合算法合同。这与两种合同缔结履行的技术基础密切相关。电子合同采用自动方法,电子代理人依照人类设置好的程式步骤运行,无需人类持续介入,它在自动化过程中是固定、程序化、非自主的。相较而言,在算法合同中,人工智能体尤其外联型通常实时搜集处理环境数据、动态决策,调整行为策略。从行为结果看,电子代理人的行为可预期,基于当事人的利用进而推定能够预见,倒也符合基本事实。然而,人工智能体本体黑箱,叠加众多人类或非人行动者的复杂影响,涌现频发,人工智能体不可预见性强,行为超越预期几率大,此时仍然类比自动方法下拟制推定当事人有预见、意思可归属,已然脱离实际。此需根植人工智能体特性,深化法律方法应用,构造适宜算法合同的基础理论。
实际上,放宽视野,放眼长历史时段,可以发现,从现场交易合同到跨时空的远距合同,再到虚拟空间中的电子合同、算法合同,交易行为形态发生了巨大变迁,也推动着法律行为理论革新。当下主流法律行为理论已经在细部生发多样态,出现分叉,事实合同中意思表示的法律推定拟制,电子化意思表示的概括归属,不寻求主观意图的合同形成客观理论,在某种程度上超越了“真意”,不需要主体意思,或曰主体意思及内容无关紧要。这当然是因应行为与人或身体分离,行为过程、结果跨时空的策略。而算法合同带来的不仅是意思或表意与人的分置,更重要的是人工智能体自主意思嵌入主体意思,且会超乎主体预期。对此,在“去意思”的客观化向度上,应针对行为的混沌态,尽量在现有架构内延展革新理论。一方面,在方法上以法律推定或拟制弥合人工智能体表意与主体预期的缝隙,同时注意校正法律抽象与现实差距所致风险责任分担严重失衡;另一方面,则需借鉴电子合同中的电子代理人制度,把人工智能体作为背后之人的代理人即“人工智能体代理人”,重构数字代理制度,实现意思连接,行为厘定,关系廓清,责任明晰。
在人工智能体有限人格的前提下,在算法合同结构中,以人工智能体为代理人乃合理选择。人工智能体不是合同当事人,不是客体,是当事人缔约时倚重的对象,在主体意义上与“本人- 代理人”近似。在代理法律关系中,为本人之利益,代理人以本人名义(显名代理)或以自己名义(隐名代理)与第三人实施一定行为。在人工智能体缔约中,人-人工智能体-人同样是三方结构,人工智能体代一方当事人与相对人沟通缔约,亦产生一方当事人与人工智能体、人工智能体与相对人、一方当事人与相对人之间的三组关系问题。在智能销售场景中,智能体推荐产品,回答提问,调整价格,客户下单订购产品。此时,缔约在智能体与客户之间完成,智能体辅助使用者营销,代其缔约,结构与代理相同。综合行动者要素、基本结构、要素关系,代理人或人工智能体结构功能可见,人工智能体缔约与代理缔约近似。
相较于代理,其他制度如使者、代表人、辅助人,与缔约之人工智能体相距较远。首先,使者传达或受领意思表示,不能改变确定的意思,对于意思表示内容的形成没有作用空间。人工智能体缔约时通常可在一定范围内自由选择,自主形成缔约意思。其次,在法人制度中,代表人是法人机关,代表行为即法人行为,无所谓代为一定行为。此与人-人工智能体本质有别,应无适用余地。最后,辅助人是辅助他人如债务人、占有人实施一定行为,不限于合同等法律行为。在职责方面,辅助人是协助辅佐、协商沟通的角色,一般不能代他人实施主要行为。人工智能体代为缔约,而非协商沟通后由当事人缔结合同。
在代理视野下,前述效力认定、缔约归责难题将得到有效缓解甚至消除。在责任主体层面,人工智能代理人的行为后果概括归属于所有者、部署者或使用者,他们是算法合同一方当事人,对算法合同承担法律责任。在责任行为意义上,智能体行为虽然不可预测,会超出预期,但以代理方式将其代理缔结算法合同的行为归于被代理人,算法合同当事人是被代理人,围绕智能体存在的对第三人欺诈胁迫等行为,或第三人对智能体实施类似行为,按照现行法认定对算法合同效力影响及责任归属即可,避免客体论下一律由本人承担、独立主体论下本人逃避责任的困境。最后,在因果关系层面,通过代理的意志及行为聚合效应,有助于弥合人的真意、智能体对外表示及行为后果之间的线性关系缝隙,以公约方式处理活跃度高、行为难预测、难解释的智能体行为。
总之,在缔约结构中,人工智能体的代理人定位使得人们利用智能体的风险责任能够获得妥当且均衡的分担,既不全部归于用户,也不会令交易相对人负担过重。而在法律层面,代理法尊重代理人的自主权及其面对不确定性时的决定,如有必要保护特定的当事人免受通过使用建立代理关系的后果,代理法为监管干预提供了一个适当的切入点。
四、基于代理制度的人工智能体缔约解析
在以人工智能体代理人为中间行动者的三方结构中,人工智能体仅拥有有限人格,与人类差异明显,无法按照现行代理制度、依据意思说认定人工智能体与本人之间的内部代理关系。在突破只能以“人”为代理人的桎梏后,需要适切分配人工智能体偏离当事人意思的风险责任,进而梳理算法合同效力基准,明确瑕疵事由,构造适宜人工智能体的数字代理法。
(一)本人与人工智能体代理关系识别
数智时代,在复杂交错的利益格局中,人与人工智能体内部代理关系认定不在于明晰本人以人工智能体为代理人的主观意图,而应置于宏大的技术社会系统,遵循智能技术及交易系统的运行逻辑及内在要求,根植人工智能体的自主特性,充分认识人工智能体代理人锚定责任基点、节约交易成本、提升交易效率、增加社会福祉的正向作用,从而为数字化交易奠定关系基础。
人工智能体代理人地位根植内部授权。在代理法上,人可以对外直接授权,向他人标示以人工智能体为代理人;或者内部授权,可以是无基础法律关系的纯粹授权行为,也可以是基于委托合同、劳动合同等基础法律关系的授权。单方授权人工智能体主要有两种方式:第一,单方对外授权,明示人工智能体代理人地位及权限,如交易物品、价格、数量。第二,单方对内授权,通常并无明确的授权意思,第三人也无从知晓。且因人工智能体不享有完全法律人格,不宜作为一方当事人,尚无基于合同等基础法律关系赋权人工智能体的空间。当前,以人工智能体为代理人的授权方式主要是无基础关系的内部授权,认定时面临两大问题。其一,人的主观认识是否重要,主观上不知道但客观上使用人工智能体是否能够认定?设置或使用智能体的行为是否足以表明以人工智能体为代理人?其二,人的真意关键与否,尤其人工智能体超越预期,是否区分自有人工智能体和提供产品服务的他有人工智能体,进而廓清人的认识能力及意愿?
在法律行为或合同客观化的趋势下,当事人的主观意愿并非行为核心。尤其在技术社会系统和智能交易系统中,复杂性剧增,混沌态降临,人的主观认识及内心真意丰富多样,难以采取完全客观化、个性化的方法逐一分析。特别从保护相对人的角度,需要简单明确的接口,以相对人主观期待为主,简化人工智能体背后之人个性因素的考量。在代理理论上,包括“代理权证书”在内的“空白证书”,即使填写超出签发人的意思,也不得撤销。在司法实践中,预签的空白授权书对于签署人具有拘束力,除非第三方知晓。这些均表明,外在行为蕴含行为人的内在关切与基本利益,行为人应受以行为为中心的意义之网约束。人使用人工智能体亦如此。
由此,总体上应采用法律推定拟制方法,基于人设置或利用人工智能体的行为,认定其以人工智能体为代理人,而不论对人工智能体的主观认知到底如何,不论是否知晓使用,不论是否实时介入干预,不论是否审核人工智能体行为。当然,基于代理,智能体行为的抽象概括归属忽视了差异化场景,未充分虑及与现实的距离,尚需区分相对人是否知晓本人等,厘定算法合同效力,以衡平各方利益。对本人而言,可以把内部代理关系外部化、透明化,令相对人知悉或应知,以降低自身风险责任。
(二)人工智能体超越预期的行为归属
自主的人工智能体不可预见性强,特别是基于人工神经网络、深度学习等技术,人工智能体自主学习,自我进化,超越预期的几率大增。当人工智能体偏离本人意思,如何把代理行为及后果归于本人成为核心命题,在代理权意义上即人工智能体行为是否属于本人授权范围。
人以人工智能体为代理人的标准取向客观使用行为,不论人的主观认知,但人工智能体代理或曰可归责于本人的行为范围应有所限定,不宜把人工智能体代理人的全部行为归于本人,否则在人工智能体黑箱下极易导致利益严重失衡或显著不公,影响人工智能体的广泛应用和技术产业发展。然而,人工智能体超越预期的风险毕竟异于非自主的机械、人工物,后者的安全性或风险控制系于人,人尽到法律义务,无过错,无需担责。而无过错责任仅适用于高危高压等风险等级高的少数情形。在智能技术社会系统中,人工智能体代人实施行为,发挥特定功能,增加社会福祉,一旦超预期、致害时,被代之人作为主要受益者应承受风险,不能简单地以尽到义务、无过错为由免责。
人工智能体缔约超越预期时,厘清其代理范围关乎算法合同效力。本人以对外明示方式授权,可依据授权内容确定代理范畴。内部授权情形,本人与人工智能体之间缺少基础合同,代理关系及内容采取客观化方法,优先保护相对人利益,根据人工智能体超越预期的程度、相对人的信赖利益、社会公共利益或国家利益等综合厘定。首先,原则上由本人承担人工智能体超越预期的风险责任。作为人工智能体的利用者,本人从中享有便捷闲适等益处,对于人工智能体不可预见的行为风险应承担基本责任。此乃利益风险相一致原则的要求。其次,应给予本人法律机会,允许其举证证明超越预期的程度过巨,导致双方利益严重失衡。所谓程度过巨,应立足数字能力差异,遵循普惠公平的原则判定。对于专业的当事人而言,应当超越行业内高水平技术人员认知;对于非专业的当事人,以一般社会主体的普遍认知为准。再次,相对人知道或应知与否,严重影响超越行为归属。若相对人知道或应知人工智能体行为不可预见,则无信赖利益,超越部分对双方均无拘束力;若相对人不知或不应知,原则上由本人承担风险,除非有证据证明超越程度过巨。最后,实行价值考量。人工智能体超越行为风险归属是利益责任分配的过程,如果显失公平,亦损害社会公共利益或国家利益。故有必要对分配结果进行价值考量,调整归属方向,设定限度,如根据公平原则在当事人之间合理分担风险,或者对担责一方当事人进行补偿。
人工智能体超越预期,本人担责后,可向开发设计者、制造商或提供者等追偿,在多方主体之间适当分配风险,核心标准在于各方对人工智能体的控制影响力,尽到控制义务原则上不承担责任,均恪尽义务可按公平原则分担。鉴于人工智能体缔约应用风险牵涉技术、产业、用户等,在智能体泛在意义上关系每一位社会主体,有必要引入社会化风险分散机制,以强制险、商业险、责任基金等多元方式化解人工智能体风险责任,尤其在强制险方面,可分阶段采取不同的保险人选择方式,明确其责任范围、限额与免责事由等。这既有利于激励人工智能体的研发、产业普及应用,又能够兼顾普通民众利益保障。特别在人工智能体被广泛应用,使用者大多数系非专业人士的图景下,人工智能体风险多元分散机制的意义更加凸显。在智慧社会系统中,人、人工智能体等非人行动者交互频仍,把特定缔约场景中的超预期行为置于整个技术社会系统则会发现,脱序紊乱是系统固有现象,任何智能体均会产生,人人皆会面临。可以说,人人都是人工智能体利害关系人,只是程度存在差异。以社会化方式分担风险,不仅在根本上无损他人,反而能够提升社会共同福祉。在多元分散机制下,人工智能体代理范围可适度放宽。
作为人工智能体的实际使用者,本人对其人工智能体代理人承担主要责任。为了减轻甚或消除自身责任,本人可以监督人工智能体行为,投保,或者把内部授权及规则外部化、透明化。而开发设计者、制造者等应确保其开发设计、制造的人工智能体符合技术标准、道德伦理、法律规范以及社会期待。具有复杂认知能力的软件代理可以处理社会规范和法律规则,通过调节进入算法认知机制的有关社会和法律规则的信息,算法行为能够得到控制。人工智能体亦应同时嵌入法律、伦理、技术标准,构建缔约基本框架及多元共治机制。
(三)人工智能体算法合同的效力基准
依据传统理论及现行法,人工智能体代理人与第三人缔结的算法合同效力主要取决于合同当事人行为能力、双方真实意思等积极要件,但人工智能体代理人异于“真人”代理人,缔约具有特殊性,效力基础应有所调整。
1. 智能交易时空体系数字化虚拟化,本人行为能力在效力判定中的作用弱化
随着主体陌生匿名,交易跨时空,当事人交易信任基础变迁,当事人及其行为能力在客观上难以判断,在主观上已非交易各方关注焦点。故在人工智能体缔约情形,通常不论本人行为能力,即使是非完全民事行为能力人亦可利用人工智能体缔约。但毕竟涉及非完全民事行为能力人保护,有必要进行技术规制,设置相应的安全机制,如生物识别、监护人授权技术措施、行为模式限定,令其得实施纯获利益、与其认识能力相符或监护人同意的行为。此外,缔约相对方是人,或相对人知道或应当知道本人,本人和相对人的行为能力仍影响算法合同效力,以彰显人本主义,重点保护人。当人工智能体之间缔约时,可推定双方当事人均有以人工智能体为代理人的意思,不在乎对方主体状况,原则上应以人工智能体相互沟通或表意为准,不论当事人主体能力。
2. 人工智能体算法合同意思表示一致的认定,根植缔约结构,兼顾外观说与意思说
算法合同意思合致不同于传统合同,前者不强调当事人、缔约过程、履行方式等,反而是缔约目的或结果对当事人更重要。只要达到缔约目的,对方是谁,怎么履行,无所谓。此时,如果说意思表示一致尚存,也只是抽象的各方意愿的弱耦合,特别在双方人工智能体的情形,缔约主要是人工智能体计算匹配当事人需求的结果,当事人之间的意思联络大大下降甚至趋无,被人工智能体之间的人工沟通取代。在此背景下,算法合同意思合致呈现客观化、外在化、智能化、随机性。具体而言,相对人通常不知晓人工智能体之后的本人,本人意思以人工智能体表意为准,采外观说,除非相对人知道或应当知道。人直接作为合同当事人,仍然注重内心真意,以充分保护人。为此,在人工智能体接收当事人发出的要约或要约邀请,即人的语音、文本等各种数据输入时,有必要设置确认机制:经语音提示或书面告知,当事人再次确认,以确认的内容为准厘定当事人表意。而人工智能体直接缔约,以人工智能体输出接收的意思为准,不论其类型以及背后之人的真实意思。
(四)算法合同的效力瑕疵事由及影响
算法合同涵盖人、人工智能体、第三方等多种行动者,瑕疵因素涉及人机两大方面。源于本人、人工智能体代理人事由所致行为后果由本人承担,人工智能体代理人偏离本人意思,对合同效力的影响应以相对人保护为主,算法合同以相对人收悉的内容为准,即取向人工智能体行为外观。
人类行动者可分为人工智能体背后之人、相对人、第三人。首先,就人工智能体背后之人而言。该人无论是否具有相应行为能力,是自身原因认识错误,还是被欺诈、胁迫等,除非相对人知道或应当知道,基本无碍算法合同效力。若该人自己或利用人工智能体欺诈、胁迫相对人或其人工智能体,应赋予相对人撤销权,由相对人选择撤销与否。其次,就相对人而言。在相对人与缔约一方的人工智能体交互中,应注重相对人保护。人工智能体应以适当技术措施识别相对人年龄等能力评价因素,而相对人至少须再次确认输入的数据或指令等。在此框架下,缘于相对人的效力瑕疵无碍算法合同效力,除非瑕疵可归因于缔约一方或其人工智能体。若未采取必要措施,相对人无相应行为能力、认识错误、被欺诈、受胁迫等,则会导致算法合同无效、被撤销等。如果相对人向缔约一方或其人工智能体实施欺诈、胁迫等瑕疵事项,那么该方可撤销合同。最后,就第三人而言。第三人行为是否影响算法合同效力,需要区分行为对象。第三人同步对双方实行欺诈、胁迫或黑客操控等行为,双方均有权撤销合同或主张合同无效。第三人对一方当事人实施有关行为,相对方不知道或不应知,应不影响算法合同效力。
在人工智能体方面,首先是合同当事人的人工智能体。非受背后之人的指令与控制,人工智能体代理人对相对人或其人工智能体实施欺诈、胁迫等行为,相对人享有撤销等权利,后果由背后之当事人承担。人工智能体代理人基于自行搜集的数据信息作出决策,进而缔结算法合同,因系人工智能体单方原因或行为,不可归责于相对人或他方,即使超越预期或者发生错误,不宜赋予本人撤销权,由本人承担行为后果。其次是第三方人工智能体。当事人或其人工智能体主动参考与之无关的独立的第三方人工智能体,实施决策,进而缔约。因当事人及其人工智能体决定采信第三方人工智能体或以之为参照,对于缔约后果亦应自担,不得以错误为由撤销合同。但是,第三方人工智能体针对当事人或其人工智能体实施欺诈、胁迫等行为,对算法合同效力的影响与上述第三人行为相同。若第三方人工智能体伪造信息、传播假消息,未针对合同当事人或其人工智能体,受影响的一方当事人应无权撤销。
总之,在效力层面,人工智能体背后之人在智能技术交易系统中不再居于核心地位,其能力、真意非效力判定首要因素。当然,客观化方法难免偏颇,尚需以算法正义概念为基础,为算法决策的结构化问责提供达成实质问责标准的可能性,进而开展效力认定的合法性、正当性判断。
五、结 语
数智时代,人工智能尤其生成式人工智能逐渐普及应用,全面渗透到交易领域,嵌入既有交易系统,重构为智能技术交易系统。该系统融合异质因素,涵括人、人工智能体等非人行动者,打破了同质化人际交易网络,令交易结构与关系复杂化,且因人工智能体特性,呈现数字化、虚拟化、智慧化等鲜明特征。新型智能交易系统加剧了缔约行为的复杂性、非线性及混沌态,导致以人工智能体为客体的传统法学理论尤其法律行为理论面临一系列难题与困境,主要表现在人工智能体算法合同效力认定、法律责任归属两大方面。随着缔约时空体系转向数字虚拟、远距匿名,尤其是人居于人工智能体后开展交易活动,人的主体适格性难以判断,进而使得现有意思表示理论不完全适宜于人工智能体缔约中的意思表示。在工具论下,归责难题凸显,人与人工智能体等非人行动者众多,责任主体厘定困难;复杂交互,行为混合,责任行为难以廓清;人的内心真意—人工智能体的对外表示行为—行为后果的线性关系中断。对此,有必要转变视角。
鉴于人工智能体的智慧性自主性,不宜一概以工具论阐释,应同时兼容人工智能体工具论与独立主体论的合理性,赋予人工智能体有限法律人格,将其界定为当事人的代理人。这既是电子合同理论及实践的延伸与深化,又能够妥当均衡地分配缔约中人工智能体脱序、超越预期的风险责任。在人工智能体缔约中,运用法律推定拟制方法,基于人设置或利用人工智能体的行为,认定人与人工智能体的内部代理关系,而不论人对人工智能体的主观认知,是否知晓使用,是否实时介入干预,是否审核人工智能体行为,等等。一旦人工智能体超越预期,原则上由本人承担有关风险责任,除非超越预期导致各方利益严重失衡或显失公平。人工智能算法合同的效力判定基准中,本人行为能力、真意的作用弱化。至于合意认定,应根植人工智能体缔约结构,以外观为主,兼顾当事人意思。算法合同效力瑕疵涉及人工智能体背后之人、相对人、第三人等人类行动者,以及合同当事人或第三方的人工智能体等非人行动者,不同行动者的瑕疵事由对合同效力的影响差异显著。



往期目录





关于本刊


《上海政法学院学报》创刊于1986年,原名《法治论丛》(2003年更名为《上海政法学院学报》)。《上海政法学院学报》是我国最早以“法治”命名的法学专业学术期刊之一。

我们立足一流期刊建设目标,坚持 “高质量”“特色化”“专题化”办刊思路,在法学期刊建设上努力探索,学术影响力稳步提升。据中国知网年报显示,《上海政法学院学报》(法治论丛)“复合影响因子”从2022年的3.19提高到2023年的5.26,“综合影响因子”从2022年的1.50提高到2023年的2.97,CI指数排名也从2022年的第33位提升到2023年的30位。此外,据中南财经政法大学2023年信息检索报告统计,《上海政法学院学报》共有42篇次(2022年31篇次)被《新华文摘》《中国社会科学文摘》《高等学校文科学术文摘》《社会科学文摘》和“人大复印资料”等二次文献全文转载或论点摘编,在全国法律类院校学报排名第4位(2022年排第7位)。

我们以“问题意识”为导向,以做好选题策划为根本,在持续推进“党内法规”“数字经济法治”“国家安全法治”等特色栏目建设的基础上,继续追踪学术前沿热点,新增设了“新兴权利法律问题研究”“经典译介”和“初创学者佳作”等专栏。2024年,本刊将新开设“交叉学科研究”“涉外法治研究”专栏及“民法典合同编解释”“新公司法解读”专题,持续对相关领域重大问题进行深入探讨。

我们将以开放姿态拥抱新技术。全面升级网站建设,完善投审稿系统,实现全流程数字化出版;提升微信公众号运营策略,同步推出作者音频视频解读,开通视频号;积极完善网络首发,同步上传作者音频视频,增强学术出版。

我们诚挚地欢迎广大海内外科研工作者关注和支持上政学报并惠赐大作,也欢迎各界朋友积极建言献策、批评指正,以期共同办好《上海政法学院学报》(法治论丛)。来稿请通过《上海政法学院学报》编辑部网站(http://www.shupl.edu.cn/xbbjb/)投审稿系统进行投稿。本刊对来稿严格遵守三审(二审外审)定稿制度,以确保稿件选用公开公平公正。


编 辑:汤仙月

审 核:康敬奎


以法为基,寻社会治理之策

以文为器,求兴国安邦之道


投稿邮箱:xuebao@shupl.edu.cn

微信公众号:law-review1986

网址:http://www.shupl.edu.cn/html/xbbjb

电话:021-39227617  39227619



更多内容请点击下方“阅读原文”进入学报官网查看

 最新文章