作者简介:霍斯特•艾丹米勒,牛津大学法律系教授,牛津大学圣休学院(St. Hugh's College)教授级研究员;李飞,南京师范大学法学院副教授,法学博士;敦小匣,外国语言学及应用语言学硕士。
文章来源:《法治现代化研究》2017年第4期
赐稿邮箱:fzxdhyj2016@163.com
推送时省略全部注释,引用请以发表版为准
刊物简介
《法治现代化研究》是原国家新闻出版广电总局批准创办并公开发行的学术期刊,国内统一出版刊物号CN32-1869/D,是国内首家专注法治现代化研究的学术期刊,著名法学家公丕祥教授主编,入选CSSCI(2023-2024)来源期刊扩展版。期刊前身为《法制现代化研究》集刊,现由南京师范大学和江苏省法学会主办,双月刊,逢双月15日出版。
转载、引用情况:《新华文摘》2017年第24期全文转摘,《中国社会科学文摘》2018年第1期全文转摘,CNKI被引123次(截至2024年10月31日)
内容提要
机器人的崛起和“机器人法律”的出现引发了一些重要问题。以无人驾驶汽车的场景为例(这些穿梭在公路上的机器人极有可能会给我们的日常生活及商业带来革命性变革),可以从法律上得出如下观点:其一,机器人规制必须要针对特定机器人以及具体场景而定。这就要求对特定领域的“机器人行为”产生的微观与宏观效果有深刻的认识。其二,(完善的)现有法律类型能够被合理地应用并对机器人予以规制。其三,机器人法律受到社会“深层次规范结构”的影响。其四,如果该结构是实用主义的,那么在不远的将来,智能机器人就会被当作人类来对待。那就意味着,智能机器人应当被赋予法律人格,并因此有能力取得并持有财产以及订立合同。其五,反对将机器人当作人 类一样对待的理由源自于认识论与本体论层面。
关键词
机器人;机器人法律;人工智能;无人驾驶汽车;事故责任;基本法律概念
一、人工智能与法律
一旦有法律人士参与到一场讨论中,该话题的有趣部分往往就结束了。工程师与计算机专家在这方面有过之而无不及。在本文中,我将探讨的是机器人与法律。因此,受主题所限,本文的娱乐前景可能有限。然而,法律与人工智能(AI)的互动却会提出一些令人激动且颇为重要的问题;同时,这些问题的答案无疑将会在未来数十年影响人类的命运。
人工智能正在快速地影响着我们的生活及工作方式。随着人们的日常工作(包括手工操作及认知层面)变得越来越自动化,预计到 2025 年,将会有大约三分之一的传统职业被机器人(内含人工智能)所取代。法律将会决定人工智能的未来,比如,法律将决定人工智能允许使用的领域,新产品和新技术的成本,以及其他方面。此外,对人工智能的最初监管决定将至关重要,这些决定可能会创建路径依赖关系,并使日后更改管理过程变得困难。
规制人工智能将会充满挑战与困难。毕竟,法律是——并且始终是——由人类制定并服务于人类的。想想那些基础概念吧,比如“人格”与“法律人格”。历史上,这些概念都与人类(即自然人)有关。 因此人工智能将会对法律体系产生影响:我们要如何对待机器人?我们要赋予它们法律人格吗(使它们有权取得并持有财产、订立合同等)?
在本文中,我将尝试回答这些问题以及由于机器人崛起和“机器人法律”出现而引发的其他重要问题。本文的主要论点如下:其一,机器人规制必须要针对特定机器人以及具体场景而定。这就要求 对特定领域的“机器人行为”产生的微观与宏观效果有深刻的认识。其二,(完善的)现有法律类型能够被合理地应用并对机器人予以规制。其三,机器人法律受到社会“深层次规范结构”的影响。其四, 如果该结构是实用主义的,那么在不远的将来,智能机器人就会被当作人类来对待。那就意味着,智 能机器人应当被赋予法律人格,并因此有能力取得并持有财产以及订立合同。其五,反对将机器人当作人类一样对待的理由源自于认识论与本体论层面。这些观点都关系到机器人是否能思考(它们不能)以及成为人类意味着什么。
我将主要以无人驾驶汽车的场景为例来阐述这些论点——这些穿梭在公路上的机器人极有可能会给我们的日常生活及商业带来革命性变革。然而,为了阐明机器人给我们的社会结构带来的巨大的潜在影响,我会举出更多的例子予以说明。
02
二、多种多样的机器人与机器人的特征
1. 机器人的应用
目前,在机器人的诸多发展领域中,对无人驾驶汽车的讨论最多。事实的确如此,大多数汽车生产商都在试验无人驾驶汽车,这些汽车现已在世界各地的公路上进行测试。谷歌似乎在这一领域 一直处于领军地位。谷歌汽车的一个重要特征是其不断旋转的车顶摄像头,这个摄像头可以发射出64 组激光柱并形成物体的 3D 影像,使汽车能够自我定位。这种汽车的驾驶行为由复杂的软件控制。机器人另一个重要的应用领域是医学界。例如,型号只有 1-10/1,000,000 毫米大小的纳米科医疗机器人的模型已经问世。这些纳米科技医疗机器人将在病人的血液中穿行并进入肿瘤,通过驱除一种重要的癌症基因来进行治疗。
机器人也开始应用于金融及金融咨询行业。“机器金融顾问”的问世,可能会以其低成本、自动化投资的优势对经济业务进行重组。 比如,瑞银集团(UBS)最近宣布,其所属的美国财富管理 机构的顾问将会利用机器人为资产雄厚的客户提供服务。这项技术已由一家位于圣弗兰西斯科的新兴公司开发出来,公司的 7,000 多名顾问将使用这项技术,这家名为 SigFig 财富管理(SigFig Wealth Management)的公司是一家发展迅速的机器顾问生产商。
最后,人工智能也将会从根本上改变法律职业。 实际上,人工智能系统已开始辅助解决(自动化的)纠纷案,而且,“机器人律师”也开始登上舞台。例如,2016 年,美国一家律师事务所雇用了世界上第一个名为 Baker Hostedler 的人工智能律师,这个被认证为 ROSS-Intelligence 的“机器人律师”应用于破产重组与债权人权利保护部门。“机器人律师”主要应用于文件检索和查找归类方面。在英格兰,预测编码(为查找文件进行的分类)最近在 2016 年 5 月 17 日的 Brown vs BCA Trading 一 案中得到了高等法院的支持。“机器人律师”还将应用于(在线)起草法律文件,同时以区块链 技术为基础的“智能合约”(smart contracts)将指日可待。
人工智能还会 以“机器人法官 ”的形式出 现。基于一组 150,000 例重罪案件组成的数 据, Kleinberg 等人研究发现,基于机器学习(machine learning)预测的释放裁决(尚悬而未决的案件)将会在不提高犯罪率的前提下,减少 25% 的监狱人数,或者在不改变监狱人数的情况下降低 20% 的犯罪率。总之,机器人律师和机器人法官似乎会在诸多方面带来显著的正面影响,如使法律咨询费用 更合理,作出的审判更准确,并使多数人群获得司法公正的机会。
2. 机器人的特点
就上述讨论的例子而言,某些“机器人特征”对考虑机器人的规制很重要。正如前面提到的那样,机器人是表现人工智能的一种形式,其组成部分包含了一个传感器或其他的输入机制、一个起控制作用的运算法则以及对外界作出回应的能力。这三个部分一起组成了所谓的“感应-思考-行为范式”。传感器或其他的输入机制可以从多个源头获得感应,就如同“网络汽车”(networked cars)那样。
如上所述,网络汽车会利用摄像头、来自 GPS 的交通数据,以及来自互联网的地理数据。 智能机器人具备机械学习的能力,例如,它们不但可以利用海量的现有数据,而且还能利用来自实践的数据以及其他新信息去调整它们的行为。 因此,在一定程度上,这些机器人被刻意设计得变幻莫测。一个有趣的问题是,在某个时候,机器人能否达到超人(super-human)的智力水平。这种想法常被归结为“奇谈怪论”(singularity)。机器人可能会获知它们是怎样被人类控制的,并实现自我控制。 但就目前而言,关于“奇谈怪论”的争辩还更多地停留在学术(以及虚构的)层面,而非现实层面。
在各种形态的机器人当中,一个重要的子类别便是“社交机器人”(social robots)。这种机器人 是专门设计出来与人类互动的,这类似于那些具有人类特征的儿童玩具。研究已经确认了“社交机器人” 的“社会价值”:人类把拟人化的机器人当成人类一样对待。 这就潜在地产生了重要的规制意义。
03
三、规制无人驾驶汽车
1. 无人驾驶汽车的前景
本文提出的第一个论点是,机器人规制必须基于“特定的机器人语境”,这要求对特定领域的“机 器人行为”产生的微观及宏观效果有深刻的理解。我将以全自动汽车的事故责任为例来阐述这一论点, 这是测试“机器人法律”很好的例子。
在未来的 20 到 25 年中,行驶在公路上的汽车大概会有 75% 为无人驾驶汽车。与这一趋势相关,会随之出现许多重大的积极进展。首先,我们看到的是,汽车事故会明显减少。同时——也是更为重要的——死亡事故会减少。目前,世界上每年在汽车事故中丧生的人数大概有130万。这些致命的事故中大约有 90% 是由人为失误造成的,9% 是因环境条件引起的,不到 1% 的事故是因技术缺陷导致的其次,残疾人、老年人的流动会增加。同时,驾驶的机会成本会显著降低。平均算下来,我们一生中会花费 4 年以上的时间用于开车,而且,我们驾车时,并非总能像开着宝马一样给你带来“纯粹的驾驶快感”。我们可以将花在车轮上的时间用于做更有价值的事情,如阅读、思考或者仅仅只是做梦。另外,由于汽车的共享,我们在大街上看到的汽车会越来越少,这将会节省停车空间,缩短出行时间并减少汽车尾气排放。
不过,也会出现一些负面问题。首先,在某些行业,会有更多人失业。出租车与公交车驾驶员显然会首当其冲。其次,随着汽车联网的普及,汽车更容易受到破坏性的网络攻击,这样,发生“重大事故”的风险就更大了。另外,尽管离奇的“小”事故比较少见,但是仍会发生。2016 年上半年便发生了两起这样的事故。在一起事故中,一辆谷歌汽车在加州的芒廷维尤(Mountain View)变换车道时撞上了一辆公交车。这辆谷歌汽车损毁严重,而公交车只是被轻微地剐蹭。在另一起较为严重的 事故中,一辆以无人驾驶模式行驶的特斯拉汽车在佛罗里达州撞上了一辆货车,特斯拉汽车的驾驶者在这起事故中丧生。显而易见,特斯拉的传感系统没能识别对向驶来的货车。
因此,上述事例表明,针对这种技术的宏观与微观影响,机器人的有效规制必须适当调整——相关规制必须能够应对特定机器人带来的社会变化,并同时能够应对日常生活中出现的风险与机会。
2. 全自动汽车的事故责任
接下来,针对全自动汽车的事故责任问题,我将阐述第二个论点:(完善的)现有法律类型能够被合理地应用于机器人,并能有效规制它们的行为。其中,我将提出并回答的问题是:如果发生了事故,谁来承担侵权责任?我不会分析现有的法律体系是如何处理这 一 问题的;相反, 如果有人来设计剐蹭事故的责任体系,我将对最佳“方案”颇感兴趣。因此,我将考虑各种可能性:①无人承担责 任(“损失自负”);②汽车生产商承担责任;③人工智能(设备)生产商承担责任(并非汽车生 产商);④汽车所有人承担责任(全自动汽车没有“驾驶人”);⑤汽车自己承担责任。最后一种可能性看上去似乎特别异想天开,但是,事情正在快速地演变。2015 年,在瑞士的一件艺术装置中,一个机器人在暗网(dark web)上购买了摇头丸和一本伪造的匈牙利护照,还有其他东西。这个机器人——而非艺术家或者其他人——被圣加仑的警察局逮捕,并于三个月后释放。
考虑到上述五种可能性,基于若干原因,汽车生产商的严格责任——第二个规制选择——似乎更受青睐。
首先,无人承担责任的解决方案显然无法接受。可预期的(事故)成本将不会被生产商予以内化, 因此,他们会在不当激励下以过低的成本与价格生产过量的汽车。与此同时,在“无人承担责任的机制” 之下,我们将不愿意去购买和(或)使用自动汽车——甚至可能会完全逃避此类活动。
在汽车生产商的严格责任制度下,该责任的建立并不需要主观过错,只要具备有缺陷的产品和因果关系即可。生产商貌似最能有效控制风险并平衡“驾驶”全自动汽车技术的收益与成本:生产商研发并使用人工智能,而且非常熟悉相关技术。例如,谷歌对上述汽车事故的反应显然迅速而老练,能够很快地查找到造成事故的原因。
此外,相较于严格责任制度,在生产与销售全自动汽车的过程中,过失责任制度要求法院确定生产商应保持的谨慎程度。和所有新兴、复杂的技术一样,这项操作非常烦琐。另外,过失责任制度并不控制生产商的“行为层次”(activity level),如汽车生产与销售的数量。因此,严格责任制度似乎是更好的选择。
第三个规制选择——人工智能(设备)生产商与汽车的生产商不是同一家时,前者的责任如何?我认为,在一项复杂的技术产品中,一般来说很难将事故的原因梳理清楚,特别是涉及全自动汽车时。而且汽车生产商“控制着”系统,包括所有的组成部件。所以,汽车生产商可能是“最低成本避免者”(cheapest cost avoider)。 就对第三方的侵权责任而言,汽车生产商应当是唯一的责任承担者。当然, 如果事故最终判定是由存在缺陷的人工智能设备造成的,汽车生产商可以从设备生产商那里获得赔偿。为了应对这一风险,法律应该规定生产商购买产品责任保险。
事实上,责任承担问题的上述“解决方案”似乎是随着市场与私人承包业务的变化而变化的。例如,在 2015 年年底,沃尔沃宣布将对无人驾驶汽车的后果承担责任。在这一声明中,沃尔沃向市场发出了一个强有力的信号:我们对自己的技术有信心。这个信号给竞争者造成了很大压力并迫使它们如法炮制。上述“方案”借鉴了产品责任指令(85/374/EEC)所规定的法律现状,但有一个例外:根据这一指令,汽车的生产商和零部件的生产商将承担连带责任[第 3(1)、5、7(f)条]。
严格侵权责任制度的一个问题就是:源于全自动汽车所有人层面的事故要求汽车生产商承担责任。所以,显而易见,事故发生的可能性很大程度上取决于行为层面:公路上的汽车越多,发生的交通事故也会越多。同样明显的是,汽车所有人控制着行为层面,即取决于他(她)的个人喜好、商业模型等。 只要把出租汽车公司和私家车车主放在一起想想即可。因此,控制汽车车主的行为水平是有效责任机 制的重要组成部分。
我们可以想想解决这一问题的各种潜在“方案”。一个方案就是根据汽车所有人的行为情况,要求他们与生产商共同承担责任;另一个方案就是将汽车的销售与责任保险捆绑在一起,保险费则依生产商、汽车类型、所有者或使用者的情况来确定。这种个性化的保险现如今已可购得。这种保险常被称为“黑匣保险”,这是因为汽车上安装了一台小型“黑匣”设备,尺寸如智能手机般大小,用来记录汽车行驶的速度、距离以及汽车白天、晚上行驶的时间。这个设备通过监测速度与转弯也能确 定驾驶风格。此外,为了建立全面的驾驶资料,该设备还能记录汽车通常行驶的道路类型以及昼夜运行的时间。
04
四、将智能汽车(机器)当作人类一样对待
到目前为止,我尚未讨论第五个用于规制全自动汽车引发事故的潜在应对措施,即要求汽车自己承担责任。但是,这个问题可以用来阐述本文的第三个论点,即机器人法律会并且将会受到一个特定社会的“深层次规范结构”的影响。 例如,如果一个社会的规范结构是功利主义的(utilitarian), 这一结构将如何影响对上述问题的回应呢?
如前文提到的那样,因为机器学习,生产商无法(全面)预见智能汽车的行为。所以,我们开始思考可能会在某一时刻,被迫为汽车生产商寻找借口并要求汽车本身来承担责任。从概念上来说,这暗示了我们需要承认汽车有法律能力(legal capacity)。如果汽车能够承担责任,我们也许会得出这 一结论:汽车也有权取得财产、订立合同等。确实,在实用主义的背景下,似乎有大量的观点都支持朝这个方向发展。
其一,智能汽车看上去(在功能上)能够有目的地从事一些活动。它们展现了所谓“道德的”或 “法律的”行为能力,比如,在某些类似的情境中,智能汽车可以像自然人一样从事某些活动。其二,我们像对待自然人一样对待拟人化的机器人。总体来看,难道我们不应该赋予它们权利,发出反对人类虐待的信号吗? 用这种方式保护机器人将会对人类的互动产生有益的反馈效应。其三,我们赋予公司以法律人格。法律学者们就公司人格是基于虚构(如冯•萨维尼主张)还是公司的某种“实体”(real),抑或有什么东西可以称之为“真实的团体人”(real group-person)(如冯•基尔克主张) 存在长期的争议。智能汽车(机器人)似乎比公司法人更为“实在”。在此,我应该指出,“人格”(persona)这个拉丁词的原始意思就是面具或者角色。罗马法承认了各种作为非自然人却享有权利并 承担义务的主体,比如自治城市(municipia)或者工会(collegia)。
假如我们将智能汽车(机器)当作人类来对待并赋予它们法律人格,我们可以将汽车的所有权与 责任保险捆绑在一起。这种安排将允许我们针对汽车事故考虑其他有创意的制裁措施,如取消汽车的 法律能力,将汽车扣押一段时间(像瑞士 Art Installation 案一样)或者直接将汽车销毁。
05
五、反对将机器人当作人类一样对待的案例
诚然,对于考虑赋予智能汽车(机器)法律人格,我们大多数人会感觉非常不安。正如我引入本文论点时所表明的那样,这些不安停留在认识论和本体论的层面上。可以说,因为只有人类可以理 解权利与责任的意思,所以法律能力或者人格是与人类相关联的。思考涉及对生活的积极投入,融入文化、特定情形的“专有技术”以及永远不会被规则架构的常识。 思考远非形式上的符号操作(句法), 而是涉及对这些符号的意思(语义学)的感知,但机器人却没有这种感知能力。我们可以通过编程使机器人符合(conform)规则,但它们并不能遵守(follow)规则。对规则的遵守预设了对规则的 意思的理解,然而,机器人并没有这种理能力,它们在解释学(hermeneutics)这个学科并不活跃—— 而且,它们永远不会。
我将要提出的第二个论点——反对把机器人当作人类——这类情形的论据存在于本体论层 面。大体上,某一特定社会的法律以及赋予该特定社会成员的权利与义务是“人类境况”(human condition)的表达。法律反映了我们所认为的人类有序交往的前提条件,但同时也反映了我们认为处于人性核心的东西,以及处于核心的人何以为人的意义。我们要从整体上想想基本人权,特别是言论自由,但也要想想诸如堕胎或者同性婚姻这类颇有争议的问题。如果我们将法律人格赋予机器(即便这些机器都是智能的,甚至比人类还要聪明),让它们有权取得财产、订立合同,这简直会使这个世界非人化(dehumanizing)。因此,将机器人当作人类一样对待将会使人类非人化,所以我们应当避免持有这种态度。
公司的人格——弱化将机器人当作人类对待的情形——是一个好的对立观点吗?本文并不这样认为。公司与机器人的重大区别在于,公司总是“通过”人类来运营。由人来组成董事会,且董事会的行为被归结为公司的行为。同样,在公司里,人工智能也变得越来越重要。与此同时,人类也会作出最终决定——至少在“奇点”(singularity)(超人智能的水平)到来之前是这样的。
06
六、未来(政策)之路
最后,人工智能提出了具有重大潜在社会影响且又复杂的监管问题。通过上述讨论,我们对此应该有所了解了。如前所述,法律须规定人工智能可以被应用的形式,以及在特定情境下使用(某种)人工智能可能要承担的责任。只要想想比人类聪明的“医疗专家”就可以明白这一点。法律须界定机器人与(或)它们的所有者的权利与责任。由于越来越依赖人工智能,公司管理将会发生根本变化。
然而,更重要的是,使用人工智能带来的问题必须予以重视。人工智能的使用无疑会是权力的重要来源。强势的当事人为了个人利益可能借助智能技术对交易施加压力,处于弱势地位的当事人可能会蒙受损失。某些智能技术会是公共商品(public goods)吗?它们应当以低成本为公众所用吗?
这些及其他问题都引发了深层次的哲学问题,而机器人法规将会被我所称的社会的“深层次规范 结构”所影响。一个社会是基于功利主义的“良善”(the good)概念,还是基于人道主义或康德式的此一恰恰相反的观点(即并非每一个有效用的或使财富最大化都必然是好政策),这一点是非常重要的。 显而易见的是,功利主义的“良善”概念倾向于将社会推进到机器人依据法律最终扮演重要角色的方向。
这就是机器人法律会形成规制多样与规制竞争特征的其中一个原因:由于存在于不同社会的“深 层次规范结构”的重大差异,各国就共同政策(common policies)很难达成一致意见。此外,各国向人工智能产业吸引投资的动机也激起了规制竞争。“功能主义的国家”可能会制定更多“机器人友好型”(robot friendly)的法律,并迫使其他法域如法炮制。 最后,如上所述,人工智能也将从根本上改变立法与法律职业。这提出了一个有趣的问题——在将来某个时刻,(以人工智能为基础的)智能立法是否会辅助我们规制人工智能产品与服务?智能技术无疑会在技术层面上为增强立法的效率提供重大帮助。另一个完全不同的问题是,这些技术是否能帮助我们解决需要作出复杂价值判断的那些烦琐的监管问题?在这一点上,我深感怀疑。再者,机器既不能思考,也不能解决深奥的哲学问题。没有人比歌德更清楚明白地表述过这一点:“只有人类能 够触及那些不可思议的事物:他们辨别着、选择着、判断着……”
顺便说一下,科学研究与写作现今也可以得到人工智能的辅助,已经有软件可以写作学术论文。遗憾的是,我没有找到可以帮助我准备这篇文章的软件。本文饱含了太多的人类的因素——因此这也是其缺点。
欢迎关注《法治现代化研究》!
推送责编:孙诣菲