张安毅 | 算法自动决策下人类主体性危机的立法应对

学术   2024-08-04 14:41   四川  

点击上方蓝字·关注我们







文章来源:《理论与改革》2024年第4期

张安毅河南财经政法大学民商经济法学院院长、教授、硕士生导师,法学博士,已公开发表学术论文60余篇;兼任河南省法学会商法学研究会会长,河南省国资国企专家库专家,郑州市人民政府法律顾问,国家社科基金函评专家。

摘要:算法自动决策的本质不是主体法律行为,是大数据收集分析和程序运算的结果,但算法自动决策结果被用于替代人为决策,就需要符合人类社会行为准则和人类价值观。算法自动决策带来了忽视人的主体地位、损害人类社会伦理和公平、侵蚀人的自治机会和意识等负面效应,归根结底是数据处理与算法设计出现问题。人工智能在本质上属于物的范畴,最终应用算法自动决策的是人工智能产品,因此,为保障自动决策技术不违反服务人类社会的最高目标,可以借鉴产品质量制度在算法程序设计中嵌入强制性算法伦理标准,确保自动决策的结果符合法律法规、符合人类社会共同价值观和伦理准则。在算法自动决策过程中要保障信息主体的自决权利、落实数据处理者的义务以防范数据滥用;在算法自动决策致损他人时,应由产品生产者承担无过错产品质量责任、用户承担一般侵权责任,以此督促有能力采取措施的主体控制自动决策风险。


关键词:算法;算法伦理;算法歧视;算法合谋;自动决策;人类主体性




目前算法自动决策广泛运用于各个领域,有效克服了人为决策时信息有限、精力有限、效率有限等弊端。但算法自动决策在提升决策效率的同时,引发了诸多负面现象,比如“大数据杀熟”以及自动驾驶汽车为自我避险而冲撞行人等与科学技术为人类服务的目标背道而驰的现象。如何保障算法自动决策的合理性、正当性,成为一项亟需研究的课题。近年来,学界已开始全面关注并投入大量精力研究算法自动决策的应用危机应对策略,集中于算法歧视、算法合谋、算法推送、算法“黑箱”等问题,主要涉及商业经营、自动驾驶、医疗诊断、司法审判、行政执法等领域,取得了初步共识。但学界目前的研究一般是针对具体问题展开的,比如,针对算法歧视对主体平等权利的损害,提出通过强调人的尊严价值来防范;针对算法合谋对市场秩序的危害,提出要扩大反垄断法的适用;针对算法推送对社会共识的不当影响,提出要以实现公益优先和文化引导为导向规制算法技术;针对算法“黑箱”对知情权的侵犯,提出要建立算法透明规则及第三方监管制度;总之,目前学界对算法自动决策负面效应的研究存在视角多元、对策分散的问题。笔者认为,算法自动决策带来的种种问题,都根源于算法自动决策过程对人类主体性价值的忽视、算法自动决策结果对人类主体性价值的损害,但算法自动决策的本质不是主体法律行为,是“大数据收集分析+运算程序设计”的结果。本文借鉴人工智能产品质量制度,提出从治理自动决策过程入手在程序设计中嵌入强制性伦理标准、从治理自动决策基础入手规范大数据处理,从治理自动决策结果入手建立问责机制,以期系统性建立算法自动决策下人类主体性危机的立法应对对策。


一、自动决策替代人为决策引发的危机:对人类主体性价值的损害


人类思考并做出判断、决定,是决策者运用自己的知识、经验、理性等,在各项行动方案中做出选择的人为过程。然而算法的自动决策改变了这一模式,算法的自动决策是完全建立在数据收集分析与自动化推理之上,由于自动决策过程中的技术异化、缺乏人类特有的理性与道德伦理价值观念等原因,算法自动决策带来了损害人类主体地位、损害人类主体性价值的问题,主要表现如下:


(一)忽视人的主体地位


传统的人类决策是处理人与人之间各种关系的过程,维护人的主体地位和尊严是人类社会行为的终极价值取向,维护人的利益是各项活动的终极目的。但算法自动决策通常把效率作为第一要义。算法自动决策是一种完全基于编程的“数据输入—结果输出”的决策,缺乏对人类终极价值追求的思考。比如,算法基于用户的阅读习惯,向用户进行精准化、个性化推荐相关新闻或评论内容,虽然表面上自动满足了用户的个人偏好,但以相同或类似的固有信息将用户包围,不仅会导致用户与社会脱节、陷入“井蛙”的困境,还会造成“人们对现实生活的认识开始变得模糊”,长此以往还会导致人类社会公共价值观无法有效传输并达成共识。算法自动决策不仅应用于商业领域,在行政执法、司法裁决等处理人类社会纠纷场合的应用也带来人的主体地位的危机,行政执法、司法裁决需要执法者、司法者根据立法目的和价值,基于长期的执法与司法经验进行裁量和价值判断,然而算法推演下的司法判断并不能依据立法精神进行自由裁量权的精确适用,也无法根据不同场景区别对待个人合法权益。有学者就指出,智能司法会形成对法官的隐形操纵,从而使得司法决策由“以法官为中心”逐渐转向“以数据为中心”。


(二)忽视人类社会伦理和公平


算法自动决策不仅仅是一个技术问题,人工智能代替人类进行自动决策,就必然面临本来应是人类面对的抉择。正如有学者指出,自动驾驶汽车的算法也可能需要面对伦理上的挑战。对于在发生事故时优先考虑乘客安全还是行人的安全,2016年奔驰驾驶辅助系统和主动安全部的负责人Christoph Von Hugo在巴黎车展上说到,未来奔驰旗下所有的4级和5级自动驾驶汽车都将选择优先保护车内乘客,此言论引发舆论哗然,这意味着今后人类社会伦理的维护状况可能将不得不依赖于商家的算法设计。但问题是,人类做出决策时首要考虑的应该是伦理道德,是否符合伦理也是人类很容易判断的一个问题。但判断是否符合人类社会伦理道德却是算法决策的一个难题,对于有的商家而言,其首要考虑的是为盈利无限满足客户的特殊需求而不是遵守社会伦理规则。


自动决策借助智能可以简化社会经济运行中一些复杂的决策过程,但受到算法应用者利益最大化目的取向的影响,出现了被资本利益裹挟而差别对待个别群体,从而损害社会公平正义的现象。比如,在人工智能技术大数据、机器学习支撑下的自动精准营销,收集用户的购买历史、支付能力等数据,借助算法技术根据消费者喜好程度、收入水平的不同进行不同策略的营销;在对用户提供相同质量商品或服务的情况下,实行不同价格的“大数据杀熟”,即对熟客的收费更高,就是一种为追求效益而违反商业伦理的价格歧视。有美国学者在研究中还发现,在信贷领域,人工智能依据对客户进行定位来决定信贷的额度,相同条件下对特定个体带有明显歧视的现象,比如黑人和其他肤色人种相比授信机会的差别较大。目前算法自动决策已发展到保险业务评估、雇员招聘评估甚至犯罪风险评估,然而算法自动决策的预定程序中由于使用者、设计者的偏见,其中往往蕴含预设的特定价值立场,再加上不完整数据的收集、标注、处理,算法的输出结果也难以避免出现偏见、不透明、不公平。


(三)侵蚀人的自治机会和意识


相比人类决策,算法自动决策因具有更高的准确性、快捷性导致其应用范围和领域越来越广泛,这也是人类科技引以为豪的地方——人工智能的智能水平可以无限提升和进化。“阿尔法狗”战胜世界围棋冠军就说明人工智能最终能达到的水平和高度不可估量。然而,在推动自动决策替代人为决策的过程中,大众在不少场合被算法自动决策“故意”屏蔽了更多可能的选择或者在不自知的情况下被动接受自动决策。比如,在商业算法的精准推送下在有限选择范围内购物、在算法评估筛选后确定客户、在智能导航的给定方案下选择出行路线,甚至在医疗算法的诊断下接受特定治疗,主动或被动使用人工智能的人只能在算法既定的范围内进行选择、接受,这样,人的自主决策机会就被蚕食了。基于算法自动决策的不透明性形成的算法“黑箱”,决策过程被算法拆分为数据收集、分析与判断,比如算法自动筛选了客户,但筛选过程一般大众并不理解,在接受算法决策结果时并不清楚决策的推理原理与过程,这种接受不再是依据人类理性做出的判断,人的自主决策意识被消解。因此,法律保护人的自由意志,是为了激发每个主体的活力,给予每个主体在法律边界内完全充分自决的空间,以此推动社会的进步与繁荣,然而由于算法的自动决策侵蚀了人的自主决策机会与意识,最终损害了人的自治应有的社会价值。


法律保护人的自治,不仅意味着人有权自主决策,还意味着人要对自己的行为负责。但在算法自动决策下发生的侵权,存在侵权责任主体难以确定的问题。算法自动决策在自身没有外来干扰的情况下,可能会由于设计漏洞、数据错误、控制系统损坏等原因而发生侵权事件。比如,微软推出的智能聊天机器人Tay上线24小时,即在与人的交流过程中被“教坏”而变得“满嘴脏话”,其行为涉嫌侮辱他人人格。再比如,在一场国际象棋公开赛的一次对弈中,一男孩疑因“抢跑”被机器人夹断手指,因为参赛儿童操作速度过快,被作为对手的机器人夺下棋子后再抓住。2023年12月25日访问。但自动决策引发的侵权难以确定责任主体,比如,近年来自动驾驶汽车发生交通肇事而致损他人的事件频频发生。在自动驾驶汽车发生事故时,其运行处于完全自主的状态,没有人的操作,车内的人是乘客而不是司机,他们避免不了乘车致损事件的发生,显然不是“过错方”。因此,在人工智能自动决策发生侵权时,判断谁有过错,并应由谁承担责任,都成为一个问题。


总之,人工智能自动决策是帮助人类社会进步的工具,我们不能因为其具有负面效应就弃而不用,但自动决策追求的是智能的极度发展,可能会忽视人类社会中更为宝贵的价值追求如平等、自由等,由此在人类与算法之间出现目的和工具颠倒的异化现象。因此,对算法自动决策忽视科技根本目标的问题进行治理和规制已迫在眉睫。除了担心“大数据杀熟”等主体权益被侵害的问题,令人更为忧虑的是算法自动决策可能令人类社会陷入“算法暴政”,一如霍金曾警告的,如果人工智能的目标没有与我们人类一致,事情就麻烦了。


二、算法自动决策危及人类主体性价值的立法应对框架


近现代社会人类法律制度的进步,就体现在人是法律关系的主体,禁止人类成为法律关系的客体,人类器官也禁止买卖,维护人类自由、尊严等权益是法律的终极目标。在科技领域亦是如此,“人类的最高目标是人类的全面发展,技术只是为这个目标服务的手段”。虽然在某些领域算法自动决策替代人类决策是大势所趋,但算法自动决策不应违反为人类服务的目标,危及人类主体性价值的算法自动决策必须得到治理。以何种方式和路径规制算法自动决策,需要先界定算法自动决策的性质。算法是人工智能的核心技术,但人工智能只能是客体,算法自动决策在本质上不同于法律行为。我国有学者主张人工智能应当具有法律人格,但是属于有限的法律人格;有学者主张以财产性人格的进路将人工智能拟制为电子法人。但是承认人工智能主体资格,从立法技术上来说毫无意义,人工智能是按照设定的程序进行运行,赋予人工智能权利义务也不可能起到激励、约束人工智能的作用,法律责任如拘役、有期徒刑也对人工智能没有震慑作用。从立法目的、价值来说,人工智能只是人类发明的工具。大多数学者也认为,人工智能的基本属性仍然是物。基于此,笔者认为,算法的自动决策不同于人类作为法律主体的决策,不是主体意思自治的延伸。因此,不能用规制人类决策、人类行为的现有制度比如法律行为效力制度来规制算法决策,也不能直接对违法的算法决策直接课以法律责任。


如何规制算法自动决策危及人类主体性价值的问题,笔者认为要从两个方面进行:第一,从正面治理算法自动决策过程和基础。算法自动决策是基于程序设计、依据大数据分析而做出的,所以治理算法自动决策要从程序设计和大数据处理这两方面入手。首先,治理算法程序设计。算法是什么目前我国立法并未明确,一般认为算法是从大数据中发现规律并做出判断的技术,是基于数据样本和编码运行的程序。算法的本质是一种程序设计,表达的是一种方法或步骤,属于人类思想的范畴,因此,算法不应当成为著作权的客体,当然,表达出算法的代码作为一种表达方式应受到著作权法的规制和保护。算法的目的是模拟人的大脑进行智能活动,而依据《中华人民共和国专利法》的规定,智力活动的规则和方法不能获得专利保护,算法如果借助专利制度而垄断,更会极大制约人工智能算法技术的发展。有学者也认为“单纯的算法本身属于智力活动的规则和方法,不能被授予专利权”。单纯的算法只是一种方法,但算法进行自动决策必须借助于程序设计,因此要对算法的程序设计进行规制。算法自动决策应用于社会生产生活时,是以人工智能终端产品面目出现的,不管是软件还是硬件都是以产品的形式在市场上生产、销售、流通。比如机器人,是经过加工、制作而用于销售的产品,属于《中华人民共和国产品质量法》所规制的产品。产品的设计包括包装设计、外观设计、功能设计等,当然也包括自动决策运行的程序设计,规制产品设计的法律就可以规制算法程序设计,保障算法程序设计为人类服务。其次,治理算法自动决策所依据的大数据处理行为。不管人工智能如何进行智能化演进,自动决策均不能脱离大数据而单独运行。算法自动决策都是建立在对大数据的分析基础之上,比如,商业经营领域对用户的自动化精准营销,就是对用户的数据进行收集分析之后,再对用户的消费趋势、习惯等进行预测和判断。算法自动决策的负面效应,大部分也都是因为在收集分析利用数据上出现问题,比如数据不全面、未经用户同意收集利用个人数据等。因此,治理算法自动决策的一个重要措施就是对大数据的收集与利用行为进行规制,防止出现不当行为,保护相对人对数据的信息权利。


第二,从反面治理算法自动决策结果。算法自动决策如果违法损害人类主体性价值,应予以问责。治理算法的程序设计和大数据处理,是预防算法自动决策出现危害人类主体性价值的现象,对违法损害人类主体性价值的予以问责,是为了制约、避免此类现象的再次发生。算法是人类设计的,自动决策最终的法律后果还是需要由“人”即法律主体来承担,如果算法自动决策出现歧视、侵权等问题而需要承担责任的,可以让算法或者算法的载体即人工智能产品的设计者、生产者、使用者等相关主体承担法律责任,最终促使他们采取措施避免算法自动决策出现负面效应。


三、算法自动决策过程应对:程序设计中嵌入强制性伦理标准


对算法自动决策程序设计的要求应属于算法载体即人工智能产品质量环节的要求。人工智能产品与传统产品不同的是,传统产品是在人的操作下发挥产品功效,而人工智能产品可以通过算法自动决策而代替人的操作。一般来说,《中华人民共和国产品质量法》对产品质量的要求分为设计、制造、警示三方面,对算法程序的要求属于设计方面的要求。算法自动决策要直接处理人类社会问题,但算法却不具有人的价值观、是非观、伦理情感,因此,算法自动决策就可能违反人类社会的法律和伦理准则,但这些终究是源于自动决策的算法设计出现了问题。因此,必须对算法自动决策的程序设计进行标准设定,对投入市场的算法自动决策程序进行监管,以确保“当人工智能与人类整体利益发生冲突时,必须无条件地保护人类利益免受侵害”。


(一)通过立法将伦理标准强行嵌入算法自动决策程序设计


《中华人民共和国产品质量法》没有对新类型的人工智能产品所面临的算法自动决策伦理问题做出回应。为了保障自动决策符合人类社会准则,今后《中华人民共和国产品质量法》应在产品质量规制条款中,对自动决策算法设计增加规定,做出强制性要求:第一,算法程序设计应符合人类社会共同价值观和伦理准则。尊重人类的主体性地位要求在任何时候都不能基于任何理由而损害人类权益,比如,面临人类生命权等基本人身权利与其他权益相冲突时,应当将保障人类人身权放在首位。毕竟“人类的最高目标是人类的全面发展”。算法自动决策程序设计应符合人类社会共同价值观和伦理准则,是因为算法自动决策是替代人为决策,就应如人一样思考、行动,而符合人类社会共同价值观和伦理准则是任何人在做出影响自己、他人的决策时,应该遵守的行为准则。当然不同的民族在不同的时期,因为文化、生活习惯等因素的差异,其价值观和伦理观会存在一些具体的差异。由于伦理问题的复杂性、差异性,在许多场合即便是人类也面临抉择困境。比如,在自动驾驶汽车不可避免发生碰撞时是优先保护车内的人还是行人,不同地区、不同背景、不同时代的人就会有不同的回答。但此类问题不宜交给算法的设计者、开发者来决定,这可能会导致算法开发设计者对大众伦理观、道德观的绑架。2019年7月,国家新一代人工智能管理委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,参考该文件的精神,未来可以由市场监管部门以政府部门规章的形式,对自动决策算法程序设计的伦理准则予以细化。笔者认为,自动决策算法程序设计应遵循以人为本、尊重公序良俗、节约资源与环境保护、保护个人隐私与信息权利、保障社会安全与公平竞争等伦理准则。因为,算法自动决策科技发展的首要目标应是为人类服务,处理人类社会问题不得违反社会存续发展所必需的一般秩序和一般道德,节约资源与环境保护才能实现社会可持续发展,处理和利用数据不得侵犯用户隐私与个人信息权利是立法最基本的要求,保障社会安全才能使得算法技术为大众所接受,遵循公平竞争规则才能在更高水平、更深层次上推动市场高质量发展。第二,算法程序设计应符合法律法规。人类主体权益保障的标准、依据是法律法规,决策结果不能违反法律法规也是算法自动决策程序设计的底线,这也需要设计者了解现行法律法规的规定,并对算法自动决策结果进行测试。在实践中,算法自动决策结果涉嫌违反法律法规的情形举不胜举,如前述智能聊天机器人Tay“满嘴脏话”的言论就涉嫌违反人格权法。再比如,算法自动决策如果在性别、种族、民族方面出现歧视性对待,也就违反了我国宪法规定的“中华人民共和国公民在法律面前一律平等”的基本原则。算法自动决策出现违反法律法规情形的,当然属于产品设计方面的重大质量缺陷。


(二)通过前置监管保障算法程序设计的合理与透明


鉴于算法自动决策所引发的社会负面效应用户往往难以发现,比如算法操纵的精准营销可能在短期内普通大众就难以察觉。而《中华人民共和国产品质量法》第十五条规定的产品质量监督检查制度是以抽查为主要方式,这种抽检抽查制度如果用于人工智能产品可能效果并不好,因为算法自动决策所引发的社会负面效应往往在实际发生之后,是难以补救的。因此,具备自动决策功能的人工智能产品在上市前应设置人工监管前置要求,市场监管部门要进行算法检验评估,审核通过后才能允许此类产品上市流通。一方面,市场监管部门要基于人工智能算法的学习能力对其进行测试,确保自动决策的结果不违反法律法规、符合人类社会共同价值观和伦理准则。鉴于算法检验评估的专业性,一般工作人员难以胜任此项工作,市场监管部门可以牵头专业人士成立算法审核专家委员会,以提供专业性意见。另一方面,监管部门应要求自动决策的算法具有可解释性。对于普通大众来说,很难理解算法从接受数据输入到输出决策结果的全过程,这种复杂的无理性意识的程序性决策被称为是“黑箱”,这是因为普通大众难以理解算法运算机理。立法可能无法保证算法的透明性,而透明性要求算法的编写者将源代码公开,如此一来,就会引发商业秘密泄露、损害他人隐私等不利后果。但要保障算法的可解释性。算法的运行过程是专业人士设计的,设计者或使用者在专业上应能够解释其决策过程和原理,并能够接受检验,这样才能保证监管者能穿透算法运算的“黑箱”。也就是说,算法的开发设计者应建立本身能够解释的决策模型,并能够用可解释性方法对决策模型向监管部门做出解释。


四、算法自动决策基础应对:数据处理的规范化


算法自动决策出现问题很多时候源于基础性数据的偏差或不当使用。对算法自动决策所依据的数据收集、利用问题进行规范化要求,是解决算法自动决策负面效应的重要一环。法律保障自动决策过程中数据的规范化处理,一是要赋予主体对个人数据信息享有完整的支配权利,二是要规定数据处理主体的义务责任。


(一)在自动决策中保障信息主体的自决权利


个人数据涉及隐私权和信息权保护,依据《中华人民共和国民法典》和《中华人民共和国个人信息保护法》的规定,收集、利用、处理个人信息时应公开并取得权利主体的同意,主体对个人信息享有知情权、查阅复制权、同意使用权、更正补充权等,这方面的立法已相对完善。算法自动决策负面效应的出现,大多源于算法技术无限扩大化的收集、分析、利用个人信息,侵犯用户的知情同意等权利,比如,算法抓取到了用户购买茶叶的信息,就可能自动地向其推销茶具等用品。对此,需要制定措施保障信息主体有权把控对其个人信息数据的收集处理,即便信息收集者合理地使用信息,主体仍有权拒绝,除非该信息收集涉及公共利益等。这是为了保障主体对个人信息的自决权利,一切有违个人信息自治的行为都是违法的,比如,在注册网络用户、接受网络服务时强迫个人填写不必要的私人信息等,就是侵犯个人信息自决权的行为。


为防止主体的个人数据被滥用,保障主体对个人信息的自决权利,我国立法还应保障主体对个人信息享有被遗忘权,即要求数据、信息控制者删除关于其个人数据、信息的权利。欧盟早在1995年就在相关数据保护法律中提出了被遗忘权概念,2016年欧盟通过的《一般数据保护条例》第十七条明确规定了被遗忘权。被遗忘权的核心权能是删除信息,权利基础在于主体对于个人信息、数据有自主控制权,同时对个人不利信息的合理忘却也是个人健康发展的保障。被遗忘权的提出源于“随着数字化技术和网络服务的迅猛发展,对于过去发生的事情,遗忘变成了例外,而记忆却成了常态,格局已经被颠覆”。依据《中华人民共和国个人信息保护法》第四十七条的规定,在特定情形下个人信息处理者应当主动删除个人信息以及个人有权请求删除个人信息,这具有进步意义,但这些情形都要求了特别要件,比如,处理目的已实现、个人撤回之前的同意、个人信息处理者违法处理个人信息等。不少学者认为《中华人民共和国个人信息保护法》第四十七条规定了删除权,就没有必要规定被遗忘权了。信息主体的删除权条款已经将被遗忘权制度囊括其中,表明了我国个人信息立法对该舶来权利的态度。笔者认为,被遗忘权与删除权存在诸多重合之处,目前可以不再单独规定被遗忘权,但在大数据的处理上,有必要对《中华人民共和国个人信息保护法》第四十七条第三款“个人撤回同意”的适用进行目的扩大化解释,除非法律法规要求或当事人之间有约定,信息主体在任意情形下都享有被遗忘或者说要求删去个人信息的权利。


(二)自动决策过程中数据处理主体的义务责任


人工智能的生产商、使用者在为算法自动决策提供大数据时,属于个人信息处理机构,应遵循《中华人民共和国民法典》《中华人民共和国个人信息保护法》对个人信息处理者义务的规定,采取相应的加密、去标识化等安全技术措施等手段保护数据主体的信息权益,防止个人数据泄露、篡改、丢失等行为的发生,对此我国立法也已相对完善。但在实践中,过度采集数据、滥用数据的行为屡禁不止,生产商、使用者未经用户同意自动抓取用户个人数据、将禁止使用的个人敏感数据提供为算法决策、将用户数据用于主体不知情的领域等违法行为频频发生,也导致算法歧视、精准营销等损害人类主体性价值的现象得以发生。由于控制数据的运营商、开发商处于优势地位,很多个人数据往往是被信息处理机构利用算法技术进行开发利用,信息权利主体很难进行调查取证,也很难证明信息处理者有过错。因此,笔者认为在个人数据信息权益被利用算法技术的生产商、使用者侵害时,对于侵权责任构成要件中的过错要件实行举证责任倒置,受害人只要证明自己信息权益因信息处理者的行为受到损害即可要求信息处理者承担责任,以威慑信息处理者遵守相关规定。


五、算法自动决策问责应对:不当决策损害主体权益的责任机制构建


如果出现不当的算法自动决策造成主体权益损害的,比如自动驾驶汽车发生交通事故侵害行人人身权等,受害人可以侵权为由要求责任人承担赔偿损失、消除影响、停止侵害等责任。还有一些人工智能自动决策损害的可能是不特定公众的权益或者损害社会公共利益,比如,算法操作的职业评估歧视女性群体用户,此时可以适用民事公益诉讼的规则,由社会公益团体等组织提起公益诉讼要求责任人承担法律责任。建立起问责机制,才能督促相关主体采取措施,避免出现不当的算法自动决策。


但出现不当算法自动决策侵权时,谁应是责任主体?笔者认为,如果是因为算法设计的问题而导致侵权,比如算法设计不符合上述产品质量标准,应视为属于存在产品质量缺陷,应由产品生产者承担产品质量责任,向受害者承担损害赔偿等责任。一方面,要求生产者承担责任才能从源头规制设计算法的行为,促使他们在设计、生产产品环节就尽最大努力避免产品出现设计缺陷;另一方面,在算法自动决策而发生侵权的时候,因为没有过错方也只能按照实行无过错归责的产品责任,由产品的生产者承担产品责任。比如,在自动驾驶汽车发生交通事故时,车内的使用者没有类似司机的操作行为,当然不应由使用者承担责任,只能由生产商承担责任。如果是因为算法运行所依据的大数据出现问题比如数据是伪造出来的,由此导致算法自动决策侵权,不管数据是产品生产商自己收集的,还是从第三方购买的,数据只是支撑产品自动决策的“原料”,生产者应保障产品质量的合格,因此,因问题数据而导致的侵权责任仍然应由算法的产品生产者承担。如果在算法设计等产品质量上没有缺陷,而是由于用户的操作、使用行为导致侵权的,比如用户对算法产品进行了特殊设置以区别对待客户,此时产品只是一种致损的工具、手段,用户是侵权主体,应由用户依据一般侵权责任规则承担责任。


结  语


在算法自动决策越来越广泛替代人为决策的情形下,迄今为止《中华人民共和国民法典》《中华人民共和国产品质量法》《中华人民共和国个人信息保护法》等法律都未对自动决策涉及的法律问题做出规定,这是一大立法遗憾。但问题是,如果将决策权交予算法,却又对算法决策不管不问,就必然要面临失控后果。因此未来我国立法应对此做出回应。可在《中华人民共和国产品质量法》中对承载算法载体的产品设计标准做出规定,将算法操纵的自动决策结果符合法律法规、尊重人类的主体性地位、符合人类社会共同价值观和伦理准则、具有可解释性,作为具有自动决策功能的产品质量标准。《中华人民共和国产品质量法》的产品质量责任制度,可以适用于算法自动决策场合的侵权责任,以保障自动决策的可问责性,督促制约有能力采取措施的主体控制算法自动决策风险。同时《中华人民共和国个人信息保护法》应在保护信息主体被遗忘权上进行扩张适用,在合适时机修改《中华人民共和国民法典》,对个人信息处理机构利用算法技术处理大数据时的侵权责任适用进行举证责任倒置。


阅读链接

于文轩 魏炜 | 数据开放中的算法依赖:发展模式与驱动路径

翟翌 罗实 | 算法行政的合法性危机与化解方案——基于沟通合法性的视角

贾珍珍 刘杨钺 | 总体国家安全观视域下的算法安全与治理


欢迎分享与转载

长按二维码关注

长按二维码投稿

《理论与改革》编辑部

投稿:llgg.cbpt.cnki.net

电话:028-87351101

地址:成都市光华村街43号 中共四川省委党校

理论与改革
《理论与改革》创刊于1988年,双月刊,是由中共四川省委党校 四川行政学院主管、主办的综合性理论期刊。《理论与改革》入选南大CSSCI、中文核心期刊、AMI核心期刊及人大复印资料重要来源期刊。
 最新文章