作者简介
谢增毅
中国社会科学院法学研究所研究员
本文载于《北京大学学报(哲学社会科学版)》2024 年第 3 期,引用 / 转发等请据原文并注明出处。参考注释请参见原文。
职场算法规制的路径与统合
阅 读 导 引
一、职场算法管理规制的背景与问题
二、算法规制一般路径在职场场景的具体应用
三、职场算法规制的劳动法路径
四、职场算法规制路径的统合
结 语
一、职场算法管理规制的背景与问题
当前算法管理广泛适用于职场领域,包括传统职场和零工经济领域。算法结果正在越来越多地塑造雇员体验。使用算法管理来指示、评价、惩戒和奖励雇员的观念已经从零工经济迅速蔓延到传统的工作场所。算法管理广泛应用于职场招聘、员工工作过程管理、考核评价、奖励惩戒等环节。
在职场中,算法管理在数字劳工平台运行中具有重要地位。平台业务开展,包括对平台工人的管理主要依赖算法,算法是平台得以运行的基础。国际劳工组织的报告指出,工人的算法管理是平台业务模式的核心。对工人的算法管理也是互联网平台用工管理和传统劳动关系中雇主对雇员指挥管理的最大区别。随着现代经济持续变化,算法将在调整劳动关系中发挥更大作用。如同其他领域,算法被赋予做出产生结果的决策,监管者、法律学者,特别是用工平台算法的运行者有责任考虑使用算法的影响。然而,目前关于运用算法管理工人的立法和监管还很少。同时,使用算法对工人带来的不利影响也越发凸显。有学者针对软件程序指出,这些软件越来越多地调解、管理和监控工作关系,对工人造成新的伤害并侵蚀劳动法本身。在欧洲,算法对劳动法带来的挑战也得到密切关注。欧盟2021年出台的报告指出,欧盟平台用工保护面临的四大挑战之一即是基于算法的平台商业模式带来的问题。该报告同时指出,在欧盟,成员国解决平台工作和职场算法管理问题的方法是“稀少且发散的(scarce and diverging)”,现有欧盟劳动法并没有解决算法管理带来的挑战。算法规则内容尤其是不合理的内容及其运行,可能对平台工人的身心健康造成巨大影响,危害劳动者的基本权益。例如,交通出行平台和外卖配送平台普遍使用顾客的评级系统和算法决策以决定工人的活动和收入。根据国际劳工组织2022年的报告,83%的在线网络平台(通过网络发布和提交工作成果的平台)工人,以及72%的交通出行平台工人、65%的外卖配送平台工人,都受制于这一做法,这将进一步加大平台工人焦虑和精神压力的风险。可见,职场尤其是数字平台用工算法规制是各国普遍面临的问题。
实践中,大多互联网用工平台通过算法对劳动者进行全方位管理,算法内容涵盖劳动者进入和退出平台的条件、订单分配、服务价格、服务标准、过程监督、考核评价、奖励惩罚等。从法律角度看,平台的算法关涉劳动者的就业机会、工作任务、报酬收入、工作时间、工作地点、工作强度、休息时间,关涉其健康和安全,因此,平台算法影响劳动者各项基本权益。算法管理具有两面性:一方面通过算法,平台用工管理的效率更高、成本更低,劳动者提供服务和获取报酬等也更为便利。平台通过算法管理高效匹配大规模市场供需,使用数据和算法增强平台快速响应市场需求的能力,劳动者获取订单和收入也更为便利。另一方面,算法主要由平台企业控制,劳动者和平台企业实力和地位差异显著,平台企业可能利用算法侵害劳动者的合法权益。例如,部分外卖骑手在马路上“疲于奔跑”导致交通事故频发,与平台算法有关送餐时间规则不合理有关;部分平台劳动者收入不高与平台单方定价机制和奖惩制度有关;部分劳动者工作时间过长与按单计酬等定价和激励机制有关。虽然算法在形式上表现为互联网系统的自动决策,但其设计、开发和运行均由平台或相关企业负责,平台企业对算法的内容和运行负有主体责任。相比其他场景的算法,网络平台用工的算法大多属于“调度决策类”,算法结果直接影响劳动者的报酬收入、休息休假、职业安全等基本权益。因此,必须对平台的算法进行规制。我国平台用工算法管理规制近年来也成为一个突出问题。2020年一篇《外卖骑手,困在系统里》的文章受到社会极大关注,引发了对算法管理的反思。算法规则内容及其运行的合法性、合理性也受到广泛关注。
目前,我国法学界对算法规制的研究主要聚焦于其一般原理和规则,很少触及具体场景的算法规制。劳动法学者对职场领域算法规制的成果极少,且主要从劳动法角度展开,视野不够开阔。因此,如何打通算法规制的一般原理、规则与职场具体场景的特殊需求,建构职场算法规制的原理和规则仍是迫切任务。算法公开、个人数据赋权、反算法歧视是传统的算法规制方式。算法规制应采取场景化的规制路径,根据不同场景类型对算法采取不同的规制方式,以实现负责任的算法为目标。本文拟将上述算法规制的三种方式应用于职场具体场景进行分析,并应用近年来开始受到关注的算法规制路径——算法影响评估分析职场的算法影响评估,在此基础上从劳动法角度分析职场算法管理的劳动法规制路径。最后分析上述路径的统合问题,以期构建中国职场算法规制基本框架,为职场算法规制完善以及企业算法管理提供理论支撑和行为指引。
二、算法规制一般路径在职场
如上所述,算法规制的一般路径包括算法公开、个人数据赋权、反算法歧视以及算法影响评估等,职场的算法规制应将这些路径进行具体的场景化分析,并对一般规则进行细化。
(一)职场算法透明的要求
由于算法管理涉及算法规则及其自动决策,因此,对算法内容的了解是算法管理对象的基本权利,保持算法透明也是算法管理使用者的基本义务。职场中原本就存在雇用方和受雇方实力和信息的失衡,算法等数字技术的使用使受雇方的不利地位更为明显,因此,算法管理透明是算法管理规制的首要和基本要求。“算法透明仍然是法律回应算法的各种路径当中最直接、有效和恰当的方式。”问题的关键是算法透明的要求如何适用于职场。
加强对平台工人算法知情权的保护是当前国际上加强平台用工权益保护的重要措施。例如,欧盟委员会《改善平台用工工作条件指令建议》(以下简称《指令建议》)规定了平台工人对算法内容的事前和事后知情权的保护,以增强算法透明度。该指令建议要求数字劳工平台在第一个工作日前为平台工人提供一份简洁、清晰、透明、易懂、易于访问的关于自动化监控系统和自动化决策或支持系统的信息文件。《指令建议》还规定,当平台作出决定后,平台工作人员有权“联系数字劳工平台指定的联系人,讨论并澄清导致作出决定的事实、情况和原因”,以及获得属于某些特定类别决定的原因的书面声明,例如,解雇。换言之,平台工人有权事先知晓算法管理的规则,以及在事后了解平台做出相关决策的事实和原因,平台也负有提供相关信息的义务。这些条款相对具体地规定了用工平台告知义务的内容范围和程序要求,对我国亦有参考价值。
我国对算法公开透明已有原则性规定。国家网信办等部门发布的《关于加强互联网信息服务算法综合治理的指导意见》指出:“督促企业及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息,做好算法结果解释,畅通投诉通道,消除社会疑虑,推动算法健康发展”。2021年国家网信办等部门发布的《互联网信息服务算法推荐管理规定》第16条规定,“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”。2021年人社部等八部门发布的《关于维护新就业形态劳动者劳动保障权益的指导意见》(以下简称人社部等的《指导意见》)指出,“督促企业制定修订平台进入退出、订单分配、计件单价、抽成比例、报酬构成及支付、工作时间、奖惩等直接涉及劳动者权益的制度规则和平台算法,充分听取工会或劳动者代表的意见建议,将结果公示并告知劳动者”。目前的主要问题是这些原则条款如何具体落实于劳动用工领域。
“算法透明是算法规制的重要原则,法律应基于不同的场景对算法设定差别化的透明度要求。”借鉴欧盟《指令建议》的规制思路,可从事前和事后两个环节对企业的算法透明做出要求:一是企业在算法使用之前应该告知算法管理对象有关算法管理的基本情况以及规则的主要内容,尤其是涉及就业机会、工作时间、任务分配、工作要求、报酬收入、休息休假、职业安全保障、奖励惩罚等内容。对于事前告知义务,由于算法规则内容极其繁杂,企业应以简洁、清晰、易懂的方式使劳动者了解影响其主要权利义务的算法内容。二是企业做出自动化决策后,劳动者应有权了解决定的内容及其原因,对劳动者权利义务有重大影响的决策,例如报酬的扣除、工作机会的丧失等,企业应以书面形式告知其内容和原因。
(二)职场算法规制的个人信息保护
职场算法管理的广泛使用加剧了劳动关系中的信息不对称和权力不对称。由于算法管理是以平台等企业占有数据为基础的,因此,个人数据或个人信息保护法在算法管理中具有重要地位。有学者指出,“虽然算法管理的监管属于包括劳动法和非歧视法在内的多个法律领域,但数据保护法一直是最受关注的法律领域”。因此,充分利用个人数据或个人信息保护的规则,并认识其对算法规制的不足,是职场算法管理规制的重要内容。
通过个人数据或者信息保护的原理和规则规制算法是一个普遍做法。例如,在欧洲,如果涉及个人数据处理,《通用数据保护条例》(GDPR)适用于算法管理的全过程。因此,GDPR中数据主体享有的权利包括被告知权、获取信息的权利等也可适用于工作关系的劳动者。此外,GDPR第22条是防止算法管理导致危害的重要条款。该条规定,应当由人工而非算法作出高风险的决定,禁止具有重要影响的完全自动决策,例如,决定某人是否获得工作。但这一针对完全自动决策的规定也存在例外,对工人产生重要影响的完全自动决策在以下三种情形下具有正当性:(1)因订立或履行合同所必需;(2)由欧盟或成员国的法律所授权;(3)基于明确的同意。同时,如果雇主基于合同的必要或明确同意进行对工人具有重大影响的完全自动决策,雇主必须实施特定保护措施,在此情形下工人享有:获得人工干预的权利,表达个人观点的权利,对决定提出异议的权利,以及获得对所做决定的解释的权利。但是这些程序性保障措施,特别是获得人工的干预权和解释权在实践中如何适用并不清楚。这些问题,GDPR并没有给出明确答案。上述规则反映了职场算法管理的自动决策和个人信息保护规则的复杂关系,职场自动决策需要以数据处理为基础,同时,为了保障自动决策的公平性和合理性,需要对自动决策的范围做出限制,并赋予数据主体相应权利。
以上分析也表明GDPR在算法规制上的作用及其不足,这些不足主要体现在以下几个方面。第一,同意作为合法性基础的问题。在劳动关系中,雇主和雇员之间是一种权力关系,双方地位和实力并不平衡,算法管理的复杂性使得同意的真实性大打折扣。因此,欧盟《指令建议》不再将“同意”作为使用算法管理系统的合法性基础。第二,数据保护法的个体属性问题。GDPR仅聚焦于个体的数据主体以及个体权利,但劳动关系具有集体性质,劳动关系中双方信息和权力不对等的问题无法在个体层面上得到解决。因此,《指令建议》采取了一项措施,承认算法中的集体数据权利。第三,监管碎片化的问题。欧盟的工人数据保护是通过一系列不同的立法和其他非立法文件实现的,导致了监管的碎片化。数据保护规则在算法规制中存在的上述缺陷,使得数据保护法在劳动用工场景下必须做出适当调整,例如对“同意”作为信息处理合法性基础的调适,配以其他规制路径以克服数据保护法的“个体属性”的缺陷,监管部门加强合作,等等。
我国《个人信息保护法》也涉及自动化决策。《个人信息保护法》第24条规定,“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”。该条规定如何适用于职场还存在诸多疑问:第一,如何理解“仅通过自动化决策的方式作出决定”。企业什么样的行为才构成实质意义的“人工干预”?如何避免“人工干预”流于形式,而放任“自动化决策”?第二,“对个人权益有重大影响的决定”包括哪些事项?从劳动法角度看,涉及劳动者就业机会、工作内容、报酬收入、休息休假、安全卫生等重大事项应属“有重大影响的决定”。同时,“有重大影响的决定”应具有一定弹性,应根据企业具体情况判定,范围过宽会限制算法管理的使用,范围过窄则可能损害劳动者权益。第三,信息处理者的“说明”义务如何落实?信息处理者说明义务的具体内容及其程序,面临诸多困境,也需要具体规则加以落实,尤其是算法解释权或者算法说明义务的性质和具体规则本身仍存在很大争议。算法解释权是否可以成为一种一般性权利,还是仅仅指拒绝算法决策的特定性权利?算法解释权可以主张对算法进行系统解释还是个案解释,事前解释还是事后解释?机器解释还是人工解释?此类问题已经引起法律解释争议与法律适用困境。算法解释权本身面临如此之多的理论争议和适用难题,其如何适用于职场领域也面临同样的难题。
此外,《个人信息保护法》第55条规定“利用个人信息进行自动化决策的”,个人信息处理者应当事前进行个人信息保护影响评估,并对处理情况进行记录。《个人信息保护法》将利用个人信息进行自动化决策,作为高风险个人信息处理活动,并要求信息处理者进行事前的个人信息保护影响评估很有必要。在职场中,特别是在数字平台用工中,单个大型数字劳工平台作为信息处理者可能处理多达数百万甚至上千万平台工人的信息,且其自动化决策需要建立在深度处理平台工人个人信息的基础之上。例如,求职者在申请通过平台提供服务时,需要提供大量的个人信息包括敏感信息;在平台工人提供服务过程中,出于安全保障以及服务监督等考虑,平台可能对平台工人进行实时定位,甚至可能对服务过程进行全程录音录像,这些信息处理行为是否符合《个人信息保护法》一般规则,是否必要和妥当,存在何种安全隐患,是否还存在其他更优的替代方案,都需要平台企业作出相应评估。因此,数字劳工平台进行个人信息保护影响评估十分必要。
(三)算法管理影响评估
除了个人信息保护影响评估,由于算法可能带来的危害加剧,因此,有必要建立算法影响评估制度,评估算法风险及其应对措施。算法管理实践对工人产生重要影响,例如,由于个人选择受到限制,人们在工作中的自主性降低。个人数据收集的强化,对机会和结果平等的影响也在增加,自动化系统处理可能影响群体和个体的公平。
因此,对算法管理影响进行评估具有重要意义:一是评估算法的影响并促进对所确定的风险和影响做出具体应对;二是在立法一般要求和企业自律之间取得平衡;三是确保从算法设计和开发阶段到工作场所部署,都充分考虑到算法的预期影响和风险缓解措施。总体上,建立算法影响评估机制涉及四个问题:一是在算法的哪些阶段进行评估,二是谁来评估,三是评估应该覆盖哪些实质内容,四是评估程序如何进行。对这四个问题可做出如下处理:第一,通常至少应对算法管理的三个阶段进行持续评估:设计、开发和部署阶段。第二,这些评估应相应地由算法设计者、开发者和雇主实施。第三,这些评估应考虑对工人的权利、自由和其他个体或群体层面利益的风险和影响。确定的法律、伦理和社会影响应记录在算法风险评估中。第四,该程序应要求强制性记录文件、利益相关者工人和代表的参与、结果的公布以及定期公布评估结果的审查。由此可见,算法影响评估具有重要意义,是克服算法风险的重要规制路径。虽然GDPR以及我国《个人信息保护法》等规定的个人信息保护评估也承担了类似功能,但个人信息保护评估的范围和程序要求不可和算法风险评估相比拟。个人信息保护影响评估主要从保护个人信息权益角度进行评估,而算法评估主要考虑算法对劳动者各项权利的影响以及各类风险的应对,内容更加丰富,视角更为开阔。
我国相关部门的规范亦要求建立算法风险评估制度。《互联网信息服务算法推荐管理规定》第7条要求算法推荐服务提供者落实算法安全主体责任,建立健全算法机制机理审核、科技伦理审查、数据安全和个人信息保护、安全评估检测等管理制度和技术措施,制定并公开算法推荐服务相关规则。该《规定》第8条还规定,“算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。”同时该规定还针对工作场所的算法管理,对算法内容做了基本要求。该《规定》第20条规定,“算法推荐服务提供者向劳动者提供工作调度服务的,应当保护劳动者取得劳动报酬、休息休假等合法权益,建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法”。虽然该《规定》规定了算法审核、评估等程序要求,但有关算法审核、评估的具体程序和要求并不清晰,关于职场算法管理内容的要求也主要是重复劳动法的一般规定,缺乏针对平台用工等职场用工特点的具体要求。因此,这些规定如何适用于职场,尤其是如何规制数字劳工平台的算法管理仍存在较大疑问。
算法影响评估制度有助于创制合理的算法透明度并构筑算法信任,与数据保护影响评估制度形成有效勾连。目前虽然《互联网信息服务算法推荐管理规定》包括算法评估的要求,但其具体落实于哪些领域,如何落实还存在诸多问题。有学者指出“应当根据我国自动化决策系统应用现状,以公共事业场景为先导,结合风险等级确定优先适用的核心领域”。对此,笔者并不完全赞同,算法影响评估似不应主要限于“公共事业”场景。工作场所尤其是平台用工领域的算法管理涉及数量庞大的从业人员基本权益和广大消费者利益,甚至也关涉社会公共利益,如对公共交通安全和食品安全的影响等,其算法影响评估的重要性似乎不亚于“公共事业”场景,因此,构建职场尤其是平台用工领域的算法评估制度也有必要。有学者指出,预防算法压榨需将“网约工”的劳动权益保障作为算法的核心指标,并提供工作条件影响评估等制度支持。笔者赞同此观点。
(四)反歧视法对职场算法的规制
反歧视是算法规制的传统路径之一。有学者将算法对法律的挑战概括为三个方面:首先,算法黑箱可能挑战人类决策的知情权与自主决策;其次,算法可能威胁个体的隐私与自由;最后,算法可能导致歧视与偏见。因此,如何应对算法管理中的歧视和偏见成为算法规制的重要议题。特别是,由于劳动关系具有强烈的人身属性,在劳动关系建立之前和存续期间,存在雇用方对求职者或受雇者的主观判断和相应决策,职场的反歧视自然成为劳动法和反歧视法关注的议题,对算法可能存在歧视和偏见的规制是实现算法公平和法律公平价值的重要内容。例如,目前女性就业中的算法歧视已经超越理论假设,成为海外招聘活动中的现实。例如,2014年美国亚马逊公司开始开发一项用于筛选简历的算法,算法效果却具有歧视性。究其原因,公司在招聘中长期存在重男轻女的现象。亚马逊被迫于2017年放弃这一算法。类似的,HireVue公司于2021年停用了其算法中最可能发生歧视的人脸识别功能。
由于平等权是一项基本权利,各国普遍存在职场平等权保护的立法,尤其是欧盟建立了比较完善的平等权保护法律框架,我国也已建立了职场平等权保护的立法体系,并且在实践中不断发展。毫无疑问,现有的反就业歧视立法都可以适用于平台用工等使用算法管理的职场领域。虽然算法歧视的结果表现为自动化系统的学习和决策,但算法的开发和使用均由企业做出,算法可能做出歧视决策的“素材”也由企业提供,因此,传统反歧视法适用于算法领域在理论上并不存在障碍,总体上可以应对算法管理带来的歧视问题。欧洲经典的案例是,2019年12月意大利总工会位于博洛尼亚的运输业劳动者工会等将意大利户户送有限责任公司诉至博洛尼亚法院。最后,法院支持了原告请求,确定并宣布被告通过数字平台使用的算法具有歧视性。在该案中,法院仍然援用传统反歧视法关于歧视的定义、歧视类型以及禁止歧视的事由等基本规则来认定是否存在歧视。该案例充分说明了传统反歧视法在算法规制中的适用空间。
尽管如此,算法决策过程通常缺乏透明,算法不透明是反歧视诉讼和执法行动的主要障碍。算法透明对于平等权救济和平等法实施至关重要。在欧洲,如果受害人无法获取信息,要证明歧视存在几乎不可能,因此,有关算法歧视的案例依然罕见,因为主张权利者无法获得提起案件诉讼的必要证据。因此,必须通过司法和立法的路径提高算法透明度。例如,在司法方面,如果被告拒绝披露与算法执行相关的信息,可作为构成歧视的初步证据因素。在立法上,立法者应通过使原告获取更多信息来促进现有平等法的执行,即要求用工方以特定格式和特定标准公开算法管理工具的信息。目前,在欧盟法框架内还缺乏符合这一要求的提案。《指令建议》的内容有所改观,规定平台工人(但不包括求职者)有权获取算法管理的信息,但《指令建议》并没有包含有关平等结果信息的具体规定,因此,标准的缺乏可能导致权利人缺乏足够信息而无法提起歧视诉讼。透明度的提高应该通过强制要求在雇佣场景下进行算法影响评估来实现。因此,解决算法歧视问题有赖于算法透明度的要求和算法影响评估制度,换言之,算法影响评估应该包含算法是否导致歧视的风险评估。
目前,我国在《劳动法》《就业促进法》《妇女权益保障法》等立法中已建立了平等权保护的框架,实践中也有许多反就业歧视的案件。人社部等的《指导意见》也明确指出,“落实公平就业制度,消除就业歧视。企业招用劳动者不得违法设置性别、民族、年龄等歧视性条件”。这些规定如何落实于职场有待司法和立法的完善以及前述职场算法规制手段的配合和支持。虽然反歧视法总体上可以解决算法歧视问题,但应在两个方面做出适当调整:一是根据算法透明的原则,强化企业事先和事后的算法告知义务;二是完善举证责任。在传统反歧视案件中,求职者或劳动者要证明遭受歧视本身就相当困难,在算法背景下,举证难度更大。因此,应进一步合理分配举证责任,只要原告能提供遭受歧视的初步表面证据,被告就负有反驳的证明义务。而且,相比传统反歧视案件,在算法管理的职场场景下,这种表面证据的要求应低于传统歧视案件的证明标准,具体标准可通过司法意见或典型案例予以确立。
此外,随着技术发展,在许多工作场所,特别是在数字平台用工中,企业往往邀请顾客对其雇员进行评级等评价,并基于顾客评价作出对雇员具有重大影响的决定。而顾客的评级等评价行为可能存在种族、性别或其他法律禁止的偏见,对于顾客对雇员的歧视行为,企业究竟应当承担什么责任,也成为算法规制中平等权保护的重要内容。为此,有学者提出将顾客视为“代理经理(action managers)”和“管理客户(managerial customers)”的观点,认为顾客现在不再仅仅是公司的客户,而是积极监督员工并可能决定他们的命运。鉴于这种转变,反歧视法应该承认“管理客户”的地位,并追究公司对歧视性客户评价的责任。这一观点值得赞同,尽管表面上是顾客而不是公司对员工进行直接评价,但顾客评价是由公司授权,或者是基于公司确立的规则,因此,这种评价的主动权依然掌握在公司手中,相应地,对于顾客的歧视行为应当由公司承担责任。
三、职场算法规制的劳动法路径
职场算法规制,除了应用算法规制的一般路径,由于算法内容与职场的主体包括劳务提供者和雇用方及其权利义务密切相关,因此,劳动法作为调整职场关系的基本法律也应加以适用。
(一)算法性质
职场算法规制中劳动法的作用源于职场算法的性质。从静态角度看,工作场所的算法规则类似于传统的用人单位规章制度,只是其内容不仅包括与劳动者相关的规则,也包含企业的经营策略和商业模式等。虽然算法规则可能由于机器的“自动学习”而不断变动和优化,但其规则的基本原则和基本内容是相对确定的,算法决策离不开其确定的“基本规则”。在此意义上,算法决策是以一定规则为基础的。也有学者主张,算法规则应视为企业的规章制度(employer rules)。因此,可借鉴传统的劳动法对用人单位规章制度的规制理念,对算法的规则内容和制定程序进行规制。从动态角度看,算法是一种自动决策,类似于用人单位指挥、监督等指示权的行使以及根据规章制度等作出的决定,例如对劳动者服务过程的指示和监督,对劳动者的报酬计算和支付以及奖惩等。一般认为算法是“人类和机器交互的决策,即人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制”。“这一过程既有人类决策,也有机器的自动化判断。”算法本质上是基于“一定规则”的自动决策,故而算法管理兼具静态和动态的性质,使得在规制上不仅应对算法本身的规则内容进行监管,还应对算法的运行过程及其结果进行规制。
因此有关传统用人单位规章制度规制和集体协商等劳动法的规制方式也应适用于算法。有学者指出了平台用工算法规制的三种劳动法进路:一是参照劳动规章的规则从内容合法和程序合法两个方面确保负责任的算法制定;二是运用集体协商机制实现劳资算法共治;三是以劳动基准为约束厘定算法的合理边界。笔者对此基本赞同。由于算法规则和规章制度的类似性,劳动法规制用人单位规章制度的方式,可以也应当适用。算法规则关涉劳动者的工作条件和工作待遇,这些内容不得违背基本的劳动基准。同时,由于算法规则适用于同一企业甚至更大范围的工人,对这些关涉劳动者工作条件和工作待遇的内容也应利用传统的劳动关系调整机制——集体协商的方式加以调整。归纳起来,算法管理的劳动法规制路径包括算法规则内容的合法性(包含合理性)以及制定程序的合法性。就内容合法性而言,企业必须遵守劳动法有关工时、工资、安全卫生等基本劳动标准;就程序而言,算法规制可以适用规章制度制定的民主程序以及集体协商机制。
(二)算法规则内容的规制
算法规则的内容合法性与算法管理对象的身份有关。随着新就业形态等的快速发展,算法规则内容合法性的判定也面临挑战。例如,在平台用工中,平台工人和平台等主体是否存在劳动关系是一个理论和现实难题。如果工人和平台等企业存在劳动关系,算法规则内容自然不得违背劳动法所规定的工时、工资、安全卫生等基本劳动标准;如果工人和平台等企业的法律关系模糊,无法认定是否存在劳动关系,则算法规则内容未必应完全符合劳动法的一般规定,但算法的规则内容应遵循劳动基准法的基本精神,保护劳动者的基本人身权益。我国在此方面做了有益探索。例如,人社部等的《指导意见》就“健全制度,补齐劳动者权益保障短板”做了相关规定。这些内容并非完全照搬劳动法的内容,而是基于平台用工的灵活性以及保护平台工人基本权益需要做出的规定。这些内容无疑都是算法规则应遵循的基本原则。2021年,国家市场监管总局等七部门发布的《关于落实网络餐饮平台责任,切实维护外卖送餐员权益的指导意见》指出,网络餐饮平台及第三方合作单位要“优化算法规则,不得将‘最严算法’作为考核要求,通过‘算法取中’等方式,合理确定订单数量、在线率等考核要素,适当放宽配送时限。”该意见明确提出“算法取中”,不得实行“最严算法”,其实质是要求平台企业必须遵守相应的基本劳动标准,不得损害劳动者工资报酬、休息休假、安全卫生等基本权益。因此,劳动法以及其他涉及劳动者权益保护的立法或规则越明确,算法管理规制的基础就越牢靠,算法管理的规则边界就越清晰。
(三)算法管理的程序控制
对算法内容的控制主要依赖于劳动法及相关规则的实体内容,尤其是劳动基准法的完善。从劳动法以及算法本身来看,程序规制也非常重要。算法作为对劳动者或其他主体具有直接权利义务影响的自动决策,自然应受到程序的控制。“如果意识到算法权力的重要性,那么算法就不再是言论或者商业秘密,而是一种正当程序;相应地,打破算法黑箱就不是最佳的介入方式,反而应当以正当程序的基本要求来介入算法。”程序控制除了上文提及的个人信息保护和算法影响评估等基于算法自身特点的程序,还应充分考虑职场算法实体内容对程序的需求,充分利用劳动法已有的保证实体权利义务公平合理的程序调整机制——职工民主参与以及集体协商。
工人参与算法内容制定具有重要意义。具体而言:第一,算法规则内容涉及劳动者的实体权利义务,算法规则在形式上和传统的用人单位规章制度具有很大相似性,因此劳动法上劳动者和雇主通过集体协商等方式共同决定相关工作条件和工作待遇,以及劳动者参与规章制度制定等集体权利都可以适用于职场算法场景。第二,算法规则的内容复杂,且不同行业、不同企业的算法内容各异,法律难以深度介入,留给平台等企业和从业人员的协商空间很有必要,可以满足不同行业和不同企业的需要。赋予工人包括共决在内的集体权利,有助于保护工人利益和企业公平竞争,体现不同行业和企业的个性需求,降低工人维权成本,促进算法管理场景下集体关系的发展。这些理念和规则源自于传统职场集体关系调整机制,在新的技术条件下,为促进集体劳动关系的发展,赋予工人在算法管理方面的集体权利更有必要。
当然,工人参与算法制定等集体权利的实现有赖于工会及协商机制的完善,以及一系列现实条件的制约,即使在劳动关系调整机制和劳动法较为完善的欧洲国家也不例外。例如,在英国,对算法管理的有效集体规制存在巨大障碍:一些工作场所缺乏工人代表;在行业和国家层面缺乏代表机构;集体协商覆盖面受限,仅能覆盖算法管理生命周期的某一阶段;工人缺乏支撑集体规制的获取信息的有效权利;促进共同决定的规定完全缺失。可见,集体规制方法在算法规制上具有很大作用空间,但算法管理的集体规制无法完全依赖现有法律规则,而需要结合人工智能的特点更新或出台相关规则。例如,在欧洲,在2021年《指令建议》公布之前,《通用数据保护条例》和“第29条工作组”的意见对算法的集体规制方式做了相关规定,但其主要从数据保护的角度出发,因此,在算法管理规制的对象以及过程方面存在缺陷:GDPR的保护对象是数据主体,且其规制的算法管理阶段主要是算法管理的运行环节。《指令建议》将算法管理规制扩大到算法管理的所有环节,包括设计和部署,受保护的对象也不再局限于数据主体。《指令建议》第9条明确指出,成员国应确保平台工人代表在关于自动监控和自动决策系统的引入或实质变化方面,享有获取信息和协商的权利;如果缺乏代表,应确保数字劳工平台相关的平台工人享有获取信息和协商的权利。因此,通过更为具体的规则明确平台工人等享有获取信息和协商的权利十分必要。
具体到我国,随着相关政策文件的出台以及人社部和全国总工会的推动,集体协商和集体合同在保护平台用工,包括算法规制上发挥了积极作用。如上述,人社部等的《指导意见》赋予平台工人参与算法规则制定的权利。实践中,平台企业也开展了形式多样的平台工人民主参与的实践。例如,根据平台企业“美团”披露,为了让骑手畅通有效地表达诉求,美团2022年进行了“骑手恳谈会”“申诉机制”“产品体验官”等多种尝试;开通了骑手权益保障专线,受理对劳动报酬、劳动安全、保险保障、用工合规等方面的疑难问询和投诉,帮助骑手维护合法权益。同时,在工会推动下,通过集体协商保护平台工人权益也取得了新进展。例如,2023年,在上海市总工会的推动下,全国首份外卖平台企业全网集体合同落地“饿了么”平台,覆盖“饿了么”全国1.1万个配送站点超过300万“蓝骑士”。此外,自2021年以来,全国各级工会加快探索平台企业协商协调机制建设新路径。这些实践具有重要的理论和现实意义。
当前算法集体规制存在的问题是,集体合同签订必须依靠工会的推动和工人代表的存在,但平台工人较为分散,将平台工人吸纳入会还存在诸多困难。此外,由于平台用工的复杂性和灵活性,平台工人的代表机制难以建立,加上同一平台内部也存在不同类型工人及不同诉求,工人代表进行集体协商特别是针对算法进行集体协商的能力也有待提升。这也是国外平台用工权益保护集体路径同样面临的挑战。例如,有学者指出,应通过欧盟立法,对成员国施加一定的义务,要求雇主建立平台工人适当结构的代表,只有如此,欧盟现有和计划的算法管理规制才会在现实中具有意义和富有成效。因此,算法管理的集体规制很大程度上取决于工会或其他工人代表机构是否存在及其协商对话能力。由于传统上我国劳动关系集体协商机制作用相对有限,目前较为可行的路径是借鉴单位规章制度的民主程序,完善工人参与算法制定的程序规则,要求平台等企业在算法设计、开发和运行等环节充分听取工人代表的意见,将其作为算法程序规制的法定环节,进一步规范平台工人表达关于算法内容意见建议的路径和程序,比如在算法管理的哪些阶段、涉及算法管理的哪些内容以及具体事项应听取工人意见,平台工人如何表达自身意见,平台企业如何处理平台工人的意见等等,进一步细化人社部等的《指导意见》相关规定。与此同时,逐步推动平台工人加入工会,并通过集体协商的方式介入算法的具体内容和程序,以保护平台工人的基本劳动权益。
四、职场算法规制路径的统合
上文分析了算法一般规制路径在职场的应用以及职场算法规制的劳动法路径,各种路径是相互关联、彼此交织的,因而应进行统合。
(一)坚持综合系统的算法规制理念
算法规制采取系统方法是算法研究者的主流观点。“算法风险的治理必然是系统性、多维度的。”“算法规制的谱系可以至少包含四重维度,即风险成因维度、规制工具维度、用户权利维度和参与主体维度。”由于职场算法性质复杂,既有传统的用人单位规章制度属性,又借助于现代自动化和人工智能技术,具有明显的“现代性”,因此,必须充分利用传统劳动法规则以及算法规制的新理念。从劳动法角度看,应借助劳动法中有关基本劳动标准、规章制度、集体合同等相关规则以及反歧视法,从算法作为新技术而产生的新规则看,应充分利用个人信息保护法、一般算法管理规则、平台治理规则等对算法的内容和程序进行控制。
目前我国相关部门重视对算法的规制,初步建立了算法规制的框架,其内容不仅涉及一般算法规制,也有针对平台用工等职场算法的具体规制措施,其思路也是采取综合系统的规制方法。《关于加强互联网信息服务算法综合治理的指导意见》强调“利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局”。该文件以及《互联网信息服务算法推荐管理规定》《关于维护新就业形态劳动者劳动保障权益的指导意见》《关于落实网络餐饮平台责任,切实维护外卖送餐员权益的指导意见》等四个文件构成当前我国职场算法规制的主要规范基础。
总体上,我国对职场用工尤其是平台用工算法运行的基本原则、算法规则的主要内容和制定程序等做了初步规定,为平台企业及其合作企业等主体提供了基本行为准则,尤其是确立了“算法取中”的基本要求,明确应当保护劳动者的合法权益等基本理念具有重要意义。但目前我国平台用工算法规制还存在较大不足:一是现有规则规定分散,且主要体现在相关部门的部门规章和指导意见,规则权威性和强制力不足,也不利于规则统一和规则执行,不利于企业和劳动者知晓相关义务和权利。二是现有规则的内容较为原则,操作性不强,企业和劳动者的权利义务不清。三是现有规则主要是指导性的行为规范,算法管理对象的权利不明确,且缺乏完善的权利救济程序。
我国平台用工发展迅猛,据不完全统计,2021年互联网平台带动提供共享服务的劳动者人数达9000万人。新业态领域出现去劳动关系、平台化倾向。平台用工等职场使用算法进行用工管理十分流行。根据一些平台披露的数据,多个平台的从业人员多达数百万。例如,2022年,超过624万名骑手在美团外卖获得收入。上文提及,2023年“饿了么”全国1.1万个配送站点有超过300万“蓝骑士”。根据滴滴公司负责人介绍,2023年滴滴网约车活跃司机586万,同比增加了142万。因此,算法规制亟待完善。鉴于职场算法的重要性以及目前有关算法规制的规则分散,我国可考虑制定一部系统的职场算法规制的部门规章或行政法规,全面规定职场算法管理基本原则、企业主要义务、算法管理对象主要权利、主要监管部门及其职责以及相关的法律责任。由于职场算法的特殊重要性,通过完善职场算法规制的理念和规则,也可以为其他领域算法规制提供参考。
(二)监管部门的协同配合
目前我国规范算法管理的主要文件都是由多个部门制定发布的,因此可能存在两方面的风险:一是部门职责不清;二是相关监管部门缺失,监管不够专业。例如,《关于加强互联网信息服务算法综合治理的指导意见》由国家互联网信息办公室、中央宣传部、教育部、科学技术部、工业和信息化部、公安部、文化和旅游部、国家市场监督管理总局、国家广播电视总局等九部门制定。《互联网信息服务算法推荐管理规定》由国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局发布。这些文件涉及众多部门,具体部门的监管职责分工并不清晰。值得注意的是,这两个文件涵盖职场领域,尤其是《互联网信息服务算法推荐管理规定》包含专门针对职场的条款,但这两个文件的制定部门并没有包含人力资源和社会保障部。换言之,人社部门在算法管理的监管地位和角色并不清晰。而人社部等的《指导意见》由人力资源社会保障部、国家发展改革委、交通运输部、应急部、市场监管总局、国家医保局、最高人民法院、全国总工会等发布,未包含国家网信办。
因此,监管部门的协调配合,尤其是人社部参与其中是职场算法规制监管体制必须坚持的方向。在欧洲也存在法律执行的困境。职场数据保护规则的执行属于数据保护机构的职责,但数据保护机构并非劳动法专家,许多报告显示数据保护机构缺乏资源和人手不足。由于算法系统的复杂以及监管职能跨部门的性质,使得无论是数据保护机构还是劳动执法机构自身都难以确保职场算法管理规则的有效实施。有鉴于此,欧盟《指令建议》设计了一种合作监管方法,即在数据保护机构和劳动执法机构之间分配权限,并要求他们相互交换与其各自监管职能有关的相关信息。这种方法应进一步加强并扩展到平台工作之外。因此,在职场算法的监管领域,鉴于其涉及诸多劳动法的专业领域,宜由人社部门牵头,协同网信部门和相关主管部门,例如主管外卖配送的市场监管部门、主管交通出行的交通运输部门等进行协同监管,只有充分发挥人社、网信以及行业主管部门的职能,并明晰各自职责分工和协调机制,才能确保规则的顺利执行。
(三)明确与算法管理相关的权利
目前我国有关算法的规定主要从监管角度,明确监管部门的职责以及企业关于算法管理的义务,算法管理对象的权利并不明确,这可能影响算法权利的实现。职场算法治理涉及监管部门、算法使用主体(主要是企业)以及算法管理对象(主要是个人),其中法律关系涉及算法监管部门和企业之间因监管产生的法律关系,以及企业和个人之间因算法管理而产生的法律关系。除了明确监管部门职权以及企业的义务和责任之外,明确作为算法管理对象的个人权利以及相应的救济程序非常重要。为进一步提高算法规制的权威性和强制力,应努力提高算法规制的立法位阶,通过法律或行政法规,明确劳动者与算法相关的权利。与上述算法规制路径相一致,劳动者与算法相关的权利应包括在算法管理中事先、事中和事后的权利,具体包括以下几类:(1)有关算法透明的权利,包括被告知有关算法使用和相关规则内容的权利,获取有关决策及其事实和理由的权利;(2)与个人数据或信息保护相关的权利,包括获得人工干预的权利以及异议权等;(3)与算法相关的集体权利,包括参与算法规则制定的权利、通过集体协商确定算法管理具体内容的权利;(4)与算法相关的救济权,即当算法管理对象因算法遭受损害时获得救济的权利;等等。
我国相关文件和司法实践为规则完善提供了基础。例如,《最高人民法院关于为稳定就业提供司法服务和保障的意见》规定:“依法认定与用工管理相关的算法规则效力,保护劳动者取得劳动报酬、休息休假等基本合法权益;与用工管理相关的算法规则存在不符合日常生活经验法则、未考虑遵守交通规则等客观因素或者其他违背公序良俗情形,劳动者主张该算法规则对其不具有法律约束力或者请求赔偿因该算法规则不合理造成的损害的,人民法院应当依法支持”。这一规定与劳动法相关规定的理念类似。《劳动合同法》第80条规定:“用人单位直接涉及劳动者切身利益的规章制度违反法律、法规规定的,由劳动行政部门责令改正,给予警告;给劳动者造成损害的,应当承担赔偿责任”。最高人民法院的意见将因算法规则不合法或不合理给劳动者造成损害的情形也作为平台等企业的责任,也体现了劳动法和算法规制新规则的融合。我国司法实践也开展了相关探索。苏州市中级人民法院于2022年5月公布了“司法护航数字苏州建设十大典型案例”,其中案例6(网约车平台不可“任性”侵犯司机权益——陆某与滴滴公司等合同案)涉及算法救济权。该案中,司机陆某以滴滴公司使用溯及既往的平台规则,对其采取的取消“专车”认证损害其权益为由起诉要求滴滴公司赔偿,法院最终判决滴滴公司赔偿陆某3.2万元。本案结果具有重要意义,“溯及既往”违背了法治基本原则,不符合算法规则公开透明的要求,也侵害了司机知情权,算法结果也导致了司机的经济损失,法院判决肯定了劳动者的实体权利以及受救济权,值得肯定。总之,只有将目前分散在不同部门发布的规范性文件上升为部门规章或行政法规,并明确劳动者等主体与算法有关的权利,算法管理对象的基本权益才能得到真正保障。
结 语
职场算法的法律规制,既需要借助算法规制一般路径进行具体的场景化设计,还应充分利用劳动法路径,采取综合系统的规制方法,推动传统劳动法和算法规制新路径的融合。在职场场景下,算法规制的一般路径包括透明度要求、数据保护和算法影响评估、反歧视等,必须结合职场算法特点,创设具体规则,方能满足职场算法规制的特殊需求。同时,应充分利用劳动基准法、规章制度规制和集体协商等劳动法调整手段,对算法内容和程序进行控制。从算法本身以及劳动法角度采取的算法规制路径必须进行统合。统合路径是将分散的规则进行集中立法,并明确人社部门、网信部门以及行业主管部门等部门的职责和相互配合义务,同时将各种规制路径和保护措施转化为职场算法管理对象的法定权利,以此来确保劳动者等主体与算法相关的权利落到实处。
微信号|bdxbzsb