点击上方蓝字,关注《人权法学》
摘 要:网络平台用户言论自由的保护面临困境。由于平台私权力逃逸于传统法律规制范围、平台内部救济困难,用户的言论自由难以获得救济。面对平台私权力扩张的威胁,欧洲法院与欧洲人权法院高度关注用户言论自由的司法救济,两法院没有以尊重意思自治为由排除审查平台的言论限制措施,而是在各自裁判框架下积极审查平台的言论限制措施是否损害用户言论自由,以有效规制平台权力。欧洲法院解释欧盟法令规定的平台责任规则时,避免过度限缩平台责任豁免条件,防止平台采取过分严苛的内容治理措施。欧洲人权法院审查平台对言论自由的限制措施是否符合比例原则,并总结出必要性分析五要素。在欧洲立法逐步加强平台责任的趋势下,欧洲两大司法机构避免平台迫于法律责任实施严苛的内容审查,以保护平台用户的言论自由权利。
关键词:言论自由;平台责任;欧洲人权法院;欧洲法院
作 者:李雅文,清华大学法学院
本文发表于《人权法学》2024年第4期,因篇幅限制,注释省略。作者身份信息为发文时信息。
互联网平台是当代言论自由最重要的媒介,也是实质上具有公权力的私主体,通过制定并执行算法规则,平台已对用户的言论自由产生基本权利意义上的负面影响。国内学者关于网络环境中言论自由保护与规制的研究多数集中在“个人—国家”的二元视角,在少数将平台纳入讨论视野的研究中,有学者提出将互联网平台作为直接规制对象,间接控制言论表达与传播过程,以降低国家干预的违宪风险。在比较法层面,国内学者对美国、德国的网络言论自由保护与规制已有较为成熟的研究。考虑到欧盟法律制度是我国数字领域个人权利立法的重要参考,欧洲人权法院、欧洲法院依据《欧洲人权公约》和《欧盟基本权利宪章》作出的系列判决形成了较为稳定的司法裁判规则,理应在平台责任与言论自由相关研究中进一步挖掘、借鉴欧洲经验。然而,国内学者对欧洲相关制度的研究较为匮乏,仅李汶龙以2012—2017年欧洲人权法院四起治理网络极端言论的平台责任判决为研究对象,梳理平台责任标准之变迁。平台中用户言论自由保护为何陷入困境?平台如何对用户的言论自由产生基本权利意义上的限制?在平台内容治理责任下如何保护用户言论自由?本文以欧洲互联网平台用户的言论自由为讨论对象,以欧盟法令、欧洲人权法院和欧洲法院判例为主要讨论材料,试图回答以上问题。首先讨论平台用户言论自由保护的困境;其次,梳理欧洲法院和欧洲人权法院关于平台用户言论的系列裁判,分析法院如何在平台内容治理责任下保护用户的基本权利;最后,比较欧洲法院与欧洲人权法院的裁判路径,总结两大法院共通的裁判逻辑,即平台用户言论自由保护的欧洲司法方案。
一、平台用户言论自由保护困境
网络平台的公权力属性已受到学界重视,劳伦斯·莱斯格(Lawrence Lessig)在《代码2.0:网络空间中的法律》一书中作出法律代码化(Code is law)的经典论述,并指出公权力可以作为“东海岸的代码”,利用平台、算法等“西海岸的代码”开展间接规制。网络服务提供者与互联网内容提供者的技术权力被称为与传统公权力并行的“私权力”。平台私权力的直接权源是平台对用户言论的支配力。平台直接控制用户获取、发布和处理信息的能力,直接决定用户能否接入平台、用户发布的内容得到何种程度上的曝光。平台私权力的间接权源是法律规定的信息审查义务,政府以平台为中介实现对互联网言论的间接规制。平台作为互联网环境中言论的直接规制者,为避免因违反法律法规对其设定的信息审查义务而承担法律责任,因而兼具网络信息审查的压力和动力。在法定责任与义务下,平台具有相当的自由裁量权,有权力决定是否删除有争议的内容,例如,真实性不确定的新闻和仇恨言论,以避免承担不利责任。
然而,作为平台权力的相对人,用户的言论自由保护存在现实困难,这是因为平台私权力已在事实层面产生,却逃逸于传统公私法律规制且难以实现自我限权。
平台私权力容易逃逸出传统公法规制范围。根据国家行为理论,宪法对言论自由的保障不能直接作用于作为私主体的平台。在国家行为理论下,原则上只有国家行为受到宪法约束,私人行为不受宪法的限制。只有承担公共职能、国家不作为、国家超越职权等具有国家行为因素的私人行为才适用宪法的基本权利规范。虽然表面上平台对用户言论的规制包含管理公共论坛的功能,但平台的言论审查与推送行为同时具有吸引用户注意力、满足用户网络内容需求从而实现盈利目的的私法功能。根据美国宪法实践,国家行为的认定限于政府的传统排他性职能范围内,平台提供的公共服务并非传统意义上的公共服务,且未排除其他服务提供者,难以在理论上证成网络平台审查用户言论的行为系国家行为从而应受公法规范,司法实践中也未出现成功运用国家行为理论证成平台应受公法规范的判例。
平台私权力难以被私法有效规制,用户难以获得私法的有效救济。在当前法律秩序中,平台行使权力的行为主要受到私法规制,然而,平台与用户已处于不平等的权力地位,基于契约自由与意思自治的私法规范无法有效规制平台私权力。篇幅巨量的使用协议使用户同意逐渐流于形式,个人或经营者相对于大型平台议价能力处于弱势,平台利用算法技术采取的治理措施发挥类似政府行政行为的功能。对平台与用户之间的关系,传统的契约自由和意思自治还能否有效适用存在疑问,若以用户自愿与平台签订使用协议合理化平台的单方管理行为,大量弱势用户的权益难以得到救济和保障。此外,数字经济“赢者通吃”的网络效应时常形成寡头局面,作为用户的个人或经营者受到锁定效应的影响,难以“用脚投票”作出更好的选择,从这个意义上来讲,市场竞争对平台合理审慎行使权力的限制也消失了。
平台私权力无法实现自我限权,用户无法获得平台内部的实质救济。类比行政法对相对人权利救济的设计,平台内部的用户权利救济途径效果不佳。最有代表性的是“元”公司(Meta)监督委员会,其仿照美国最高法院设立,力求中立公正,选任世界各地和各行各业的精英和专家担任成员就用户上诉的“元”公司和照片墙(Instagram)的“终审决定”进行审理。然而,即使是全世界最大社交平台建立的内部申诉途径,“元”公司监督委员会很大程度上只起到装饰和象征的“橡皮图章”作用。究其原因,是因为在平台自治理念的深刻影响下,平台依然是“自己案件的法官”,因而再精致的限权设计也将流于形式。
总之,从用户的角度出发,网络平台中用户言论自由的保护面临困境。国家以法律规定平台的言论审查义务,平台通过绝对技术控制力帮助政府实现对网络舆论的全景式治理,在此进路下,政府通过平台责任实现的间接规制有掏空言论自由之实质内核的危险。平台私权力存在滥用风险,表现为其逃逸于传统公法规制范围、不平等的权力关系使传统私法规制无效、平台内部的用户救济途径效果不佳。在平台私权力扩张的威胁下,欧洲法院与欧洲人权法院高度关注对用户言论自由权的司法救济,两大法院并未仅以尊重意思自治为由消极不审查平台的言论限制措施,而是在各自的裁判框架下,积极审查平台对用户言论的限制措施是否损害用户言论自由,以有效规范平台私权力。本文第二、第三部分即为说明两法院对平台行为的司法审查路径。
二、欧洲法院:平台责任新解释
根据欧洲法院的初步裁决管辖制度,各国法院有义务将案涉欧盟法的解释与效力问题交由欧洲法院裁决。欧盟《电子商务指令》(Directive 2000/31/EC)规定了欧洲平台责任的基本框架,欧洲法院在系列案件中的主要任务是解释该法令中的具体平台责任规范。在立法逐步加强平台内容治理责任、平台私权力逐渐膨胀的趋势下,欧洲法院注意平衡对言论自由的保护,适度扩张解释平台责任豁免条件,以避免平台为逃避责任采取严苛的内容治理措施,不当损害用户的言论自由。
(一)扩大解释平台被动性
《电子商务指令》规定,若提供传输、托管、缓存服务的网络平台对用户产生的非法内容不知情,并在被通知存在侵权信息后迅速采取行动将其删除,平台不承担任何责任。序言第42条进一步阐释为,当平台发挥中立作用,其行为是“技术性的、自动的、被动的”,可以免除责任。这意味着平台必须证明在提供传输、托管、缓存服务时,其作用仅限于传输或存储信息,而对这些信息并不知情或实施控制。关于平台的“被动性”,由于算法技术和平台经济的发展,实践中平台较为普遍地利用算法推荐、筛选用户发布的内容,如果将所有提供算法推荐、打击侵权的行为都解释为平台发挥的“主动作用”,安全港的责任豁免规则将不能实现其平衡自由与安全的立法目的。为此,欧洲法院结合最新技术发展,扩大解释了平台被动性行为的范围。
根据欧洲法院的判例,即使提供托管服务的平台对其传输或存储的信息有一定程度的控制,平台也可以免于承担责任。欧洲法院在两个与广告相关的案例中作出了类似的判决和分析。在谷歌法国公司诉路易威登(Google France SARL and Google Inc. v. Louis Vuitton Malletier SA,以下简称“Google v. LV”)案中,谷歌(Google)付费服务关键词广告(AdWords)会在用户输入某些搜索关键词时显示广告,谷歌搜索“路易威登仿制品”时,会出现一些路易威登赝品网站链接,路易威登遂对谷歌该项服务提出商标侵权诉讼。谷歌在法国国内第二次上诉后,巴黎最高法院请求欧洲法院就欧盟相关指令的解释作出初步裁决。欧洲法院判决中指出,谷歌利用自己开发的算法处理广告商输入的数据,根据广告商支付的报酬等因素来决定广告的显示顺序,属于实际控制。但法院强调,仅仅是广告服务需要付费、谷歌制定付费条件并决定广告显示顺序这一事实,不足以认定其对广告内容发挥积极作用,使其对第三方商标侵权行为负责。相比之下,若谷歌参与编写广告链接中的商业信息及关键词,则应认定其发挥了积极作用。法院重申了对《电子商务指令》第14条的解释:如果平台没有积极地知情或完全控制广告商数据,就不能要求平台对储存的广告商数据负责,除非平台在知道这些数据的非法性质或广告商的活动后,没有迅速采取行动删除或阻止对有关数据的访问。该解释在后续类案中被法院多次引用,成为欧洲法院判断平台所发挥作用的重要先例。
欧洲法院在欧莱雅诉亿贝(L’Oréal and Others v. eBay,以下简称“L’Oréal v. eBay”)案中维持了与谷歌法国公司诉路易威登(Google v. LV)案一致的判决思路。如果托管服务平台并不知情或控制所存储的数据,即没有发挥积极作用,则可以援引《电子商务指令》第14条主张责任豁免。平台制定服务条款、从经营活动中获利、向客户提供一般信息等活动不能表明平台对存储信息的知情或控制,因此亿贝可以主张责任豁免。然而,如果亿贝参与优化销售广告的展示和推广,则表示其发挥了积极作用。
虽然上述判决提供了一定参考,但欧洲法院在区分平台的被动和主动作用方面仍缺乏明确的判决规则。有学者指出,利用算法系统对第三方内容进行预先筛选或后续检查,平台不可避免地干预了信息的传输,并获得了对信息的控制。而且由于平台在内容推广、治理方面的作用逐渐由技术性、被动性变得积极主动,这将使它们无法完全依赖安全港的责任豁免。
(二)严格解释事前一般性监控
《电子商务指令》第15条表示,国家不应要求平台承担事前的一般性监控义务,即监控其用户传输或存储的信息或非法活动。平台收到明确通知之前,国家不得要求平台检查用户在其服务器上发布的所有信息。欧洲法院在判决中广泛适用这一规则,严格限制平台采取事前的一般性监控,目的为平衡保护《欧盟基本权利宪章》规定的各项权利:权利人根据《欧盟基本权利宪章》第17(2)条享有的知识产权,平台根据《欧盟基本权利宪章》第16条享有的商业自由,以及根据《欧盟基本权利宪章》第11条保障用户的言论和信息自由的权利。
在比利时作家、作曲家和出版社协会(SABAM)案中,法院认为,要求平台一般性的监控内容将影响用户的基本权利,即《欧盟基本权利宪章》第8条和第11条保护的个人信息的权利和言论或获得信息的自由。斯嘉丽诉比利时作家、作曲家和出版社协会案(Scarlet v. SABAM)和比利时作家、作曲家和出版社协会诉网络日志(SABAM v. Netlog)案均涉及一家著作权管理公司——比利时作家、作曲家和出版社协会,区别在于案涉平台不同,分别为社交网络平台网络日志(Netlog)和点对点内容交流平台斯嘉丽(Scarlet),两家平台用户均可免费获取比利时作家、作曲家和出版社协会所管理的作品而无需授权或支付版权费。两案主要争议为,比利时法院是否可以对平台施加义务,要求其采用监控系统以检测潜在的版权侵权行为,该系统无限期监控所有用户在服务器上的所有信息,包括含有音乐、电影或视听作品的电子文件。法院指出,国家法院在要求平台安装该监控系统时,必须在权利人的知识产权、平台的商业自由和用户的言论自由、个人信息权利中取得平衡,采用事前的一般性监控保护著作权不合比例,因其严重限制了其他基本权利,包括《欧盟基本权利宪章》规定的用户的言论自由、隐私权以及平台的商业自由。
区别于一般性监控,为预防未来的侵权行为,可以要求平台进行内容监控,但欧洲法院要求国内法院在发布的禁令中明确具体的监控内容,而不能将评价内容违法性的权力交由平台。在欧莱雅诉亿贝(L’Oréal v. eBay)案中,欧洲法院判决平台应采取措施禁止现有侵权行为,并防止未来侵权行为。为避免一般性监控从而保护用户言论自由等基本权利,法院严格划定了具体和一般性监控义务的概念的界限:只能命令互联网服务提供商防止(1)侵犯相同的权利;(2)由同一卖家实施;(3)对同一商标的侵权行为。通过划定具体监控的范围,欧洲法院确保对平台施加的预防性责任不会违背《电子商务指令》第15条的目的,即平衡保护用户的言论自由。
格拉茨诉脸书(Glawischnig v. Facebook)案中涉及的言论是对个人的诽谤,国内法院要求平台删除所有诽谤言论,以及与之表达相同意思的信息。欧洲法院同样援引了《电子商务指令》序言第41条,认为对个人名誉权的保护不能要求平台承担过重的义务。因此,国内法院要求删除的所有等同信息的具体内容必须在禁令中确定,例如,被侵权人的姓名、侵权行为的界定以及与被确认为非法信息等同的内容。欧洲法院特别指出,在任何情况下,与被确认为非法信息的等同信息不能由平台独立评估。由法院确定等同信息的内容和范围,一方面能够有效地保护个人名誉,另一方面不对平台施加过度评估义务,也降低了平台评估不当而对用户言论自由的损害。
(三)限缩解释平台知情范围
《电子商务指令》第14条规定了第三方内容的责任豁免,条件是平台没有实际知情非法活动或信息,而且就损害赔偿要求而言,要求平台没有意识到非法活动或明显事实。此处的“知情”不仅包括实际知情,还包括推定知情。一般情况下,只有平台通过禁令或权利人的通知而被明确告知其托管的非法内容时,才符合知情标准。然而,平台使用算法进行内容控制可能会使情况更加复杂。当平台通过算法筛查主动发现了某些第三方侵权行为时,是否达到知情标准仍存在争议。
法院解释《电子商务指令》第14(1)条中的“知情”时,强调平台“知情”程度仅限于具体明确或容易识别的非法信息。根据《电子商务指令》序言的第41条和第46条,对第14(1)条“知情”的解释应平衡各种利益,特别是《欧盟基本权利宪章》第11条所保障的表达自由。《电子商务指令》完全禁止使平台负担事前监控其传输、存储信息的一般义务,举重以明轻,要求平台“知情”后采取行动,也应解释为平台已知晓具体内容,而不包括通过算法技术性的编辑和利用。在并案法兰克·彼得森诉谷歌有限公司(Frank Peterson v. Google LLC and others)案, 爱思唯尔股份有限公司诉赛扬多股份(Elsevier Inc. v. Cyando AG)案中,法院以言论自由为原则,限缩解释平台“知情”这一具体规则,认定在线内容共享平台自动为上传内容编制搜索索引,并根据用户的个人资料或偏好推荐视频,并不构成“具体”知情平台中的非法活动或信息。
根据欧洲法院在欧莱雅诉亿贝(L’Oréal v. eBay)案中的观点,明显的非法性为“任何尽职的经营者都应该发现有关的非法性”。这种推定知情涵盖了平台以各种方式意识到非法事实的情形,它既包括平台因主动调查而发现非法活动信息的情况,也包括平台被第三方通知的情况,尽管通知可能不够精确或证据不足。欧洲法院的此项判决引发了争议,批评观点指出,如果要求平台为其在自愿检查中偶然发现的非法信息承担责任,那么,使用算法进行内容审核将大大增加责任风险。如果在用户生成的内容公开之前对其进行审查,由于某些原因这些内容后续没有被屏蔽,那么平台可能被认为已经知情,无法主张安全港的责任豁免。
综上,欧洲法院适度扩张解释《电子商务指令》规定的平台责任豁免条件,具体包括扩大解释平台被动性、严格限制事前监控、限缩平台知情范围。欧洲法院裁判的背后逻辑是为平衡立法上平台责任加强的趋势,避免过度限缩平台责任豁免要件以防平台过于容易承担责任,以防止平台为避免担责采取严苛的内容审查措施,从而产生损害用户言论自由的“副作用”。
三、欧洲人权法院:比例原则新要素
与欧洲法院不同,欧洲人权法院裁判不限于欧洲法令规定的平台责任框架,而是通过审核各国法院判决,整体性审查国家和平台采用的限制措施是否损害用户的言论自由。欧洲人权法院以比例原则为分析框架,以《欧洲人权公约》第10.2条为法律依据,审查言论自由限制措施是否满足合法性、合目的性以及必要性的要求。欧洲人权法院重点关注必要性,即审查平台的限制措施是否必要、所造成的损害是否最小。在系列案件中,欧洲人权法院逐步发展了比例原则中的必要性原则,提炼出评估平台限制言论的行为是否满足必要性要求的五项关键因素。
(一)用户言论类型与平台性质
法院将用户言论类型和平台性质作为判断因素,将两者统称为“语境”(Context)。法院在系列裁判中将言论分级分类,对不同级别与类型的言论实施差异化保护。根据保护程度由低到高,法院系列判决中所涉用户言论类型包括仇恨言论和虚假信息、粗俗的攻击性言论、具有公共利益的言论。
首先,仇恨言论、虚假信息等内容不在《欧洲人权公约》保护的言论范围内,相反,平台对此类内容具有注意义务。法院指出德尔斐诉爱沙尼亚(Delfi v. Estonia)涉及的言论内容不仅构成诽谤,还构成鼓吹对他人使用暴力的仇恨性言论,言论的性质决定了《欧洲人权公约》第10条对其保护程度有限。其次,粗俗的攻击性言论并非不受到保护,但要结合平台中用户的交流方式判断。在皮尔诉瑞典(Pihl v. Sweden)案中,法院认定争议言论是具有攻击性甚至粗俗的,但这并非评判攻击性言论的唯一决定性因素,因为必须考虑到某些网站中用户特殊的交流方式,即虽然评论的措辞用语低级粗俗,但这对许多网站来说并不罕见。最后,涉及公共利益的公共性讨论应得到更高程度的保护。在匈牙利内容提供者协会与索引网站诉匈牙利(MTE and Index v. Hungary)案中,法院认为案涉房地产公司的批评文章实际关乎公共利益,可能促使人们就消费者普遍关心的问题展开讨论,应当得到更高程度的保护。
平台性质因素主要考虑平台对用户言论的控制力,由于营利性平台的人员、资金更充足,对用户评论的控制力更强,因而应对内容治理承担更多责任。具体而言,门户网站德尔斐(Delfi)是商业性运作的,它在新闻网站上设置评论区鼓励用户发表对文章的评论,且该公司的广告收入取决于网站上的评论数量,根据该平台的运营规则,评论一旦发布就不能删除或修改。因此,法院认定德尔斐不仅仅是一个被动、纯粹的技术服务提供者,其实质控制了其网站上发布的评论,应对其控制范围内的仇恨言论承担责任。相反,法院对非营利性平台的内容治理责任要求较低。匈牙利内容提供者协会(MTE)是一个非营利性组织,法院认为非营利组织对用户在其网站上发表的言论控制力更低,不应要求其承担过于严格的责任。皮尔诉瑞典(Pihl v. Sweden)案中发布文章和用户发布攻击性言论的平台也是一个小型的非营利组织,法院从平台的影响力方面入手,指出该平台不可能吸引很多用户发布内容,关于原告的言论也无法广泛传播。
(二)平台言论治理措施
法院考虑的第二项因素是平台为防止或消除非法言论而采取的措施,以判断平台是否履行其注意义务,进而裁决平台是否需要承担责任。本文考察的案例中,平台主要采取三类措施,其一为免责声明,其二为“通知—删除”措施,其三为事前的一般性监控。欧洲人权法院逐一分析这些措施是否符合比例原则,而未直接裁决哪种措施是不恰当的。
首先,多数案例中平台均主张事先已发表免责声明,声明平台不对用户发布的内容负责,用户应单独为自己发布的言论负责。法院指出,事先发表免责声明可以证明平台部分履行了注意义务,因为提示、要求用户对自己的言论负责具有一定威慑作用。然而,免责声明对用户威慑作用有限,平台仅采取这一措施不足以履行其注意义务。
其次,“通知—删除”是平台最常采用的措施。平台收到关于侵权内容的通知后,在一定时间内采取删除、禁止访问等措施,即可免于承担责任,该制度来源于《电子商务指令》,是欧洲平台责任的核心框架。在德尔斐诉爱沙尼亚(Delfi v. Estonia)案中,平台在接到通知后24小时内删除了仇恨言论和暴力性评论,但此前这些评论和言论已在平台上存在了6周。法院认为德尔斐采取的“通知—删除”措施不足以履行其注意义务,而判决其承担责任。然而,继德尔斐诉爱沙尼亚(Delfi v. Estonia)案之后,法院在后续的匈牙利内容提供者协会与索引网站诉匈牙利(MTE and Index v. Hungary)案、皮尔诉瑞典(Pihl v. Sweden)案、霍因斯诉挪威(Høiness v. Norway)案中均认定平台已经采取了必要技术措施。法院认可了匈牙利内容提供者协会(MTE)和索引网站(Index)采取的防止或删除其门户网站诽谤性评论的措施,包括免责声明、知识产权条款以及“通知—删除”系统,并进一步指出国内法院认定原告对未经过滤的评论负有责任,相当于要求“过度和不切实际的预想,将会破坏在互联网上传递信息的自由”。
最后一项措施为一般性的事前监控,指平台主动审查、过滤用户发布的内容,删除其中的非法信息。这项措施存在争议,因为事前的一般性监控比事后的“通知—删除”更可能删除本身存在争议的违法性内容,从而损害互联网环境中的言论自由。法院对该措施采取更谨慎严格的态度。在皮尔诉瑞典(Pihl v. Sweden)案中,皮尔(Pihl)没有任何事前监控措施,但法院认为其采用的“通知—删除”系统已足以履行注意义务,并特别指出,要求非营利的协会预设未经过滤的评论可能会违反法律,这是过分且不切实际的,可能会损害通过互联网传递信息的权利。在霍因斯诉挪威(Høiness v. Norway)案中,该平台已设置一个内容监控系统,且网站在得知这些攻击性评论后13分钟就将其删除,法院认为这些措施足以免除平台责任。
(三)追责用户可能性
关于追究发表言论的用户责任是否可替代平台责任,法院主要考虑到网络环境中匿名的价值和技术上的可行性。法院在德尔斐诉爱沙尼亚(Delfi v. Estonia)案中首先承认了匿名对思想与言论交流的正面影响,互联网用户享有不披露其身份的权利,即匿名表达权。长期以来,匿名一直是避免报复或避免不必要关注的一种手段,因此,它可以促进思想和信息的自由流动。然而,法院通过援引先例指出,对用户言论自由和通信保密的保护不能是绝对的,有时必须服从于其他合法要求,如防止混乱或犯罪、保护他人的权利和自由。
确认了追究匿名作者责任的正当性后,法院进一步考察了技术上的可行性。爱沙尼亚法院提交的部分证据证明能够确定发表评论的账户,但也有部分证据表明由于各种技术原因无法确认,因此,法院认为追究评论者的责任有不确定性。相比而言,平台作为公司具有更好的经济条件,由其承担被诽谤者在诽谤诉讼中获得的赔偿是更优选择,这不构成对平台言论自由的过度干涉。根据平台与用户的关系,法院在个别案例中将平台类比为记者,从保护新闻自由的角度豁免平台责任。在匈牙利内容提供者协会与索引网站诉匈牙利(MTE and Index v. Hungary)案中,法院指出不能因协助发表第三方观点而惩罚记者,否则,会妨碍新闻界对公共利益问题的讨论,并进一步将平台提供空间让用户发表言论和意见的行为认定为“新闻活动”,因此不能使作为“记者”的平台承担责任。
(四)国内法院判决对平台的影响
在考虑国内诉讼对德尔斐网站的影响时,欧洲人权法院特别强调了该公司被命令支付的赔偿金仅有320欧元。法院认为此数额是合理的,国内法院判决并不要求该公司改变其商业模式,且其网站上的评论数量也没有因此受到影响。法院还考虑到判决在国内的广泛影响,认为虽然在德尔斐诉爱沙尼亚(Delfi v. Estonia)后,爱沙尼亚法院对类似法院采取逐步严格的责任,但德尔斐(Delfi)一案中国内法院并没有对非金钱损失作出裁决。在匈牙利内容提供者协会与索引网站诉匈牙利(MTE and Index v. Hungary)案中,法院认为,虽然匈牙利法院没有判决匈牙利内容提供者协会与索引网站承担非金钱损失的赔偿,但不排除不利于平台的裁决可能导致匈牙利法院作出类似赔偿判决的可能性。要求平台为第三方评论承担责任将产生可预见的负面影响,例如,迫使平台完全关闭评论功能,从而严重损害平台作为公共讨论空间的价值,不利于言论自由这一基本权利的保护。
(五)被侵权人所受损失
匈牙利内容提供者协会与索引网站诉匈牙利(MTE and Index v. Hungary)案中,欧洲人权法院适用了德尔斐诉爱沙尼亚(Delfi v. Estonia)案中的四因素分析必要性,并增加了第五个因素,即被侵权人所受损失。与德尔斐诉爱沙尼亚(Delfi v. Estonia)案不同,匈牙利内容提供者协会与索引网站诉匈牙利(MTE and Index v. Hungary)案涉及一家房地产公司的商业声誉而非自然人的声誉,与自然人的名誉权相比,公司商誉受到的保护程度相对较弱。在负面言论发表前,对房地产公司行为的调查便已经启动,因此,法院认为这些言论并未对消费者的态度产生重大影响,因此,对该房地产公司声誉的影响较小。
综上,欧洲人权法院适用《欧洲人权公约》第10.2条,分析国家、平台对言论自由的限制措施是否符合比例原则。为适应平台与用户的新权力关系,法院在系列案例中探索出新的裁判规则,通过细化比例原则最核心的必要性要素,发展出评估平台限制言论行为是否满足必要性的五项因素,即用户言论类型与平台性质、平台言论治理措施、追责用户可能性、国内法院判决对平台的影响、被侵权人所受损失。综合来看,欧洲人权法院仅在极少情况下要求平台对用户言论承担责任。在要求平台担责的少数情况下,也主要是在明显非法的仇恨言论和违规帖子未被及时删除的情形。此外,追究刑事责任的条件比追究民事责任的条件更为严格,要求商业公司采取的行动比非营利组织更为严格。法院注意到了平台内容治理责任蕴含对名誉权、隐私权、营业自由等基本权利保护的意义,保护用户言论自由权应与其他基本权利相平衡。
四、司法逻辑:避免立法责任强化导致“寒蝉效应”
由于欧洲立法层面平台责任逐步加重,司法活动起到了再平衡言论自由保护与网络内容治理的作用。虽然欧洲人权法院和欧洲法院采取了不同的权利保护路径,但两法院有意协调并维持言论自由的司法保护水平一致。特别是在立法层面逐步加强平台内容治理责任的趋势下,两法院在司法活动中均重点关注平台中用户的言论自由保障,避免因过分加重平台责任而导致用户言论的“寒蝉效应”,以实现网络内容治理与用户言论自由保护天平的再平衡。
(一)欧洲人权法院与欧洲法院裁判比较
欧洲人权法院和欧洲法院在平台中言论自由保护方面采取了不同路径。同为基本权利法院,两法院拥有相互独立的司法权,欧洲人权法院适用《欧洲人权公约》,在原告穷尽国内救济后,从外部审查成员国履行公约规定义务的情况;欧洲法院则适用《欧盟基本权利宪章》、欧盟法令以及《欧盟条约》,管辖欧盟基本权利相关的案件。在法院性质方面,欧洲人权法院实际承担欧洲层面的宪法法院角色,裁决国家是否履行《欧洲人权公约》第10条规定的言论自由基本权利保护义务;欧洲法院实为欧盟层面的最高法院,适用初步裁决管辖制度,针对各国法院提交的欧盟法解释与效力问题作出裁决。在判决形成方式上,欧洲人权法院整体分析国家是否违反《欧洲人权公约》,欧洲法院则逐一回答国家法院所提交的问题。在法律适用方面,欧洲人权法院主要适用《欧洲人权公约》,欧洲法院往往根据更具体的欧盟法令作出裁决,同时注意保护《欧盟基本权利宪章》中的基本权利。举例来说,假若本文讨论的德尔斐诉爱沙尼亚(Delfi v. Estonia)案交由欧洲法院审理,法院将依据《电子商务指令》判决,而不是审查爱沙尼亚的法律是否符合《欧盟基本权利宪章》第11条规定的保护标准。
虽然在法院性质、法律适用、分析框架等方面存在差异,但欧洲人权法院与欧洲法院之间相互借鉴、引用颇多,维持了司法对用户言论自由权保障水平的一致。两法院都承认《欧洲人权公约》是欧洲人权保障的最低标准。在具体案件的裁判上,欧洲法院常在判决中援引欧洲人权法院的法律解释。欧洲人权法院的尼古拉(Nicolaou)法官承认,人权法院法官同样高度关注《欧盟基本权利宪章》,通过比较分析《欧洲人权公约》与《欧盟基本权利宪章》,统一欧洲范围内的基本权利保护标准。欧洲人权法院发展出的比例原则必要性五要素分析框架与欧洲法院依据的《电子商务指令》平台责任豁免要件在实质上部分重合。欧洲人权法院考虑要素“语境”包括平台是否是营利性商业组织、平台发布与管理评论的规则,这与欧洲法院判决依据《电子商务指令》中平台发挥被动的作用的要件相似,即考虑平台对第三方发布内容的控制力,以及平台是否参与帮助侵权行为。欧洲人权法院考虑“平台采取的措施”,实质与欧洲法院所关注的平台采取“通知—行动”或事前的一般性监控相合。只是欧洲人权法院并未明确规定平台应迅速采取措施或不得采取事前的一般性监控,而是要求平台采取的措施须具有必要性,且对其他基本权利损害最小。这与《电子商务指令》第14、15条平衡保护基本权利的目的是一致的,可以说欧洲法院和欧洲人权法院分别依据立法上的具体规范和规范背后的抽象原则进行裁判,但内核实质相同。
(二)立法加强平台责任趋势与其言论自由风险
若要厘清欧洲法院与欧洲人权法院背后的裁判逻辑,应首先说明欧洲层面立法加强平台责任的趋势,以及立法活动为用户言论自由带来的风险。欧洲在立法层面的互联网平台责任制度以《电子商务指令》为基本框架,以欧盟其他法令为补充。从2000年《电子商务指令》到2022年《数字服务法案》,互联网平台所负担的注意义务和治理责任越来越重。
1. 《电子商务指令》:基于“通知—删除”的责任豁免与事前审查禁止
《电子商务指令》由欧洲议会和欧盟理事会于2000年6月签署,该指令构建了欧盟网络服务提供商(Internet Service Provider,ISP)责任的基本框架。《电子商务指令》规定了平台对用户违法活动的有限责任,即基于“通知—删除”的安全港制度。“通知—删除”的责任豁免制度有两个基本规则。其一,平台若对侵权行为不知情,或一旦发现网络上有侵权内容就迅速采取行动删除或禁止访问,则可免于承担责任;其二,对单纯信息传输、缓存、托管等网络服务,国家既不能要求网络服务提供者在事前一般性监控其传递或储存的内容,也不能要求其证明不法活动的具体事实。通过事后删除免责、禁止一般性事前监控,《电子商务指令》的责任豁免制度避免了平台承担过重的言论审核义务。
2. 《数字单一市场版权指令》:部分领域允许事前审查
平台经济的发展使平台与用户的关系不再平等,而存在支配的地位与可能;同时互联网门槛低、传播快的特性使虚假信息、侵权内容、仇恨言论日益增多。在此背景下,欧盟委员会于2015年发布数字单一市场战略,在不同领域强化平台责任立法,要求平台主动采取内容治理措施。2016年《数字单一市场版权指令》关于网络内容共享服务平台(Online Content-Sharing Service Provider,OCSSP)的积极义务引发了较大争议。其第17条规定,若网络提供商不想承担相应的责任,则有义务积极主动地确保其平台不提供非法内容。批评意见认为,该条规定构成了与《电子商务指令》的冲突,很可能限制甚至是剥夺用户的言论自由。一方面,由于网络内容共享服务平台在《数字单一市场版权指令》中被认为发挥积极作用,平台不能主张《电子商务指令》第14条的责任豁免。另一方面,该条规定打破了《电子商务指令》第15条对事前监管义务的禁止,将会导致网络平台为了规避承担责任,想方设法对在线用户发布的内容设置事前审查。有鉴于此,平台既失去了责任豁免,又负担了额外的积极审查义务,很有可能采取一切可能措施加强对用户言论的控制,导致与用户言论自由基本权利的保护产生冲突。
3. 《数字服务法案》:“通知—行动”制度与事前审查范围再扩充
2022年11月,欧盟《数字服务法案》(Digital Service Act,DSA)与《数字市场法案》(Digital Market Act,DMA)相继生效,标志着欧洲数字市场展开了二十年以来最大规模的立法改革。在遵守“禁止一般监管义务”原则下,《数字服务法案》第14条要求托管服务提供商建立“通知—行动”机制。与“通知—删除”不同,“通知—行动”限制平台任意做出内容审核决定,要求平台充分考虑非法内容的类型和紧迫性后作出合理决定,实质上增加了平台内容审核的合理性要求。另外,针对网络销售类平台,《数字服务法案》规定了事前监管义务,要求平台尽最大努力评估商家所提供的信息是否可靠后,才可向其提供相关服务。
纵观立法层面平台责任制度近20年的演变,内容审查和过滤义务被逐步纳入平台的责任范围,平台责任制度整体呈现加强内容治理的趋势。在面对用户提交的疑似非法内容时,法律规定平台采取的措施由直接删除转变为实质审核,平台由中立信息载体转变为实质裁判者,获得了更大的自由裁量权。此外,越来越多领域允许平台使用算法事前过滤用户言论,技术发展使平台对用户言论的控制力日渐增强。加强非法内容治理有利于维护网络秩序、保护用户权益,但其带来的“副作用”是让平台自发采取更严格的内容审查措施以免于承担责任,实质上损害了用户的言论自由,即为“寒蝉效应”。若要求平台承担主动、全面的信息审查义务,并为此承担无过错责任,平台将被迫采取严苛的内容治理措施清除一切可能的非法内容,最大程度地扩大化理解被禁止言论的判断标准,“宁可错杀一千,不可放过一个”。网络3.0时代,大型互联网社交平台堪当与水、电、网络一样的生活必需品,部分社交平台对公共讨论实际具有垄断作用,若平台在法定责任下自发进行严苛的内容过滤与审查,网络公共领域的言论自由价值无疑将受到严重损害。
(三) 司法倾向豁免平台责任以防“寒蝉效应”
在立法加强平台责任的趋势下,欧洲法院与欧洲人权法院日渐加强关注平台责任可能导致用户言论的“寒蝉效应”,具体而言,平台迫于法律责任实施严苛的内容审查、过滤措施,用户在平台上获取与发表信息的行为受到限制,从而导致言论自由的损害。在立法的价值天平趋向内容治理时,司法实践在个案中实现用户言论自由保护的再平衡。
欧洲人权法院在系列案例中逐步加强对“寒蝉效应”的重视,由最初要求“寒蝉效应”实际发生且存在危害,提升至关注“寒蝉效应”可能发生的危险。德尔斐诉爱沙尼亚(Delfi v. Estonia)案作为新闻平台对用户评论担责第一案,欧洲人权法院的判决在欧洲引发了广泛讨论,主要的批评意见认为,法院忽略了要求平台对用户发布内容承担责任可能导致“寒蝉效应”。此案中,德尔斐辩称要求平台承担责任的风险将迫使它雇用一支“训练有素的大军”来巡视评论,这将导致他们“以防万一”地删除任何可能的敏感评论,或者完全关闭读者评论。此案中,法院关于“寒蝉效应”的考量落脚于是否实际发生并造成危害后果,通过确认“网站评论并未减少”和“罚款数额较低”两个事实,欧洲人权法院认为国内法院的判决并未实际造成“寒蝉效应”,利益衡量的天平倒向了平台内容治理责任那头。广受批评的德尔斐诉爱沙尼亚(Delfi v. Estonia)案判决发布一年后,法院在匈牙利内容提供者协会与索引网站诉匈牙利(MTE and Index v. Hungary)案中提高了对“寒蝉效应”的关注。区别于德尔斐诉爱沙尼亚(Delfi v. Estonia)案中检验“寒蝉效应”是否实际发生,欧洲人权法院在此案中进一步关注“寒蝉效应”是否有发生的风险。在皮尔诉斯威登(Pihl v. Sweden)案中,法院延续了在匈牙利内容提供者协会与索引网站诉匈牙利(MTE and Index v. Hungary)案中的态度,持续关注互联网平台为用户内容担责导致“寒蝉效应”的风险,法院强调过高的内容审查责任会给平台带来“过度和不切实际的负担”,损害用户接收和传递信息的权利。迄今为止,欧洲人权法院极少判决平台为用户言论承担责任,自广受批评的德尔斐诉爱沙尼亚(Delfi v. Estonia)案判决发布后,欧洲人权法院仅在桑切斯诉法国(Sanchez v. France)案中判决平台为用户言论承担责任,该案言论涉及种族主义,根据欧盟《网络犯罪公约》,传播种族主义言论负有刑事责任,法院不得不要求平台承担更高的注意义务。
在欧洲法院方面,尽管数字单一市场战略开展后欧盟立法中的平台责任愈发严格,欧洲法院在解释相关规范时仍倾向于适当豁免平台责任。欧洲法院在解释《电子商务指令》时注意扩大解释平台被动性、严格限制事前监控、限缩平台知情范围。欧洲法院裁判的背后逻辑是为平衡立法上平台责任加强的趋势,通过适度扩张解释平台责任豁免条件,以防平台为避免担责采取严苛的内容审查措施而产生损害用户言论自由的“副作用”。网络环境中的言论自由与平台不被施加过重的注意义务密切相关,因为注意义务会让平台性质从中立的网络服务提供者转变为内容编辑者,或网络内容合法性的监督者、裁判者。有理由认为,平台获得的营业自由越多,网上的言论自由就越安全。这并非平台监管的放松,其目的是避免对平台施加危及言论自由或其他基本权利的责任,从而降低平台附带审查的风险。《电子商务指令》的“通知—行动”制度赋权平台决定哪些内容应被删除,已承认了平台在平衡用户基本权利方面的重要作用,不应继续鼓励网络平台过分履行内容管理职能。欧洲法院解释平台责任规范时倾向于限缩平台承担责任的条件,通过加大对平台营业自由的保护,降低平台附带审查的风险,以间接保护用户的言论自由。
总而言之,由于欧洲立法层面平台责任逐步加重,司法活动起到了再平衡言论自由保护与网络内容治理的作用。特别是在立法层面逐步加强平台内容治理责任的趋势下,欧洲法院、欧洲人权法院在裁判中加强关注用户言论自由保护,避免因过分加重平台责任而导致用户言论“寒蝉效应”,以实现网络内容治理与用户言论自由保护天平的再平衡。欧洲人权法院在系列案例中逐步加大对“寒蝉效应”的重视,由最初要求“寒蝉效应”实际发生且存在危害,提升至关注“寒蝉效应”可能发生的危险。欧洲法院在解释欧盟法令规定的平台责任规则时避免过度限缩平台责任豁免条件,通过保护平台具有的营业自由,防止其迫于法律责任采取过分严苛的内容治理措施。
五、结论
平台借由信息技术与法律责任获得了对用户的私权力,其内容审查措施可实现对用户言论自由的直接限制。传统公权力对言论的治理通过平台责任间接作用于用户言论,各国立法规定的平台责任直接影响平台所采取的内容审查措施。2000—2023年,欧盟立法逐渐走向平台责任强化的趋势,相比于《电子商务指令》,数字单一市场战略下的《数字单一市场版权指令》和《数字服务法案》均施加于平台更严格的内容治理责任。在立法加重平台内容治理责任的趋势下,为避免因用户言论承担责任,平台有动力采取更严格的内容审查措施过滤一切可能的用户非法言论,从而损害用户言论自由。
在此背景下,欧洲法院和欧洲人权法院都注意到了在算法技术发展、平台角色转变下言论自由面临的风险,两大司法机构在系列判决中发展裁判规则。欧洲法院在解释《电子商务指令》时注意扩大解释平台被动性、严格限制事前监控、限缩平台知情范围。欧洲法院裁判的背后逻辑是为平衡立法上平台责任加强的趋势,通过适度扩张解释平台责任豁免条件,以防平台为避免担责采取严苛的内容审查措施而产生损害用户言论自由的“副作用”。欧洲人权法院适用《欧洲人权公约》第10.2条,分析国家、平台对言论自由的限制措施是否符合比例原则。为适应平台与用户的新权力关系,法院在系列案例中探索出新的裁判规则,通过细化比例原则最核心的必要性要素,发展出评估必要性的五项因素,即用户言论类型与平台性质、平台言论治理措施、追责用户可能性、国内法院判决对平台的影响、被侵权人所受损失。法院注意到了平台内容治理责任蕴含对名誉权、隐私权、营业自由等基本权利保护的意义,保护用户言论自由权应与其他基本权利相平衡。
欧洲的司法实践缓解了立法平台责任强化的“副作用”。欧洲法院和欧洲人权法院均特别警惕平台责任对用户言论自由可能造成的“寒蝉效应”,欧洲人权法院由关注“寒蝉效应”是否实际存在提升至关注“寒蝉效应”发生的危险,欧洲法院作法律解释时倾向于放松平台责任豁免条件,加大保护平台营业自由,以间接保护用户的言论自由。总而言之,欧洲法院和欧洲人权法院避免平台迫于法律责任实施严苛的内容审查规则,不恰当地限制用户的言论自由,损害平台用户的言论自由权利。
人权法学
《人权法学》秉持谨守分际、融合开放的态度,致力于办成一本守正创新、特色鲜明、品质优良,在教育界、学术界和实务界有重要影响力的人权专业期刊。