2024年8月27日,美国联邦第三巡回上诉法院对“Anderson v. TikTok”一案做成裁决。法院认定TikTok的“为你推荐”页面算法具有足够的创造性,从而排除了其根据《通信规范法》(Communications Decency Act,简称CDA)第230条所享有的保护。这是限制互联网平台根据第230条所获得保护的重要一步,而该保护随着我们对这些平台的依赖增加而不断扩大。根据第三巡回上诉法院的说法,像TikTok这样的互联网平台不能一边享受第一方言论的宪法保护,一边又根据第230条享受第三方言论的保护。第三巡回上诉法院称,TikTok的算法“并非仅基于用户的在线输入”,因此具有足够的表达性和原创性,符合第一方言论的定义。
在该案中,TikTok公司通过其算法向十岁的尼拉·安德森(Nylah Anderson)推荐和推广了第三方发布的视频,这些视频出现在她个性化定制的“为你推荐页面”(“For You Page” ,FYP)上。其中一个视频展示了“窒息挑战”(“Blackout Challenge),鼓励观众录制自己实施窒息行为。观看视频后,Nylah模仿挑战中的行为,不慎上吊身亡。Nylah的母亲塔瓦娜·安德森(Tawainna Anderson)以违反州法为由起诉了TikTok公司及其关联公司字节跳动公司(统称为“TikTok”)。地区法院驳回了她的起诉,认为《通信规范法》(“CDA”),47 U.S.C. § 230,赋予TikTok免责权。联邦第三巡回法院此次的判决,将部分撤销原判,部分撤销原判并发回重审。
TikTok是一个视频分享社交媒体平台,允许用户创建、发布和观看内容。TikTok用户可以在平台上搜索内容,或者无需搜索即可通过TikTok算法推荐的内容查看,这些内容会发布到用户的“为你推荐页面”(“FYP”)。TikTok的算法不仅仅基于用户的在线输入。相反,该算法会根据多种因素为用户定制和推荐FYP上的视频合集,包括用户的年龄和其他人口统计信息、在线互动和其他元数据。
出现在用户FYP上的一些视频被称为“挑战”,这些挑战鼓励用户发布自己模仿视频中行为的视频。“窒息挑战……鼓励用户用腰带、手提包带子或任何类似物品勒住自己直到昏迷。”安德森女士的起诉状中如此描述。TikTok的FYP算法向尼拉推荐了窒息挑战视频,观看视频后,尼拉尝试模仿所见内容并因窒息身亡。
作为尼拉遗产的管理人,安德森女士在宾夕法尼亚州东区地方法院对TikTok提起诉讼,主张包括严格产品责任和疏忽在内的多项诉求。她指控TikTok:(1)知晓窒息挑战;(2)允许用户发布自己参与窒息挑战的视频;(3)通过其算法向包括尼拉在内的未成年人FYP推荐和推广窒息挑战视频,导致尼拉死亡。地区法院驳回了起诉,认为根据CDA第230条,TikTok享有免责权。安德森女士提起上诉。
美国国会制定了CDA第230条,以在特定情况下免除交互式计算机服务(“ICS”)因第三方发布的内容而承担的责任。TikTok是一种“交互式计算机服务”,定义为“任何信息服务、系统或访问软件提供商,其通过多台计算机向计算机服务器提供或启用计算机访问,特别包括专门提供或启用互联网访问的服务或系统”。47 U.S.C. § 230(f)(2)。第230条仅在ICS因“另一信息内容提供商提供的信息”而被起诉时提供免责。47 U.S.C. § 230(c)(1)。换句话说,ICS仅因他人的表达活动或内容(即第三方言论)被起诉时享有免责权,但因自己的表达活动或内容(即第一方言论)被起诉时则不享有免责权。
安德森女士主张,TikTok的算法“融合”了第三方视频,从而产生了“一种表达性产品”(an expressive product),该“产品”向用户“传达……精心策划的视频流将对他们有趣”。最高法院最近在《第一修正案》背景下讨论了算法,支持这一观点。在Moody v. NetChoice案中,最高法院考虑了州法律是否因“限制社交媒体平台控制是否以及如何向其他用户展示第三方帖子”而违反《第一修正案》。法院认为,平台算法反映了对“编译其想要的第三方言论的方式”的“编辑判断”,是平台自己的“表达性产品”,因此受《第一修正案》保护。
鉴于最高法院认为平台在通过其表达性算法策划他人内容合集时从事受《第一修正案》保护的第一方言论,同理,这种行为也构成CDA第230条下的第一方言论。因为TikTok承认安德森女士的起诉状“描述了一种与Moody v. NetChoice案中讨论的算法无异的算法”,而最高法院将该算法描述为产生表达性言论的算法,我们无需权衡其他算法是否产生表达性言论。此外,因为TikTok的“算法,如起诉状所述,并不‘仅对用户在线行为作出响应’”,TikTok对推荐和推广给特定用户的内容作出选择,从而从事自己的第一方言论。
基于上述理由,美国联邦第三巡回法院将部分撤销原判,部分撤销原判并发回重审。
马泰法官(MATEY)意见(部分同意判决,部分不同意)
TikTok解读CDA第230条,认为其可以对一名十岁女孩的死亡漠不关心。这种观点在色情内容、自残和剥削的众多提供者中颇受欢迎,它将宪法中关于“思想自由交流”的概念偷换为数字时代的“非法之爱的熔炉”,其中充斥着无监管、无问责、无救济的内容。这种观点得到了从拨号上网早期到现代算法、广告和应用程序时代众多司法意见的支持。
但这一观点并未体现在国会制定的第230条中,也未体现在国会行动的背景、公共承运人监管的历史,或数世纪以来出版商和分销商对“内容”享有的有限免责传统中。据我所理解,第230条的普通含义为TikTok提供了对第三方创作并上传的视频的免责权,但并未提供更多免责权,安德森女士的遗产可寻求对TikTok明知分发和定向推荐可能有害的视频的救济。因此,我部分同意判决,部分不同意。
A 十岁的尼拉·安德森在观看TikTok上的窒息挑战视频后尝试模仿,不幸身亡。窒息挑战涉及个体“用腰带、手提包带子或任何类似物品勒住自己直到昏迷”。视频“鼓励”观众录制自己这样做的视频并发布供其他TikTok用户观看。尼拉,仍处于青春期初期,可能不知道自己正在做什么,也不知道屏幕上的行为会致命。但TikTok知道尼拉会观看,因为该公司的定制算法将视频放在了她的“为你推荐页面”上,该算法“确定窒息挑战是‘量身定制’且‘可能对尼拉感兴趣’”。
B 女儿去世后,塔瓦娜·安德森起诉了TikTok及其母公司字节跳动公司。安德森寻求追究TikTok的以下责任:(1)在其平台上托管窒息挑战视频;(2)在了解视频及随后发生的死亡事件后继续分发视频;(3)在明知视频可能造成伤害后向尼拉推荐视频。TikTok提出驳回起诉的动议,主张安德森试图追究TikTok完全由第230(c)(1)条免责的行为的责任。地区法院同意了这一主张。
II TikTok坚持认为,安德森的诉求因几家法院采取的近乎无限制的第230条解释而被禁止。但对法条的最佳解读表明了对第230条免责权的更狭义理解。
A
与所有人为法律一样,第230条并非凭空出现,“一些背景信息对于理解国会的意图”和所选用的精确语言至关重要。国会制定第230条时,已有一个多世纪关于第三方信息传输的州和联邦法律,且正值两起广泛讨论的司法判决就网络服务提供者的责任问题作出裁决。这些判决遵循了传统的责任制度,该制度保护仅转发据称有害信息的当事人,但对明知内容有害仍转发的当事人施加责任。
远程通信的诞生:与20世纪90年代的在线服务提供商提供的聊天室和公告板类似,电报公司在19世纪末和20世纪初的大部分时间里担任通信渠道。鉴于电报公司的巨大市场力量,法律经常对其施加准入和无歧视义务,这些义务类似于铁路等实体网络所熟悉的义务。这引发了责任问题,因为州法律通常要求公司对疏忽交付承担责任。虽然电报运营商通常不对其传输的材料承担责任,但如果公司知道内容有害,则可能承担责任。当传输方知道第三方信息有害时,情况就会不同,这一区别也体现在20世纪下半叶通信技术变革期间。
互联网的兴起:20世纪90年代初,互联网开始渗透日常生活,大型商业服务提供商如CompuServe、Prodigy和AOL应运而生。这些新兴服务“最初提供自己的内容”,但面临竞争压力,它们扩展了功能,允许“用户在公告板上发布评论,向其他成员开放,并在聊天室中交流”。这些新增功能重燃了关于网络服务提供者是否应对其网络上第三方的行为承担责任的旧法律问题。理解法院如何回答这一问题对于理解第230条制定的法律背景至关重要。
B
国会的反应:国会迅速作出反应,仅在Stratton Oakmont案后的九个月内,总统就签署了《1996年通信规范法》(CDA),作为《1996年电信法》的一部分。CDA最初旨在监管互联网色情内容并保护儿童免受淫秽和有害材料的侵害。但CDA修正案最终成为第230条,其“提案和通过过程并未引起太多关注”,且“几乎没有遭到反对或媒体报道”。
法院的解释:从一开始,法院就认为第230条做了比推翻Stratton Oakmont案的出版者责任理论更多的事情。它们几乎一致遵循了Zeran诉美国在线公司案,该案将第230(c)(1)条解释为豁免交互式计算机服务提供商的“传统编辑功能”,如“决定是否发布、撤回、推迟或修改内容”。这一广泛免责权随后被进一步扩大,当Zeran案认定第230(c)(1)条同时禁止出版者和分销商责任时。尽管Zeran案因与其文本、背景和目的不符而受到批评,但该意见在法案出台后的头几年被全国各地法院广泛引用。
C
但这种对第230条免责权的理解偏离了文本的最佳普通含义,并忽略了国会行动的背景。第230条的制定是为了解决一个在当时独特背景下出现的老问题,而不是“创建一个无法无天的无人区”。
第230(c)(1)条的含义:该条指示TikTok不应“被视为……另一信息内容提供商提供的任何信息的出版者”。国会制定第230条时,意识到最近广泛讨论的在线服务提供商侵权案件划分了出版者与分销商的界限,以及几十年来州和联邦法律沿着同一界限划分电子传输责任的做法。这指向了对第230(c)(1)条的最佳解读,即采用Stratton Oakmont案和CompuServe案中的“出版者”含义。因此,当第230(c)(1)条禁止“视”TikTok为第三方发布的视频的“出版者”时,意味着TikTok不能因仅托管这些视频而承担责任。但第230(c)(1)条并未豁免更多。它允许对提供商除仅托管第三方内容外的行为或遗漏提起诉讼。
第230(c)(2)条的含义:这一结论得到了第230(c)(2)条的支持,该条列举了平台可无需担心责任而采取的行动。
对安德森诉求的影响:因此,第230(c)(1)条对传统出版者责任的豁免禁止安德森以窒息挑战视频仅存在于TikTok平台上为由追究TikTok的责任。但第230(c)(1)条并未豁免分销商责任,因此安德森以TikTok明知视频导致儿童死亡仍继续托管为由追究其责任的诉求可以继续。同样,她以TikTok明知视频有害仍定向推荐为由追究其责任的诉求也可以继续。这是TikTok自己的行为,属于第230(c)(1)条之外的内容。该行为是否根据州法可追究责任是另一个问题,但第230条并未豁免这些基础上的责任。
注:关于格林诉美国在线公司案(Green v. Am. Online),这是一个二十年前的决定,几乎没有什么决定性的内容。格林案涉及AOL聊天室服务的一名不满的前订阅者提起的不太明确的亲自诉讼。到该案上诉到本法院时,格林的主要诉求似乎是他认为AOL“未能履行其合同义务”,即未能将某些第三方用户从AOL平台上踢出,这些用户在AOL上向他发送病毒并在聊天室中发布诽谤他的言论。我们解释说,上诉中提出的“唯一问题”是“根据第230(c)(1)条,是否禁止因AOL被控未能妥善监管其网络上的用户传输内容而追究其责任”。我们以一段三句话的分析回答了这个问题,认定格林的诉求因第230(c)(1)条而被禁止,因为他的诉求试图“以与出版者角色本质上相关的行动追究AOL的责任”。格林案仅决定了第230条禁止了如Stratton Oakmont案和CompuServe案所理解的出版者责任。格林案没有决定第230条是否豁免交互式计算机服务提供商在收到平台上存在有害内容的通知后未将其删除的责任(分销商责任)。
“过去常说,影响孩子的有三大因素:家庭、学校和教堂。今天,有了第四大因素……。”当牛顿·N·米诺(Newton N. Minow)在1961年发表演讲时,互联网还处于其最早形态的二十年前。但他对“一系列游戏节目……完全不可信的家庭喜剧公式、血与雷、混乱、暴力、虐待、谋杀……更多暴力和动画片”的描述,捕捉到了现代互联网的悲惨状态。如今的思想市场可能奖励TikTok追求利润高于一切其他价值。该公司可能决定为孩子策划强调最低道德和最低品味的内容。它可能拒绝使用公共资源来增进公共利益。但它不能主张国会未提供的免责权。因此,第三巡回法院决定维持地区法院就安德森女士试图以窒息挑战视频仅存在于TikTok平台上为由追究TikTok责任的判决,但将撤销地区法院就安德森女士试图以TikTok明知分发和定向推荐窒息挑战视频为由追究其责任的判决。据此,第三巡回法院部分同意判决,部分不同意。
相关评论分析文章:
CDA于1996年颁布,作为国会努力解决网络色情内容传播问题的一部分。然而,近三十年后,该法案的影响最深刻地体现在其最后一刻增加的第230条上。第230条旨在通过保护“交互式计算机服务”(Interactive Computer Services,简称ICSs)免受第三方在其平台上发布的潜在非法内容的责任,来促进言论自由和创新。这些ICSs仍需对其自身的原创、第一方内容负责,但不再需要过分担心其所托管的第三方内容的合法性。立法者担心,如果没有足够的保障措施,加强对网络内容的监管要么会劝阻新兴科技公司追求增长,要么会出于谨慎而过度审查用户生成的内容,或者两者兼而有之。
自CDA颁布以来,互联网平台已从小众网站发展成为现代社会主导的通信方式。我们现在主要通过中介平台消费第三方内容,而这些平台都利用第230条来保护自己免受因内容本身而产生的几乎任何法律责任。这对我们的现代媒体生态系统产生了巨大影响,并且其影响力还在不断增长。随着人工智能威胁到错误信息的传播并破坏新闻媒体的公信力,互联网平台不太可能优先考虑可行的解决方案。即使通过拟议立法对明知故犯传播虚假信息的行为施加法律责任,根据第230条,减轻此类虚假信息传播的责任仍将落在平台的个别用户身上。
将算法视为第一方言论可能会导致互联网平台失去它们长期依赖的其他保护。例如,《数字千年版权法》(Digital Millennium Copyright Act,简称DMCA)第512条为托管第三方侵权内容的互联网平台提供了“安全港”。通过“通知-删除”机制,平台在收到版权所有者通知后删除侵权内容,即可免于承担托管侵权内容的责任。这一机制对于平台托管大量内容至关重要。然而,它也引发了一场无休止的“打地鼠”游戏,即侵权内容被反复上传,版权所有者必须不断监控源源不断的用户上传内容,以寻找新的侵权材料。鉴于DMCA第512条的保护仅适用于第三方言论,因此逻辑上似乎很合理的是,此后被视为第一方言论的算法将不再符合条件——从而失去DMCA和第230条的保护。这将对YouTube等平台产生重大影响,因为这些平台的商业模式依赖于通过算法向用户推广大量侵权作品。事实上,算法可能失去DMCA保护的情况对于大多数版权所有者而言可能是受欢迎的变化,尤其是对于那些没有资源不断监控这些平台并提交必要通知的版权所有者而言。
尽管如此,安德森案中的反对意见警告说,将第230条解释为对做出编辑决策的平台施加责任,只会阻碍该法规的基本目的,即阻止平台行使必要的裁量权来防止有害内容的传播。反对意见认为,TikTok已经根据第230条承担责任,因为它在明知这些视频存在的情况下仍继续分发和推广危险视频。按照这一逻辑,没有必要区分第一方和第三方言论。
如果第三巡回上诉法院的逻辑得以延续,我们可能会看到像TikTok这样依赖编辑算法来提供内容的平台上的第三方内容受到更严格的审查。这应该引发人们对私人平台在日益成为公共领域替代品的情况下,是否足以保护个人在线言论自由权利的进一步怀疑。然而,最终而言,Anderson v. TikTok案对于那些希望让大型科技公司对其巨大文化影响承担更多责任的人来说是一次胜利。