编者荐语:
任由民众使用TikTok会危害国家安全?TikTok的算法推荐和内容审核机制到底是什么样的?本篇文章聚焦TikTok在南亚东南亚地区的言论治理,探讨TikTok在该地区如何对存在争议的边缘内容进行治理,并比较TikTok于该区域各国运营时所面临的不同争议及其所采取的不同治理方式。文章结论揭示,TikTok的审核与治理行为与企业务实经济目标的关系密不可分,而该区域各国政府则利用法律的不确定性,借平台化言论治理推进自身政治议程。本文分析结果丰富新颖,从中可管窥正处于风暴中心的数字平台TikTok的运营逻辑。
因公众号推送规则变更
点击标题下方蓝字 关注+星标 “Political理论志”
不错过社会科学前沿精彩信息哦
具体操作如右 →
边缘内容和平台化言论治理:
TikTok在南亚东南亚的审核争议
摘要:
数字平台的内容审核伴随着权衡取舍和道德困境。对于跨国平台而言,其管理的是可接受边界尚存争议的边缘内容。虽然已有大量研究探讨了成熟民主国家平台化言论管理的合法性和正当性,但很少有研究涉及发展中国家在该问题上的复杂性。通过对TikTok在南亚东南亚地区审核的社会法律分析和争议图谱绘制,本文探讨了主要参与者如何就网络言论边界的变化展开协商。分析表明,无论是数字平台还是地区国家,都尚不具备对边界内容进行合理管理的条件。TikTok根据实际需要而非道德义务进行本地化审核,有意回避有争议的政治争论。各国政府则表现出控制网络言论的决心,利用法律的不确定性推进自身政治议程。因此,本地内容治理往往依赖于模糊的安全和道德理由,在实践中却导致了问责真空。
作者简介:
Diyi Liu 牛津大学互联网研究院
文献来源:
Diyi Liu. Borderline content and platformised speech governance: Mapping TikTok’s moderation controversies in South and Southeast Asia. (n.d.). Policy & Internet. https://doi.org/10.1002/poi3.388
.
本文作者 Diyi Liu
托管用户生成内容(user-generated content, UGC)的数字平台正在成为一面棱镜——它塑造我们观察世界的内容和方式。这些平台是算法管理和制度管理的合集,能够允许或限制互动、控制可见性、策划公共话语。韦伯认为,数字平台还在积极寻求对在线内容治理的合法化。
本文将平台化言论治理定义为,在特定社会语境下,通过(through)数字平台并由(by)数字平台监管和审核在线言论的治理机制。UGC平台的内容审核涉及到一个持续的合法化过程。在其中,平台与其他社会行为者之间的互动不断重新构建着各国对敏感内容的审核规范,启发了有关在线言论自由边界的探讨。治理机制的核心是:这些数字平台应该承担多少责任?什么具体内容类型应受监管?这些监管决定依据什么法律依据和道德标准?以及由谁做出这些决定?这些问题引发了对于“在线内容治理合法性”的更广泛的讨论。
有关平台化言论治理的既有研究已充分探究了西方民主价值观语境下的数字平台内容审核,但未考虑到“言论自由”在全球范围内或有不同解释方式。通过研究TiktTok这一发源于中国的UGC平台,关注其在南亚/东南亚地区的内容审核,本文将扩展有关平台化言论治理的研究。
边缘内容审核
除了“要么接受要么放弃”的内容外,在数字平台的审核实践中,那些可能突破界限但尚未突破界限的边缘内容(borderline content),也是平台必须处理的内容。这些内容不适用于明确的许可标准,而是悬而未决的,它们所使用的网络表达尽管存在争议、有挑衅性,但仍能避免被彻底禁止或删除。此外,虽然内容删除是平台工具不可或缺的一部分,但却不是最重要的工具,而平台常用的方式是在不通知创作者的情况下,对这些边缘内容进行算法降级、移除搜索建议或设置特定区域的访问限制。
跨国背景下的平台化内容治理
如今,数字公共区域不应再是由私营平台企业担任“真理仲裁者”的垄断结构,而应是一个依赖各种参与者以管理和减轻派系潜在影响的系统。不同行为体对于数字平台在在线言论治理中所承担角色的看法不同,比如是将平台视为应承担审核责任的言论看守人,还是仅将其视为底层基础设施,将监管重点转向内容创作者和言论发出者本身。在欧洲,私营平台企业逐步被要求对其平台内容负责,并全面披露其审核行为,但在美国,平台则享有豁免权。此外,平台的不同审核方法可能产生不同的社会影响,如经济更落后地区的公共话语受到社交媒体的影响将更强烈。也因此,平台在线言论治理的方式也受到特定国家利益相关者的影响,如社会脆弱性较高、言论自由度较低的国家更倾向于请求平台删除内容。
TikTok的挑战:走向全球和本土化
TikTok最初由其中国母公司字节跳动于2016年推出,现已成为一种“跨越全球的文化和经济现象”。南亚东南亚国家由于具有文化多样性、自我表现力和动态创造力,长期是最吸引全球数字媒体平台的新兴市场,近年来TikTok亦成为该地领先的社交媒体平台。TikTok的崛起引发了人们对其平台逻辑、内容政策和企业身份的各种关注与审查。在内容治理方式上,TikTok的全球组织结构具有去中心化特点,当地市场总管对如何控制当地内容有很强自主权,这种方式是TikTok在“布鲁塞尔效应”“硅谷效应”和“北京效应”之外,尝试使用的替代治理方式。
本文旨在研究如何更好地描述TikTok在南亚东南亚地区的在线言论治理动态,具体探讨三个问题:
第一,TikTok如何在南亚东南亚地区构建和引导其内容治理能力?
第二,TikTok的在线言论和中介机构监管框架在各个南亚东南亚国家有何异同?
第三,TikTok在南亚东南亚核心市场面临哪些内容治理争议,特别是针对相关边缘内容类型、所涉利益相关者以及解决这些问题的治理方式?
TikTok在2017年底首次引入印度尼西亚市场,标志着其进入南亚东南亚区域,因此本研究数据范围为2017年9月至2023年9月。为厘清平台和当地政府如何划定内容审核的界限,并勾勒出在争议事件中,何为“边缘内容”的界定如何受到质疑,本文采用迭代实证方法,对三个关键数据源开展三角测量。(编者注:数据三角测量,指在一项研究中使用不同的数据源,以提高研究结果的可靠性。)
第一,本文对TikTok在南亚东南亚地区的内容治理规则和执行情况进行分析,包括研究平台的服务条款、社区准则、品牌内容政策等公开披露信息,以了解其内容治理方式和执行情况。
第二,本文选择印度尼西亚、巴基斯坦、越南、菲律宾和泰国这五个主要国家进一步分析,通过审查这些地区的在线言论限制,以及与平台责任相关的法律法规和政府政策,了解TikTok是否以及如何在这些司法管辖区建立和调整其治理规则。
第三,本文使用媒体报道和相关数据库的查询方法,研究南亚东南亚地区的主要报道内容审核争议。具体而言,本文在Factiva道琼斯新闻数据库中搜索“TikTok”、“TikTokker”、“ban”或“regulation”等关键词,筛选出涉及南亚东南亚地区的高调事件和争议案例,提取其争议发生事件、争议内容领域、所涉利益相关者、监管方式、TikTok回应等关键维度。
总体而言,TikTok与南亚/东南亚当地政府对于网上言论的界限存在重大不确定。虽然TikTok(的治理方式)表现出对当地情况一定程度的敏感性,但主要是出于营利而非道德原因。研究结果还凸显了TikTok内容治理的非政治化,该平台对自身的定位是在争议性政治辩论中的介入较少。与此同时,该地区的国家虽然有权介入,但在大规模审核内容方面却面临技术能力有限的挑战。然而,它们虽然出于政治需要利用平台化内容治理,却诉诸于“安全化”“公共道德”等模糊的理由,从而增加了正在进行的规范性辩论的模糊性。
平台如何划清界限
TikTok该区域的内容审核与其对市场潜力的关注密切相关,尤其是与更广泛的去政治化趋势密切相关。从平台身份看,该平台旨在构建一个可见性机制(visibility regime),该机制对边缘内容的界定依赖于(内容的)意图,并将该平台描绘成一个轻松愉快、以娱乐为中心的中立游乐场。
第一,TikTok的审核机制显示出与其经济追求的一致性。首先,在2020年失去当时的最大海外市场印度后,TikTok选择新加坡作为其泛亚太运营中心枢纽,寻求在持续贸易紧张和国家安全担忧的背景下找到一个中立之地。其次,TikTok对电子交易和言论的监管,是由于其业务向直播购物等社交商务的扩展。最后,对于6个在TikTok十大市场之列的南亚东南亚国家,TikTok的审核行动都先于任何外部要求。综上,该平台的区域审核方法展现出对发挥经济和市场影响力的重视。
第二,TikTok的运营方式具有“去政治化”的特点。既有研究已充分探究了TikTok为缓解地缘政治紧张和监管审查,有意与其“中国起源”保持距离的行为。本文认为,TikTok的这种“去政治化”已延伸到了该平台在南亚/东南亚的原则和实践,展示出一种能使其避开政治辩论、逃避承担争议性边缘内容责任的治理清洗(governance-washing)姿态。与其他数字平台相比,TikTok对政治广告的独特态度就能体现这一点——2019年10月,TikTok实施了政治广告禁令。但另一方面,本文也发现,如当地法律与用户权利产生冲突,TikTok更倾向于使用自己的社区准则,致力于尊重用户权利,而非严格遵守当地法律,按政府要求对账户和内容采取审核行动。
国家如何塑造言论边界
在印度尼西亚、巴基斯坦、越南、泰国和菲律宾这五个国家,有关儿童性虐待、恐怖主义等内容被公认为为零容忍内容,但对其他言论的限制却模糊且宽泛。比如,2016年的巴基斯坦电子犯罪法赋予执法机构广泛的权力,以阻止被认为有悖于伊斯兰荣耀、有害于巴基斯坦安全、公共秩序、体面和道德以及巴基斯坦的完整性或防御的内容。这种不确定的表述,使执法机构能够在保护公共秩序或国家安全的幌子下进行内容审核。
TikTok在不同国家审核争议的内容领域、参与主体、监管方法以及平台审核合规性和资源重新分配上存在差异(见表1)。在争议内容上,TikTok在南亚/东南亚地区所面临的批评主要涉及淫秽、政治、虚假信息、宗教、种族等内容。文章尤其强调,TikTok在不同国家言论治理过程中的动态性和响应性有别。巴基斯坦和泰国等国家将TikTok视为言论治理主体,未履行治理职责则可能导致整个平台被反复禁止,印度尼西亚和菲律宾主要通过平台直接针对个别内容或发布者,越南则允许其中央政府部门对TikTok不定期进行全面检查。尽管措施旨在解决各种安全问题,也对企业资本主义扩大的技术主导地位产生平衡,但也给互联网上的开放交流和获取信息带来重大挑战。
谈判中的边缘审核:走向政治务实的中间立场?
在国家的法律定义缺乏明确性,而平台的审核方法又趋于务实(求利)时,可能会出现对内容过度限制的情况。因此,只要内容不会造成切实伤害,平台就应在维护其标准的同时,为复杂的社会对话提供空间。
目前,根据不同国家的道德准则和言论规范,TikTok为边缘言论制定了不同的审核政策,如在马来西亚选举中优先考虑审核种族和宗教相关内容,在泰国则优先考虑审核虚假信息。此外,为在“恰好”的范围内与规范相一致,同时保持(盈利)增长,平台会诉诸其他的补救措施来应对边缘内容,比如TikTok并未完全将所有具有潜在敏感问题的内容删除,而只是取消其进入推荐功能的资格。
本文还提出,在治理当地敏感内容时,数字平台需要平衡经济目标与市场国利益。然而,国家和企业间不透明的互动引发了对内容监管问责制度的担忧。由于缺乏边缘内容审查的规范共识,确保审查程序的公平和公正司法程序则更为重要——平台可以就政府行为向法院提起上诉,以监督行政的越权行为。
“对于内容审查,稳定的规则或监管形式的最终形态并不存在,它将永远是充满争议、不断演进和技术变革的问题。”
本文研究审视了边缘内容的平台化言论治理,并聚焦TikTok在南亚/东南亚的运营案例展开分析。文章结果表明,平台和国家都无法实现对边缘内容的有效治理,TikTok的治理方式更多是出于企业回避政治争议的务实需要而非道德承诺,当地政府则将法律不确定性作为其政治议程的杠杆。
二者看似相互抵消,但实际却导致了一个问责不明的真空的出现。“基于意图”的审查方式,可能成为政府避免明确可接受言论法律界限的借口,并成为平台延续某些依赖于不平衡政治权力的价值观的工具。在这样的情况下,个人表达和遵守规范之间达成平衡变得越来越困难,存在过度审查而非保护用户表达的风险。
编译|王叶湑
审核|蒋文臣
终审|MIKE
本文内容仅供参考,不代表Political理论志观点
“在看”给我一朵小黄花