年会速递|李颖:平台的知识产权保护责任:关于避风港规则的再思考

文摘   2023-12-27 18:00   北京  
















































2023年12月16日,北京大学电子商务法研究中心“《电子商务法》实施五周年:回顾与展望”年会在北京召开,抖音集团法律研究总监李颖应邀参会,并以“平台的知识产权保护责任:关于避风港规则的再思考”为题进行了发言。在发言中,李颖总监首先介绍了抖音公司的知识产权保护体系,之后探讨了避风港规则受到挑战的算法推荐和版权过滤这两个问题,最后就避风港规则的适用趋势进行了展望。

(以下内容根据会议现场速记整理,并经演讲者审核无误后发出。文章内容仅代表嘉宾个人观点,不代表本机构意见。感谢李颖总监对本次研讨会的大力支持。)


平台的知识产权保护责任:

关于避风港规则的再思考


谢谢主办方的邀请,非常高兴有这个机会就平台的知识产权保护责任,特别是关于避风港规则的相关思考,和大家进行探讨和分享。这个题目也是薛军老师给我定的题目,他是说想听听各大平台的意见,所以我就准备了这么一个题目。

我的发言分三部分,第一个是简要介绍一下抖音公司的知识产权保护体系。第二个是给大家从两个方面简单呈现下避风港规则受到挑战的两个问题,分别是算法推荐和版权过滤。第三个是展望,主要是思考一个问题,即避风港规则到底过时了吗?现在我们需不需要把避风港规则和红旗规则推翻,而创建事先过滤的规则?


一、抖音集团知识产权保护体系


抖音公司主要的APP包括头条、抖音、剪映、番茄、巨量引擎、轻颜相机,还有很多APP。我们入局了电商行业,最早是兴趣电商,2022年5月,全面升级为满足用户美好生活多元需求的全域兴趣电商。在发展种草的电商模式的同时,我们还在今年进军了传统货架电商,推出了抖音超市,品类与京东超市、天猫超市类似,还提供了每日上新的“爆款秒杀”专区。这个是相关界面,在此向大家隆重推荐。

我们也在不断构建和发展自己的知识产权保护体系。2021年我们建立了抖音电商的知识产权保护平台,2022年4月进行了全面升级和优化,力争给大家提供更加畅通的维权体验,并不断优化规则。这一页显示,用户投诉中可能涉及到电商账号的侵权、电商直播间的侵权、电商短视频的侵权、商品链接的侵权等等,包括各类知识产权侵权投诉和侵犯人格权投诉等。

从这些侵权投诉处理的过程中,会发现一个问题。如果说在内容平台上发生的主要是版权侵权的话,那在电商平台上各类的侵权都可能会发生,特别是现在内容平台和电商平台其实很多时候会融合在一起,各大电商平台都在增加平台中的内容,这里面就会发生相关的各类侵权。其中大家会注意到,著作权侵权可能争议比较大,但同时还有商标侵权、专利侵权、人格权侵权等各类侵权。这些侵权是否应一体适用统一的避风港规则?由此引发对避风港规则适用的相关反思。


二、避风港规则遭受的挑战和质疑


大家知道近几年以来,关于著作权避风港规则有很多的讨论,有人主张突破避风港,参照欧盟规定事先过滤规则。如果是避风港规则在著作权侵权领域有所变化的话,对于商标权、专利权、人格权之类的侵权,是继续适用避风港规则,还是也要突破?相比著作权来说,商标权、人格权等这些类型的权利是不是一样重要,或者更重要?很多民商法老师会说,人格权也很重要,为何不能事先过滤而防止侵权?商标法的老师可能也会反问商标不重要吗?好多知名企业都会主张商标的侵权保护,是否可以要求电商平台进行商标侵权的事先过滤?如果著作权的避风港规则发生变化了,其他的权利如商标权、专利权、人格权等各类的权利人是否可以要求同等对待,都要突破避风港原则?这样的话可能会引起对于整个法律体系的巨大冲击。

如果我们的答案是不能这样随意突破避风港规则、而需要坚持避风港和红旗规则规则的话,就需要考虑一个问题:如果著作权要突破避风港和红旗规则的话,是不是它和专利、商标、人格权之类的相比要区分对待,是因为它更值得优位的法律保护吗?还是都属于需要法律保护的、具有平等性的权利?我觉得可能著作权相比其他权利而言,并没有那么大的优位性,因此我们必须把避风港规则放到整个民法典和侵权法律体系的背景下考虑,而不仅仅是著作权领域单一的问题。

下面给大家重点介绍一下著作权法领域,避风港规则受到挑战的相关问题。关于避风港规则和红旗规则的具体含义,我就不展开介绍了,大家可以看到在《民法典》、信网权条例以及相关司法解释的条款中,都有很多需要解释的问题,比如刚才陈锦川院长提到的什么是“合格的通知”以及什么是“必要措施”。简单需要提下的是,目前如何理解和把握“红旗规则”,也存在较大的问题。大家可以看到很多的案子里,法院认为平台存在一定数量的侵权信息就认为构成红旗了,但实际上在不同量级的平台上,判断是否构成“红旗”的标准可能应该是不同的。可能在这个平台上,因为发布视频的量级很小,一个侵权视频有个几十、几百、几万的点击量可能就构成“侵权行为像红旗一样飘扬”了,但在一个一天中用户可能上传几千万条、上亿条新视频的平台上,一个侵权视频如果被几万、几十万的点击,也未必能够达到红旗的标准、进而认定平台构成应知。这个时候是不是需要考虑平台的一个量级,具体分析是否构成红旗,需要具体情况具体分析。

这部分主要会涉及两个问题,第一个就是关于算法推荐的问题,我看一会李丹也会就这个话题做一个讨论,简单说一下自己的观点,另一个是关于版权过滤技术的问题,特别是技术现状问题,必要措施是不是包括版权过滤的问题,版权和其他的权利相比是不是有特殊保护的必要,以及权利保护与其他权益的平衡等问题。

(一)算法推荐带来的挑战

对于算法来说,现在算法推荐作为一个比较通用的技术,已经被广泛的应用于各个产品和服务了。如果大家去看关于算法登记平台的页面,可以看到各个主流互联网平台都会采用相关的算法特别是算法推荐技术,不仅内容平台中的长视频平台、短视频平台、微信、微博等等,包括各个电商平台,大家都会采用各种的算法和算法推荐技术,算法可能会有些差异。算法推荐系统本质是一种自动联系用户和物品的工具,一般基于两类协同过滤算法来实现:其一是基于用户的协同过滤算法,即给用户推荐那些和他有共同兴趣爱好的用户喜欢的物品;其二是基于商品(物品)的协同过滤算法,即给用户推荐那些和他之前喜欢的物品类似的物品。各家平台使用的算法推荐技术原理基本上是相同的。在大型的平台中,基于算力等要求,它在标签的设置上比较粗略,不可能太采用太详细、太细分的标签。而且算法也不是一个简单的代码,它是由一个比较庞大的模型和服务构架起来的,呈现一个动态变化的过程,非常复杂。

大家可以看到,对于算法推荐的主要观点,目前主要有三种:一种观点认为算法推荐和人工推荐是没有差别的,有学者认为在算法推荐的情况下,应该和人工推荐一样的承担注意义务和侵权责任;第二种观点认为,算法推荐的过程中,平台是提供信息流服务的,基于更多管理优势、获得更多利益以及带来更多传播风险的考量,要求平台承担更高的注意义务第三种观点认为,采用算法推荐服务的平台,只要没有进行事先的主动筛选、故意针对性推荐这种特殊设置的话,采用算法推荐技术本身并不必然提高平台的注意义务标准,不能因此当然推定认为平台就是有过错的。

我也留意梳理了近期一些代表性观点和典型案例。我们可以看到北京互联网法院,今年出了个《短视频著作权司法保护研究》的报告,里面特别提道了关于算法推荐平台“应知”应如何认定的观点。北京互联网法院认为,“应知”应该是对平台上存在的具体侵权内容在主观上具体的知道,而不是概括的知道平台上存在侵权内容,不应该因为平台采用了算法推荐,就推定其一定“应知”而有过错。在今年浙江的一个判决((2021)浙0192民初10493号判决)中,也提到算法并不当然具有可责性的,算法推荐本身是具有中立性的,法院应该根据具体的情况来综合考察,特别是要分析算法技术的方式和特殊的场景来判断是不是平台应知的问题。我们也可以看到,国外对采用算法推荐技术的平台应承担怎样的责任,也有一些争议和案件。比如前段时间有一个起诉平台就恐怖视频传播引发侵权诉讼的案子,美国法官在判决意见中特别提到,YouTube启用一套中立的算法标准,在推荐用户感兴趣的内容时,是否因为它的内容是恐怖组织相关内容,在平台上有所传播,就认为这个平台实施了帮助和教唆?法官给出了否定回答:“为何仅因内容涉及恐怖组织宣传,就等同于了帮助和教唆”,“YouTube向感兴趣的用户推荐恐怖组织视频,就像它用相同的算法向对烹饪感兴趣的用户推荐相关视频一样。”同时,看到崔国斌老师在提到算法推荐时,提到如果平台是平等的进行推送,增加所有作品的流量,会使得正版和盗版作品一并受益,都获得更强的传播能力。问题的关键在于,现有技术是否有可能使损害有效降低而不影响合法传播。

这里我给大家收集和呈现了四个典型案件,在这四个案件的比对中,大家可以看到不同法官对于算法推荐的主观过错认定及举证责任分配是存在较大差异的。这四个案件分别是《延禧攻略》案、《灵剑尊》案、《北上广不相信爱情》案(这三个案件只有一审判决,二审和解结案)、优酷诉喜马拉雅案。最新优酷和喜马拉雅有关算法推荐侵权的案件,是唯一一个有二审生效判决的案件。在这个案件中,一审和二审法院的观点和结论存在很大差异,二审法院对采取算法推荐技术的喜马拉雅公司是否具有过错及其注意义务问题,做出了深度的法理分析,得出了与一审完全不同的判决结果。

我之前曾写过一篇文章,对涉算法推荐侵权责任案子案件中的举证责任分配问题进行了梳理。基于目前我国各大平台采用的算法推荐技术的算法理解能力和算力水平,目前我们的算法推荐技术只具备一个七八岁的小学生的理解能力,它并不能理解我们已是成年人、受过专门教育的法律人说的“版权侵权”如何判断的问题。这种高阶语义的识别超出了现有的算法技术的识别能力。这种技术能力和算力成本约束下,让平台去对于海量的内容进行事先的内容是否侵权、是否进行推荐的识别和判断,我觉得目前可能难以做到,除非平台预先设定了具体的内容识别和特别推荐任务。如果平台只是采取比较通用的算法推荐技术而并不能事先识别内容,则可能不宜给其施加过高的注意义务标准,事实上其也难以尽到。为避免让平台背上“有罪推定”的“技术原罪”而承担过重的举证责任,我认为在举证责任分配的问题上,首先原告应就采取算法推荐技术的被告主观上存在过错、行为与损害之间具有因果关系这两个事实问题进行初步举证,并尽可能使之在相关证据、实例中得以具体化呈现。在原告完成基本举证义务基础之上,可考虑要求被告对相关异常、不合理现象作出合理解释和说明,由被告来证明算法运行中行为对结果发生影响的算法技术原理、作用逻辑、影响因素等,来说服法官其主观上并无过错或行为与损害后果之间不具有因果关系。在被告举证义务方面,不应将被告拒绝提供算法源代码的行为简单认定为证据妨碍行为,证据妨碍行为的前提是“被告无正当理由拒不提交”,泄露核心商业机密的合理顾虑并不属于无正当理由的情形。在此过程中,建议充分发挥专家辅助人的作用。

(二)必要措施是否包括事先过滤

接下来讨论下过滤是不是平台应该采取的必要措施的问题。我觉得这里需要考虑下平台的特性和现在过滤技术的特点。比如说短视频平台上传的视频每日上传量是远多于长视频平台的,如抖音每天用户新上传视频量可能几千万条乃至上亿条。判断短视频是否侵权,可能也会比判断长视频是否侵权更加复杂:上传长视频一般可以推定就是用户侵权的,因为一般没有权利人会同意用户会有权上传这样长的视频,而一般用户是没有能力自行创作长视频的,因此可以推定用户是未经授权侵权上传。但短视频平台则并非如此,用户是有能力自己创作短视频的,越来越多的平台在短视频平台上进行电影、电视剧的片花等宣发。短视频平台入驻专业机构账号众多,技术过滤无法识别这些已获得授权的内容并进行豁免,可能导致大量非侵权内容、构成合理使用的内容被屏蔽删除,可能造成大量误伤。

我们也在不断探索各种版权过滤技术,探索过程中我们发现目前的过滤技术也不是那么成熟。目前业界主要有三种过滤技术,关键词过滤、文件哈希值过滤、关键帧对比过滤,但都存在较大问题,技术成熟度不高。比如说关键词匹配的技术,造成的误伤会很大;哈希值比对中,只要视频稍微有点变化哈希值就不一样,比对适用范围非常有限;关键帧比对中,平台间因为缺乏信任而没有比对介质,是否侵权的判断很多时候都需要人工介入进行判断,还有耗费算力巨大等问题。目前很多公司出于成本等考虑,实质或更多采用的是关键词过滤、算法自动发送侵权通知函,更是加大了误伤率。有人可能会说,如果平台能够对内容安全进行审核,是不是就能同样对版权进行审核,这里需要给大家简单呈现下二者的区别。内容安全的审核更多涉及的是一些浅层的语义审核,相关的审核词料库也是在不断、动态的丰富和变化的,需要每天都新增很多的指定样本。内容审核是各大平台面临的非常大的挑战,实际也不是可以轻易做到的,平台在上面要投入非常多的人力和物力。对于版权侵权来说,它更多的是高阶语义和法律方面的判断,任务确实更加复杂,如果要针对一个热剧做专门的模型进行内容侵权与否的识别,可能需要投入专门团队花几个星期去设计、定向开发,确实会比较困难,面对不断更新的热剧及侵权内容,也难以很快发挥作用。

有关版权过滤技术的问题,还存在很多争论,比如涉及到关于必要措施怎么样理解的问题,是否包括要采取事先的版权过滤和审查问题,还涉及在相关案件中对于涉嫌侵权的视频与原告视频是否相同、使用情况是怎样的,是否要进行比较详细的司法比对的问题。时间关系,在此不再赘述。

值得强调的是,侵权法永远是在权利保护和行为自由之间的平衡,不能只强调对于权利人的保护,而忽略了对其他利益特别是行为自由、社会公益等因素的考虑。侵权法和著作权法对于避风港规则的规定,是一个精细设计的规则体系,是平衡各种利益和诉求的结果,任何的调整都可能牵一发而动全身,破坏这种立法考虑各方利益而取得的动态平衡。这里需要考虑的因素主要包括:表达和批评自由、创作自由、公众创作和传播的热情和福利、社会公众合理使用和适当引用的权利等。著作权制度和侵权责任法,从来不是一边倒地只考虑如何保护作者、权利人的权益,也要考虑促进作品传播和促进文化发展繁荣的价值,平衡公共利益、维护基本的行为自由等多种利益,而非仅仅考虑著作权人、其他权利人的利益。如果立法或司法让平台承担强制的事先过滤义务,可能会误伤一些用户的行为自由等,里面就可能涉及合理使用、表达自由平衡保护等问题。同时还有一个问题,就是哪怕要进行事先的版权审查和过滤,那过滤的标准怎么样设定,比如多长的视频是必须过滤的?还有,进行过滤的持续时间,是对热播剧在判决生效后都永久适用的,还是仅在热播期或较短时间内进行?另外,从谁应该承担维权成本、由谁负担相关成本最有效率的角度分析,对比权利人和平台,权利人可能对自己的权利和作品更加熟悉,由其跟踪、确定是否侵权、进行侵权比对和投诉上更为便利、更有效率,相比面临更海量内容的平台而言,可以更为精准的定位和发现侵权?法律让权利人承担错误通知的责任,也能遏制其恶意投诉,平台对此不承担责任,而如果让平台事先过滤,如果发生过滤的错误,那平台将承担错误过滤和删除的责任,可能引发如何救济等更多问题,破坏制度的权益平衡设置。

此外,从比较法角度来说,美国2020年发布了避风港报告,结论是仍然坚持“避风港”作为网络侵权的基本原则,基于版权过滤存在的诸多问题,鼓励企业采取版权过滤措施,但并不强制推行。在欧盟,虽然欧盟层面规定了版权过滤机制,但对这一制度的落地执行,各国如德国等在订入本国法律时,特别注意避免过度屏蔽合法内容,并规定了“推定获得法律授权”的情况。而在我国,刚修订生效没几年的《民法典》中仍然规定了避风港规则,不仅适用于版权,也适用于其他权利如商标权、人格权等。在此情况下,如果在著作权领域中突破避风港规则而设置平台“事先过滤”、事先审查版权等义务,是否在其他侵权领域也要突破这一规则?如此,可能破坏整个法律体系的微妙平衡,牵一发而动全身,引发系统性的混乱。


三、趋势展望:避风港规则恐怕尚未过时


我认为,侵权法无论是知识产权侵权,还是人格权侵权,实质都是要维护人们的行为自由和权利保护之间的平衡,我们不能只片面的考虑权利人的权利保护,而不考虑同时要平衡保护其他人的利益和自由?答案是否定的,我们在立法和司法的过程中,需要同时考虑权利人以外的其他人的权利和自由,比如说言论和批评的自由,创作的自由,传播的自由,公众合理使用的自由,必须注意给人们的行为自由留下必要的空间。

昨晚我正好参加一个会,期间大家讨论到了一个问题:如果刀郎那个《罗刹海市》的曲子被人侵权投诉,主张侵犯人格权或著作权,要求立即删除或者停止传播、采取过滤等拦截措施,那平台在接到通知后是否就必须撤下?我觉得可能需要平台对是否侵权问题有个实体是否侵权的判断,不是说接到侵权通知了就必须删除、下架或者拦截、过滤,因为我们也要平衡保护歌曲的著作权人,保护创作者的创作自由,必须有一个利益平衡保护的考虑,不是说权利人认为可能侵权了、发了通知,平台就必须下线。在平台治理的过程中,确实需要有个各方利益、各种权利的平衡考虑。

此外需要和大家汇报的是,我们也在积极推动长短视频之间合作共赢的探索。正是认识到YOUTUBE对版权过滤技术的使用,是建立在权利人与平台达成合作基础上的“商业之治”而非“强制性的法律之治”,我司积极探索,并先后与搜狐、爱奇艺、腾讯、优酷以及芒果等平台达成长短视频合作,取得了很好效果,在很大程度上实现了双赢。需要强调的是,相关合作是在坚持避风港规则前提下的合作和互利共赢。但合作过程中,也会存在平台利益和用户使用需求之间的错位、用户获取授权困难问题仍然存在等问题。这种合作是在双方自愿合作的合同基础上进行的,对于传统的侵权责任原理如自己责任、帮助侵权等是有所突破的。需要我们继续进行业务和法律上的探索和思考。

综上,我们希望就平台责任问题,大家一起进行进一步探索,同时建议大家慎重考虑避风港规则在现阶段是否需要改变和突破的问题,思考“红旗规则”的适用条件以及算法推荐等具体场景下平台的注意义务如何合理确定等问题。时间关系,我的发言到此结束,谢谢大家!


敬请持续关注

会议成果发布

为活跃电子商务法领域的讨论,使更多业界同仁享受到本次会议的讨论成果,“电子商务法研究”微信公众号将在未来几天持续发布本次会议的报告以及嘉宾发言内容,敬请关注。


北京大学电子商务法研究中心





电子商务法研究
由北京大学电子商务法研究中心组织管理的公众号,致力于成为电子商务法研究领域的学术交流平台。
 最新文章