徐小奔 等 | 生成式人工智能服务提供者版权注意义务的法律构造

学术   2024-08-16 17:01   山东  

点击蓝字关注

了解更多精彩

ABOUT

(点击查看思维导图)



GB/T 7714-2015


CITE

徐小奔,薛少雄.生成式人工智能服务提供者版权注意义务的法律构造[J].科技与出版,2024(7):48-58.


摘   要  

生成式人工智能时代,人工智能服务提供者的版权注意义务需要从理论基础、模式选择和行为构造等三个方面构建。在坚持人工智能工具属性的基础上,以“技术中立”为指导思想为人工智能服务提供者设定合理的版权注意义务最符合技术与产业发展的需要。具体而言,相较于严格注意义务模式,市场自治型注意义务模式更有利于协调权利人侵权防范的诉求与生成式人工智能服务提供者发展技术的需要之间潜在的利益冲突,进一步释放生成式人工智能产业的创新力。就人工智能服务提供者与开发者如何分配注意义务而言,以服务提供者为版权注意义务的首要主体,并通过市场机制将注意义务部分转移至技术服务开发者,使版权注意义务延伸至人工智能研发阶段,并鼓励在人工智能模型中嵌入版权识别过滤技术。在注意义务的具体构造上,可以参考“避风港规则”的规范原理,形成“通知—屏蔽”的被动注意义务框架,同时以“红旗原则”为被动义务的例外,从而形成“输入端注意义务法定、输出端注意义务自治”的版权注意义务体系。


关键词  

生成式人工智能;服务提供者;注意义务;版权侵权;避风港规则



生成式人工智能技术的快速发展,不仅极速拓展着人类创作能力的边界,还丰富了人类知识内容的供给。大模型的快速迭代催生了一批面向各行各业的生成式人工智能服务,其输入与输出两端暴露的版权侵权风险也受到包括出版界在内的广泛关注。[1] 在被誉为“全球生成式人工智能平台侵权第一案”的“人工智能生成奥特曼案” (以下简称奥特曼案)中,广州互联网法院在判决中详细探讨了生成式人工智能服务提供者(以下简称为服务提供者)应承担的注意义务,引起全球的热烈讨论。随着大量生成式人工智能软件、平台等人工智能服务涌入市场,服务提供者在向公众提供人工智能服务时应当承担何种版权注意义务、承担何种程度的注意义务,以及在何种情形下可获得版权侵权责任的豁免等问题亟待制度层面的回应。本文检讨现行法律制度框架下服务提供者版权注意义务的适用困境,并以技术中立为指导原则,通过剖析全球当下两种主流生成式人工智能服务提供者注意义务构建模式的优劣,结合我国人工智能产业发展实际,提出未来我国生成式人工智能服务提供者版权注意义务的具体构造。

1
生成式人工智能服务提供者版权注意义务的法律困境

互联网环境下,以网络服务提供者为主体,版权注意义务包括侵权风险预防与侵权行为制止两个方面的内容。根据《民法典》第1197条之规定,当网络服务提供者知道他人利用网络服务从事侵权行为而未采取必要措施避免侵权行为的发生的时候即认定其具有过错责任。[2] 网络环境下版权注意义务的变化意味着新型利益平衡机制是促进网络经济快速发展的重要制度供给,三十余年的法律实践已经成为公认的网络侵权治理的重要制度工具。人工智能经济是网络经济的升级,网络治理形成的经验是未来人工智能治理的重要经验来源。[3] 版权注意义务的设定成为最为关键的基础问题。

1.1 生成式人工智能服务提供者与网络服务提供者的区别

尽管人工智能服务在许多场景中与网络服务提供者有相似之处,但人工智能服务提供者与网络服务提供者在本质上具有不同的功能和责任,前者是内容的生成工具而非内容的传播平台,其对内容识别的注意义务的设定不应简单地照搬网络服务提供者的避风港规则。一方面,网络服务提供者版权注意义务是以严格区分技术服务与内容提供为前提,但是人工智能作为知识创造工具,其生成内容的行为兼具技术服务与内容供给的双重属性,人工智能服务提供者也兼具技术服务与内容提供的双重主体身份,无法简单套用网络服务提供者版权注意义务的规定。另一方面,人工智能服务提供者面临的侵权内容识别复杂程度更高,这使得传统版权注意义务的实现方式——“避风港规则”的照搬适用具有困难。生成式人工智能系统通过深度学习和大数据训练,能够生成与原始作品极为相似的内容,甚至是全新的创作。然而,这些生成内容往往包含大量的受版权保护的元素,极难通过简单的算法或人工识别进行区分和筛选。传统的侵权识别方法主要依赖于人工审核和简单的算法匹配,但面对生成式人工智能的复杂输出,这些方法显得捉襟见肘。例如,一段由人工智能生成的音乐,可能在旋律、和声以及节奏上与多首受版权保护的作品高度相似。这种情况下,仅凭现有的技术手段,很难准确、全面地识别出所有潜在的侵权内容。

此外,根据“避风港规则”,权利人需要向平台发送通知,要求移除侵权内容。然而,在生成式人工智能的大规模内容生成和传播机制下,面对瞬息万变的侵权行为,权利人难以及时发现和通知所有的侵权内容。生成式人工智能平台每天可能生成数百万条内容,权利人即便能识别出一部分侵权内容,也难以跟上其生成和传播的速度,导致通知机制在实践中失效。此外,对生成式人工智能服务提供者侵权责任的减免将对版权保护产生严重的负面影响。版权法的核心目标是保护创作者的合法权益,鼓励创新和创作。如果生成式人工智能服务提供者能够通过“避风港规则”轻易逃避责任,创作者的利益将受到极大损害,导致创新动力减弱。大量的侵权内容充斥市场,正版作品的市场竞争力被削弱,文化产业的秩序和发展将面临严峻挑战。长此以往,整个社会的知识创新环境也将受到侵蚀,文化繁荣的基础将被动摇。

1.2  主动注意义务与人工智能技术发展的冲突

版权是一项私人财产权,因为权利人对版权具有法律上的支配力。在此背景下,传统版权治理方式以主动注意义务为原则,即任何人都负有主动避免侵害版权的义务。作为第四次工业革命的代表,生成式人工智能虽然是科技领域的一项重大成就,但不能将人工智能的治理规则简单纳入科技法范畴。这是因为科技法更侧重于为科技创新活动提供必要的行政管理和制度保障。[4]然而,传统版权法的风险治理方式对生成式人工智能产业的发展具有消极影响。[5]具体而言,人工智能模型本质上是知识创造工具而非知识复制工具,这一特性决定了其智能程度与输出侵权风险之间成反比:大模型越智能,其生成的内容越具有独创性,与原作品相比越达不到实质性相似,从而侵权风险相对较低。但是大模型的智能性高度依赖于海量且多元化的数据训练,通过不断学习和吸收这些数据,模型才能提取出复杂的模式和规律,实现高水平的智能输出。问题在于,为了从源头上避免模型应用中的侵权风险,如果法律要求对输入端的数据进行逐一检验和合规审查,严格的合规义务会使得数据获取量严重不足,这将直接影响模型的智能性。由于数据量和数据多样性的减少,模型无法充分学习和优化,从而导致其输出内容可能缺乏独创性,反而容易生成与现有在先作品相同或相似的内容,增加侵权的风险。在没有法律特殊规范的情况下,现行法律规定的事先授权注意义务势必对生成式人工智能的发展构成显著障碍。因此,严格的版权注意义务在实际操作中大大限制了数据的可获取性,导致人工智能模型训练所需数据的数量和多样性严重不足,模型的智能性因此显著下降,进而可能输出侵权内容,反而增加了侵权的风险。此外,由于生成式人工智能模型的算法具有高度复杂性和黑箱特性,服务提供者无法对模型输出的全部内容进行事先的甄别和检测,这意味着在大模型生成内容之前,很难对其进行有效的监测和干预。如果强加这种义务主体尚无履行能力的义务,使得注意义务的承担成为人工智能产业发展的沉重负累,极高的侵权风险将严重阻碍生成式人工智能产业的发展。

1.3 版权治理能力与注意义务主体的法理难题

从技术角度来看,人工智能输入端的模型训练(研发阶段)与输出端的模型应用(应用阶段)所产生的版权风险是不同的。版权注意义务主要体现在输出端——因为单纯的模型训练属于科学研究活动,如果没有任何应用行为(生成侵权内容),则没有治理的必要。因此,版权注意义务主要由应用阶段的实施主体——服务提供者承担。实践中,生成式人工智能服务平台的技术调用模式十分复杂。从技术链的角度看,生成式人工智能服务的形态可以分为三种:一是技术开发与服务提供为一体的服务平台,例如Open AI 的ChatGPT;二是接入他人技术提供的预训练大模型,后经过自己训练向特定市场提供的服务平台;三是直接调用他人大模型而不进行自主性训练的服务平台(“奥特曼案”中被告提供服务的技术形态)。当前生成式人工智能服务市场上的技术提供形态以后两种为主流。然而,大模型技术开发者与服务提供者可能是分属于不同的市场主体,尤其是在涉及多模型的调用中,服务提供者对模型开发者是否取得训练数据的授权无法有效监控。特别是当服务提供者使用开源模型以及用户参与模型训练的模型向公众提供服务时,服务提供者无法监测来自全球各地的海量用户喂养的数据是否合法。开源模型通常是由全球开发者社区共同维护和更新,其训练数据可以来自各种公开或非公开的渠道。这些数据的合法性和版权状态各不相同,服务提供者很难对每一份数据进行逐一审查和验证。用户参与模型训练则意味着大量用户会自主上传和使用他们手中的数据,这些数据可能包括具有潜在版权风险的内容。最后,人工智能模型训练的过程是一个动态且持续的过程,用户不断地向模型提供新的数据,这意味着服务提供者需要持续地进行监测和审查。然而,由于数据量巨大且来源分散,现有的技术手段和人力资源无法实现对所有数据的实时和全面监控。这种情况下,服务提供者并不具备相应的注意能力,如果现行法将此种注意义务强加于服务提供者,无疑会加重其开发监管负担,亦会间接地导致生成式人工智能技术的发展受到抑制,因为企业在面临高风险和高成本的情况下,往往会趋于保守,减少对新技术的投入和尝试,从而影响整个行业的创新活力和发展速度。这种谨慎的态度在某种程度上是对技术进步的无形阻碍,使得许多具有潜在价值的创新项目因顾虑重重而止步不前。

2
技术中立:生成式人工智能服务提供者版权注意义务的理论依据

科技革命以来,不断涌现的各种新技术推进了生产力的发展,也深刻改变着人们的生产生活方式。法律作为构建人类社会秩序的制度工具,也必然要重点考虑技术与利益之间的互动关系。在不断的法律实践中,技术中立逐步成为人类处理因新技术导致的固有利益冲突与塑造新的利益秩序的基本原则,人工智能作为新一轮科技革命的代表也需要遵循这一规律。法理学意义上的技术中立包括功能中立、责任中立以及价值中立三种含义。[6] 版权法是传播技术发展的产物,如何协调传播技术进步与版权保护是不同时期版权法需要面对的挑战。版权法意义上的技术中立应当满足上述三种含义,生成式人工智能服务提供者注意义务的构造亦需要在技术中立原则的指导下进行建构。


2.1  版权领域技术中立的具体含义

版权法意义上的技术中立表现为“实质性非侵权用途原则”,是指“销售一种同时具有合法和非法用途的商品可免除其侵权责任”。该标准肇始于1984年美国最高法院对Sony. v. Universal City Studios案(以下简称索尼案)的判决,强调法律应关注技术的使用而非技术本身,新技术的发展者对其技术是否导致侵权行为的发生无须承担责任。这暗含着对功能中立与责任中立的要求。然而,技术中立的确立却一度成为版权侵权的温床,各种假借技术中立之名实为侵权之实的不公平现象屡屡发生。复制传播技术的进步与应用极大促进了作品传播效率,反过来私人复制的普遍化也带来了版权危机:私人复制作为最典型的合理使用导致版权付费机制名存实亡。为限制私人复制导致的技术中立滥用,美国法院通过 Grokster案对“实质性非侵权用途”标准进行了新的解释,即技术提供者如果没有采取有效措施阻止侵权行为和后果的扩大,可以推定技术提供者有帮助他人侵权的过错,需承担间接侵权责任。由此平衡技术进步与版权利益之间的冲突与失调。总的来说,版权法上技术中立的实质含义有二:一是为技术中立性自验,二是技术使用行为的中立性判断。前者要求技术提供者保证技术自身没有偏袒性与故意性,后者强调对使用行为具有中立性判断义务。如果技术本身或使用行为难以维持中立,则不适用技术中立,应承担相应的侵权责任。从侵权责任法的角度,可将生成式人工智能服务提供行为引发的侵权风险分为技术自发型与使用者操控被动生成型。[7] 就前者而言,由于生成式人工智能属于主动信息处理和再创作能力的智能系统,其生成的内容并不仅限于用户提供的信息,而是基于其数据库中的预训练数据,在信息处理和生成过程中具有高度自主性,其行为难以完全归因于用户的指令。用户可能并未意识到其指令会导致版权侵权。因此,生成式人工智能在这种情况下应被视为超越了单纯工具的范畴,并不符合技术中立原则的要求,其行为本身应承担独立的法律后果。[8] 就后者而言,使用者将生成式人工智能服务视为一种侵权工具,直接根据其指令生成相应的侵权作品,服务提供者想要免除其帮助侵权的责任认定就应当履行用户使用行为的监管义务。

2.2  价值中立与人工智能技术进步的正当性

广义的技术中立是指法律的目的和价值应当超越任何特定时刻的技术能力,确保法律应用和发展不受限于特定的技术形态,应更加关注这些技术是如何服务于法律的目的与价值。[9]事实上,功能中立与责任中立都蕴含着指向价值中立的立场,价值中立是技术中立的理论内核。那么何为法律所追求之价值与目的?我国《著作权法》第一条立法目的便给出答案。即著作权法虽然不保护具体技术方案,但是暗含着鼓励技术发展的价值倾向。即强调“鼓励……物质文明建设的作品的创作和传播,促进社会主义文化和科学事业的发展与繁荣”。人类文明的进步得益于对工具的使用,作为思想意识的延伸,人类通过使用工具不断提升自身创作能力,通过不断发展、改进传播技术促使作品的传播效率和传播范围大大提升。著作权法鼓励创作与传播,即暗含着鼓励能够提高创作能力与传播能力的工具的发展。此外,任何新兴技术的出现势必带来新的产业利益的再分配,其中需要以利益平衡原理对著作权人与社会公众之间重新作出调整。[10]著作权作为一种赋予作品创作者私权的垄断性权利,其本身暗含着对公开表达的占有。在强化著作权保护的当下,技术的提供为作品使用者接触和获取作品提供了行为选择,从而避免了知识产权的反公地悲剧。这种在财产权寻求利益最大化与公众朴素知识获取渴望的价值平衡中形成的价值中立原则,实为法院与立法者适用技术中立原则的真正目的。[11] 由此可知,技术的价值中立具有既鼓励创作与传播技术的发展,又鼓励公众利用技术积极创作的双重内涵。

人工智能的本质仍是人类创作的辅助工具 [12],创作内容仍为人类思想意识的延伸。在此种变革中,作品创作的占比中人类的因素越小,作者输入和获取信息的能力就越强。从保护公众接触作品能力上来看,生成式人工智能服务为公众在知识产权强保护政策背景下获得了更为灵活的知识获取机会。只要生成式人工智能服务没有打破这种利益平衡,没有对著作权人造成实质性侵权,技术中立便仍可一直应用于生成式人工智能服务中。同时,人工智能技术这一技术科学势必将改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。[13] 因此,鼓励生成式人工智能技术的发展符合价值中立的内在要求。一句话,在技术中立的指导下,构建生成式人工智能服务者的注意义务应当秉承着激励技术发展、鼓励公众创作的原则基调。

3
生成式人工智能服务提供者版权注意义务的基本原则

网络经济下的平台注意义务承担方式大体可以分为严格模式与自治模式。前者是通过国家法律对注意义务予以规定,体现出严格遵守的立法主张;后者是通过不同主体之间协商自治,通过商业自主协议和市场秩序进行规定的松散的义务设立。赋予生成式人工智能服务提供者何种限度的版权注意义务,不仅影响着服务提供者版权侵权的归责认定,更影响着生成式人工智能服务产业的发展。严格注意义务存在技术不达性与自发监管成本过高不利于人工智能产业发展等实践不能因素。应坚持技术中立原则,对数据输入与数据训练阶段的作品性使用采取更宽容的合理使用认定态度,给予弱主动义务。充分发挥服务提供者的平台管理者作用,重视被动注意义务。从比较的角度来看,以欧盟为代表的严格注意义务为快速发展的生成式人工智能产业戴上了制度的枷锁,而以美国为代表的自治型注意义务具有一定借鉴意义。


 3.1   主动注意义务的否定

严格模式即是要求义务承担者享有主动的版权注意义务。依此原理,服务提供者的主动注意义务即在数据输入阶段与生成阶段都应当保证不存在未经许可使用他人作品生成侵权内容的可能,一旦出现侵权内容便会推定其具有主观过错。有观点据此主张,服务提供者应当从技术的底层运行系统中设立相关技术措施,进行算法披露与版权过滤。[14] 这种赋予服务提供者较为严格的主动注意义务受欧盟人工智能相关立法的影响深远。从整体上看,欧盟当下立法更倾向于加重服务提供者的主动注意义务。具体而言,《欧盟人工智能法案》(以下简称为《欧盟法案》)第 9条、第11条、第15~16条明确规定了人工智能技术提供者负有风险管控义务、透明度义务以及提供者注意义务与网络安全义务。《欧盟人工智能责任指令(提案)》第4条第1款试图将上述义务的未履行推定为主观过错,同时推定为注意义务与侵权结果之间存在因果关系,将侵权结果归责于大模型提供者。《算法责任和透明的治理框架》在其结论中规定,对数据的抓取与输入信息的合法性进行审查。然而,如此强义务的人工智能治理方案是否是立法者的狂欢,是人工智能经济的促进还是障碍,欧洲学者表示悲观。[15] OpenAI 公司首席执行官Sam Altman表示,如果《欧盟法案》对人工智能进行过度监管,他将带领团队撤出欧洲市场。欧洲议会议员Brando Benifei表示,欧洲的人工智能立法已超前地对人工智能的风险给予具体回应。[16]

主动注意义务在生成阶段存在技术不能性。一方面,算法披露制度在外观上是解决人工智能治理问题的最优解决方案,然而,披露制度如何保证以商业秘密形式的算法机制以及算法中内含的个人信息不被外泄,当下仍未有稳妥的对策提出,同时算法结构复杂,普通公众和监管机构可能难以理解和评估其工作原理,其透明性也可能形同虚设。[17] 另一方面,生成式人工智能采版权过滤技术可能会限缩合理使用的范围。[18]在传统网络平台治理中,网络服务提供者多为搜索引擎和网络平台等技术服务提供主体,并不制作、复制和发布网络信息,而只承担平台信息管理和安全责任等义务,因此,其往往不涉及对作品的合理使用。但是,生成式人工智能服务通过对原作品的学习,生成新的创造物。这一过程往往需要进行合理使用判定。对生成式人工智能加设版权过滤机制并不具备合理使用认定能力,因此势必会限缩合理使用空间,破坏产业利益。[19] 其次,生成式人工智能的生成结果并非是一蹴而就的,其可能需要多次的训练和多次的指令下达生成作品,如果过滤机制贯穿于训练与指令下达的全过程,其用户体验会大打折扣,甚至会出现无法生成的结果,外加生成式人工智能生成的内容可能与多个来源的作品混合在一起,如何准确识别并过滤受版权保护的内容是一项技术难题。再次,版权过滤机制的实施成本高昂。谷歌于2018年全年在名为Content ID的计算内容相似度的系统技术上的投入已经超过1亿美元。[20] 然而,中小型人工智能服务提供平台无法承担如此高昂的过滤技术成本,赋予其强过滤义务必将削弱这些平台的发展积极性。最后,版权过滤机制的运行势必造成平台算力的减损。在生成式人工智能发展仍处于算力匮乏的阶段,挤占算力对平台运行会造成不利影响。

3.2 自治型注意义务为主导

服务提供者承担何种注意义务,应当与防范技术发展的可行性相匹配。自治型注意义务是指技术提供者无须对技术应用过程中产生的侵权风险采取主动注意义务,而是在接到权利人侵权通知后及时采取必要的措施保护版权即可免除侵权指控。这意味着对版权侵权风险的治理交由版权权利人与技术提供者之间——根据市场机制进行自主协调,法律不强制要求权利人必须维权或者技术提供者必须主动过滤侵权内容。

以美国实践为例,网络时代,自治型注意义务的典型代表即是避风港规则的确立。对于新兴事物的版权立法,美国国会往往采取谨慎态度,强调自我管理,支持技术创新。[21] 对互联网平台应当如何治理平台中存在的侵权内容,美国《千禧年版权法》并未要求网络服务提供者负有版权过滤之积极的事前审查义务。“避风港规则”是指网络服务提供者如果对正在进行的侵权行为尚不知情,经权利人发现并告知其既有侵权事实的情况下,采取删除等必要措施停止侵权行为,则无须承担侵权责任。“避风港规则”的应用为美国互联网产业的蓬勃发展起到了催化作用。

在避风港规则的影响下,为了更高效治理侵权风险,权利人往往会主动与平台达成协议,共同治理侵权并实现共赢。譬如,2020年5月美国版权局发布《千禧年版权法第512条报告》(以下简称《报告》)。《报告》指出,美国网络服务提供者与版权人存在大量的正式或非正式的民间合作协议,此协议主要内容即经过版权人授权将其作品作为平台数据库比照资料对用户上传内容进行版权查验和过滤。[22] 不仅如此,美国现有的主流版权过滤技术(如前文提到Content ID)绝大多数都是基于这些民间合作协议发展而来的。这种网络服务提供者与版权人之间根据协商达成的自治规则与现有可实现的过滤技术达成一种良好互动,既符合产业发展利益,又兼顾了版权人的利益诉求。这种自愿采取过滤机制的主要动因即在于现有产业发展规模增长与潜在著作权侵权可能性激增,而“避风港规则”无法为网络服务提供者提供更为清晰的法律预期,使得网络服务提供者不得不采用一定过滤技术,使自己进入一个新的“避风港”。[23]

美国版权法在应对生成式人工智能服务提供者的态度上,基本上沿用了网络平台治理的路径。其并未直接干预生成式人工智能产业的风险治理,而是强调生成式人工智能服务提供者应当履行一梭子宣言式的抽象原则。2022年10月由白宫科技政策办公室发布的《权利法案蓝图》是美国第一个涉及人工智能监管的法律文件,但其内容也未对监管具体事项进行规定,《权利法案蓝图》更多是一种前瞻式的构想。这意味着,美国尽可能避免通过立法或行政命令的方式直接干预市场,而是主张引导市场各方利益主体通过谈判与交易机制达成利益平衡。

笔者认为,主动注意义务方式下版权风险全部归于服务提供者,这便使得服务提供者几乎没有谈判空间。借鉴互联网治理的法治经验,在引导人工智能服务提供者与版权人通过市场机制实现共治共赢的局面,其前提是赋予服务提供者被动的注意义务。在被动注意义务的原则下,服务提供者在承担了必要的注意义务基础之上也获得更大的免责空间。此时,权利人为了提高版权保护的水平,就更有意愿寻求与服务提供者的合作。这一方面能鼓励权利人积极参与到人工智能版权治理的体系中来;另一方面,也能使服务提供者在合作中获得利益,进而更有动力研发、部署更高效的版权技术措施,从而形成多主体参与、共治共赢的人工智能版权侵权风险治理新秩序。

3.3 有限的主动注意义务为例外

一概否定服务提供者的主动注意义务也容易招致侵权泛滥的风险。基于技术中立的指导思想,服务提供者可以适当承担较弱的主动注意义务。“实质性非侵权用途”标准并非完全免除了技术提供者对技术使用行为的监督义务,在许多情形下赋予技术提供者监管技术使用行为的合法性义务,防止技术被实质性用于侵权。从这个角度看,服务提供者需要对用户的使用行为负有一定的主动监管义务,避免技术被规模化、普遍化地用于侵权行为。也就是说,当服务提供者清楚地认识到自己提供的人工智能服务正在被主要用以实施侵权行为的时候,技术的中立将被否定,技术已经实质性地沦为帮助侵权的工具,此时服务提供者便不得通过技术中立设定的被动注意义务进行侵权抗辩。

由于技术风险导致的损害结果往往无法实现 “恢复原状”的理想状态,因此法律不可能纵容技术风险不加限制地对法律关系产生负面影响。早在 “快播案”中,快播公司作为视频点播与缓存技术的服务平台允许其用户自由地上传视频资源。在这些视频资源中,不乏大量的淫秽色情信息和数以万计的盗版音视频内容。然而,快播公司并未采取积极措施制止不法和侵权内容的出现,反而继续放任海量有害信息上传和传播。海淀区人民法院认为,快播公司作为网络服务提供者负有网络安全管理义务,但这种义务并不是屏蔽全部侵权内容的强主动义务,而是通过一系列必要措施以展现出履行义务的切实意愿。然而,快播公司具有调度和识别服务器所记录信息的能力,但是依旧放任侵权事态的发展甚至采取技术手段规避法律监管。因此,其应当知道侵权事实的存在,理应承担相应责任。是故,当技术工具被广泛应用于侵权,从而形成危害性极强的技术风险之时,服务提供者的主观过错被判定为“应当知道”,应当通过有限的主动注意义务来一定程度地化解技术风险带来的危害。

4
生成式人工智能服务提供者版权注意义务的具体内容

生成式人工智能服务提供者版权注意义务的构造,既不是将主动义务与被动义务平等视之,也不是完全免除主动注意义务,而是结合产业发展趋势与技术现状实事求是地构建出一套既可促进生成式人工智能产业发展又能保障著作权人利益的平衡之选。近年来,我国人工智能产业快速发展,人工智能专利申请量位居全球第一,生成式人工智能服务的全球市场占比仅次于美国,位居第二位。鉴于此,笔者主张构建主动义务与被动义务相衔接的注意义务体系。


4.1 完善以“通知—必要措施”为基础的被动注意义务履行方式

生成式人工智能服务平台治理与网络平台治理具有相似性,后者治理经验可以为生成式人工智能服务平台治理提供解决路径。网络服务平台的治理肇始于20世纪末网络产业的快速兴起,网络服务提供者无法对用户上传的每一项内容进行及时监管,为平衡网络产业与版权保护之间的利益平衡,美国《千禧年数字版权法》确立了以 “避风港规则”为核心的网络服务提供者被动注意义务管控体系。在此基础上,生成式人工智能服务提供者在事后的行为管理和内容管理方面与网络服务提供者具有高度的一致性。鉴于此,学界对于生成式人工智能服务提供者类推适用“避风港规则”已经基本达成共识。[24] 我国《民法典》第1195条第2款设置了“避风港规则”,同时我国国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局七部门于2023年7月13日联合公布的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)便基本沿用了网络治理的避风港规则思路,在规范服务专章中提出了发现违法内容及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施的义务(第14条),以及建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果等接受权利人通知的义务(第15条)。然而,设定生成式人工智能领域下的“避风港规则”需要在明晰网络服务提供者与生成式人工智能服务提供者两者区别上,对“避风港规则”进行改造。

以形式审查为主、实质审查为辅进行对被通知侵权生成物的被动审查义务。生成式人工智能的被动注意义务即在人工智能创造物经生成并用于传播,收到著作权人的侵权通知后履行的积极监管义务。即意味着被动注意的内涵是对生成物内容潜在的版权侵权性审查,这一观点也得到 “奥特曼案”主审法院的佐证。然而,就如何在提升审查效率与兼顾审查公平之间对被控侵权生成物进行正确的侵权性判断这一问题,本文认为应当采取以形式审查为主、实质审查为辅的审查方式。即对《民法典》1195条规定的通知所包含的侵权的初步证据以及权利人的真实身份信息进行审查。实质审查即包含调取生成时的用户指令,审查其是否具有故意侵权目的。其次比照侵权证据,对生成物与被侵权作品的实质性相似关系进行判断。

对“必要措施”外延进行必要限缩。生成式人工智能服务提供者的“双重性”身份决定了其适用的“必要措施”不能采取与网络平台相一致的方式。进一步讲,网络服务提供者所采用的 “必要措施”仅需要切断被侵权作品的传播途径便可使作品恢复到或基本恢复到未被侵权使用状态,即使发生误判也不会对其本身作品的根本性 “存在状态”造成影响。但是,对生成式人工智能服务者而言,其不仅是作品的传播者,更是内容生成者,且算法具有的随机性使得即使输入相同的指令也不会生成与之前相同的作品。一旦予以语料库删除,便使得作品在物理状态下处于 “毁灭”。由于平台侵权性审查并非具有法院裁判所拥有的司法效力,一经发生误判,其损害结果无法进行物理性恢复。因此,法院应当对“必要措施”的外延进行必要限缩。对有侵权之嫌的生成物不宜轻易予以删除,《暂行办法》第14条将 “必要措施”解释为停止生成、停止传输、消除等处置措施,而“消除”并不等同于“删除”,生成式人工智能服务提供者可通过屏蔽关键词,屏蔽生成物等形式将侵权生成物达到“消除”状态。

4.2 构建以“红旗原则”为限制的主动防范义务

“通知—必要措施”对服务提供者的免责并非是没有边界的,“红旗原则”即为其限制。“红旗原则”指当版权的侵犯事实像“红旗”一样迎风飘扬人尽皆知,那么服务提供者就应当及时主动地制止这种行为,而不能以所谓不知道侵权事实的存在为由逃避其责任。我国《民法典》第1197条规定:“网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。”这即意味着服务提供者应当履行一定主动防范义务,主动监管版权侵权事实的发生。

4.2.1     输入端主动防范义务法定化

数据输入端的主动管控义务包含着输入数据的合法性进行主动审查,以及对服务使用者的提示词监控两方面内容。考虑到生成式人工智能服务所需要的海量数据无法实现逐一的授权许可,因此,应当将数据输入端的注意义务限制在过滤权利人事先声明不得用于模型训练的作品。即如果权利人在其作品中标明不得用于模型训练,生成式服务提供者在进行相关服务时不得抓取这类作品用于内容的生成。此外,由于生成式人工智能服务提供者具有平台管理职能,服务提供者有权对其用户的使用行为进行规制。其中,提示词治理是人工智能服务提供者履行注意义务的主要工具,对明显违法提示词负有主动过滤义务。当用户将生成式人工智能作为一种著作权侵权工具时,服务提供者应当及时提示并制止。具体而言,当人工智能模型的任务就是专用于模仿某一特定作者或者某些特定风格作品,并主要应用于生成与在先作品相同或实质性相似的内容时,对该模型的使用在目的上便不再是中立的。生成式人工智能服务提供者应当借鉴大模型对情色淫秽、种族歧视等公法上的否定模式,对大模型使用者具有高度侵权意图的提示词进行过滤,进行侵权风险提醒后不予执行其指令。此种注意义务的设定不仅符合服务提供者作为平台管理者的定位,其背后技术要求的可实现性也相对较易。

4.2.2     输出端主动防范义务自治化

从新千年版权发展的轨迹来看,由技术引起的版权争议往往需要新的技术予以治理抗衡,这种“以技治技”的方法如今仍适用于生成式人工智能引发的版权侵权纷争之中。生成式人工智能服务的输出端由于“算法黑箱”的阻碍,其技术难度远远大于输入端对具体的数据与指令进行识别和过滤,这就需要注意义务的设定与识别过滤技术的发展相匹配。然而,在识别过滤技术尚不成熟的当下,法定化输出端的主动防范义务极易导致注意义务的设立在超前或滞后中反复摇摆。前者提高了服务提供者的侵权风险,后者使得版权利益造成损失。因此,应当将自治规则引入输出端主动防范义务的设立中,要求技术提供者与服务提供者进行合作,根据现有技术的可实现性,通过协商自治确定输出端主动防范义务的限度。

5
结  语

价值中立即暗含着鼓励技术进步和知识传播的法律价值与保护著作权利益之间有效平衡的价值内涵,其为技术中立的核心内涵。生成式人工智能服务提供者具备技术中立的特征,其适用 “避风港规则”并无理论障碍。而注意义务的模式选择应当根据产业未来发展趋势因地制宜地进行选择,法定严格注意义务势必阻碍产业发展,市场上形成的自治规则可与主动防范技术发展情形相协调,以释放技术发展活力。生成式人工智能服务提供者的被动注意义务与主动注意义务需要在相互衔接中进行构造,从而构建一套既符合产业发展,又满足权利人权利保障的注意义务体系。



注  释

(上滑查看)

① SonyCorporationofAmericaetal.v.UniversalCityStudios,Inc.,etal.464U.S.417( 1984).

②  Metro-Goldwyn-Mayer Studios,Inc.V.Grokster,Ltd.F.3d 1154( 9th Cir.2004).

③    Artificial Intelligence Act, European Parliament legislative resolution of 13 March 2024 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonized rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM (2021) 0206—C90146/2021—2021/0106(COD)) (Ordinary legislative procedure: first reading).

④     Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on adapting non-contractual civil liability rules to artificial intelligence(AI Liability Directive),EUROPEAN COMMISSION,Brussels, 28.9.2022 COM(2022) 496 final2022/0303(COD).

⑤     A governance framework for algorithmic accountability and transparency,EPRS | European Parliamentary Research ServiceScientific ForesightUnit (STOA)PE 624.262 ,April 2019.

⑥ 17 U.S.C.§512 (i) (1) (B).

⑦  The White House,"Blueprint for an AI Bill of Rights",October 2022.

⑧  北京市海淀区人民法院刑事判决书( 2015) 海刑初字第512号。




参 考 文 献

(上滑查看)

[1]     马子斌. AI生成文本对出版者注意义务的影响与重构[J]. 科技与出版,2023(12):87-94. 

[2]     朱冬. 网络服务提供者间接侵权责任的移植与变异[J]. 中外法学,2019,31(5):1340-1356. 

[3]     张凌寒. 中国需要一部怎样的《人工智能法》?:中国人工智能立法的基本逻辑与制度架构[J]. 法律科学(西北政法大学学报),2024,42(3):3-17. 

[4]  赵精武. 论人工智能法的多维规制体系[J]. 法学论

坛,2024,39(3):53-66. 

[5]     Motoarc, I. -R. AI, Copyright,and Pseudo Art[J]. Yale Journal of Law & Technology,2023.(26),430-464. 

[6]     郑玉双. 破解技术中立难题:法律与科技之关系的法理学再思[J]. 华东政法大学学报,2018,21(1):85-97. 

[7]     高阳. 通用人工智能提供者内容审查注意义务的证成[J]. 东方法学,2024(1):189-200. 

[8]     刘云开. 人工智能生成内容的著作权侵权风险与侵权责任分配[EB/OL].(2024-06-04) [2024-06-13]. 

[http:// kns.cnki.net/kcms/detail/61. 1329.C.20240604.1353.004.html. 

[9]     CRAIG C J. The AI-copyright challenge:techneutrality,authorship, and the public interest, Research handbook on intellectual property and artificial intelligence[M]. Cheltenham:Edward Elgar Publishing, 2022:134-155. 

[10]  冯晓青. 利益平衡论:知识产权法的理论基础[J]. 知识产权,2003(6):16-19. 

[11]  高莉. 数字时代著作权合理使用制度的检视与重构:基于技术中立的理论分析[J]. 苏州大学学报(法学版),2023,10(3):41-52. 

[12]  王利明. 人工智能时代提出的法学新课题[J]. 中国法律评论,2018(2):1-4. 

[13]  吴汉东. 人工智能时代的制度安排与法律规制[J]. 法律科学(西北政法大学学报),2017,35(5):128-136. 

[14]     刁佳星. 生成式人工智能服务提供者版权侵权注意义务研究[J]. 中国出版,2024(1):25-30. 

[15]     沃尔夫冈·多伊普勒. 《欧盟人工智能法案》的背景、主要内容与评价:兼论该法案对劳动法的影响[J]. 环球法律评论,2024,46(3):5-27. 

[16]     全球人工智能治理大变局之欧盟人工智能治理 监管框架评述及启示[EB/OL]. (2023-08-03)[2024-06-12]. 

https://www.lexology.com/library/detail. aspx?g=fe1e38328075-4d1d-bd8f-8a6682c34ef3. 

[17]     SELBST,ANDREW D,BAROCAS,et al. The intuitive appeal of explainable machines[J]. Fordham law review, 2018(87):1085. 

[18]     谭洋. 在线内容分享服务提供商的一般过滤义务:基于《欧盟数字化单一市场版权指令》[J]. 知识产权,2019(6):66-80. 

[19]     AUFDERHEIDE P,JASZI P. Reclaiming Fair Use:How to Put Balance Back in Copyright[M]. Chicago:

University of Chicago Press,2018. 

[20]     Google. How Google Fights Piracy[EB/OL]. (2018-11-07[2024-06-12]. https://www.blog.google/ documents/27/How_Google_Fights_Piracy_2018.pdf/. 

[21]     程乐. 生成式人工智能治理的态势、挑战与展望[J]. 人民论坛,2024(2):76-81. 

[22]     US COPYRIGHT OFFICE REPORT ON SECTION 512[EB/ OL]. (2022-05-03)[2024-06-12]

https://www.copyright. gov/title17/92chap5.html#512.

[23]     李安. 智能时代版权“避风港”规则的危机与变革[J]. 华中科技大学学报(社会科学版),2021,35(3):107-118. 

[24]  杨显滨. 生成式人工智能服务提供者间接侵权责任的承担与限制[J]. 法学家,2024(3):46-60,191-192.

AUTHOR

徐小奔1) 薛少雄2)

1)中南财经政法大学知识产权研究中心

2)中南财经政法大学法与经济学院





END

科技与出版
《科技与出版》旨在搭科技进步与出版创新之桥,传编辑出版与文化传播之经。是CSSCI来源期刊、中文核心期刊、“复印报刊资料”重要转载来源期刊。由清华大学主管,清华大学出版社有限公司主办,中国版协科技出版工作委员会指导。
 最新文章