王杰 | 生成式人工智能服务输出侵犯版权内容的救济研究

学术   2024-08-19 17:01   天津  

点击蓝字关注

了解更多精彩

ABOUT

(点击查看思维导图)



GB/T 7714-2015


CITE

王杰.生成式人工智能服务输出侵犯版权内容的救济研究[J].科技与出版,2024(7):59-69.


摘   要  

生成式人工智能可能因“记忆”输出与训练素材构成实质性相似的内容,从而产生侵犯版权的风险。服务平台应当对此承担何种责任往往引发争议。从角色定位角度,服务平台应当被界定为网络技术服务提供者,就侵犯版权适用过错责任。当前学者主张的“现有技术水平” 标准与安全保障义务标准存在证成逻辑与义务内容上的缺陷,“通知—删除规则”在生成式人工智能场景下亦面临适用障碍。根据输出侵权内容的风险和成因,侵权救济应落脚于生成式人工智能的商业利用端,以实现版权人合法权益的保护,并推动侵害版权负外部性的内部化。


关键词  

生成式人工智能;版权侵权;归责原则;注意义务



随着人工智能技术的发展,其应用不断深入人类社会的生产、生活,已是不可逆转的趋势。据德国劳工部长海尔(Hubertus Heil)预测,最迟到2035年,世界上将没有与人工智能应用无关的工作。[1] 技术发展带来的收益总是与风险相伴。当人工智能受到极致追捧之时,其可能导致的侵权风险也日益引发关注。据统计,截至2024年3月 11日,美国一共发生了21件针对生成式人工智能的版权诉讼,全部涉及大模型训练中复制、传播作品的行为,其中2件诉讼同时还主张生成内容侵犯作品的复制权和演绎权。[2] 在我国,广州互联网法院也于今年2月做出“全球范围内首例生成式AI 服务侵害他人著作权的生效判决”。[3] 人工智能作为一项快速迭代发展的技术,其开发者须对技术应用产生的侵害后果承担何种责任不仅关系到相关主体合法权益的维护,也会对技术发展产生深远影响。从当前的诉讼来看,围绕生成式人工智能服务平台的版权责任争议体现在两个方面:其一,输入端爬取复制巨量作品作为训练资料;其二,输出端因“记忆”生成与先前作品构成实质性相似的内容。对于前一争议,学者抑或在合理使用的框架内讨论 [4],抑或主张设定新的法定许可。[5] 本文的研究聚焦于后者,即当生成内容构成对在先作品的复制或演绎时,应当如何认定人工智能平台的版权责任。为了回答该问题,本文首先界定生成式人工智能服务平台在版权制度中的角色定位,指出其应当就输出侵犯版权的内容承担过错责任;接着分析当前学界和实务界提出的几种过错判定标准,反思其不足;最后从生成式人工智能输出侵权内容的风险和成因等两个角度指出,侵权救济应落脚于生成式人工智能的商业利用端。这既能较好地保护版权人的利益,也有助于实现侵权负外部性的内部化。

1
角色定位:内容服务提供者或技术服务提供者

当生成式人工智能服务平台根据用户提示词生成侵权内容时,对平台应采何种归责原则,当前主要存在过错责任与无过错责任两种观点。王利明教授认为,出于保障人工智能产业发展的需要,过错责任是处理生成式人工智能侵权的一般归责原则,仅在侵害个人信息权益的特殊情形适用过错推定。[6] 周学峰教授则主张整体上采用过错推定的归责原则以解决受害人举证困难的问题。[7] 徐伟教授认为,即使采用过错推定,依然无法有效解决过错证明的难题,应将生成式人工智能侵权界定为一种新型的危险责任类型,适用无过错责任。[8] 在版权领域,对技术开发应用者(通常也是内容的传播者)采何种归责原则曾长期存在争议,最终形成内容服务提供者与技术服务提供者的分类。若传播的内容侵犯版权,前者构成直接侵权,适用严格责任;而对于后者,则适用过错责任判定是否构成间接侵权。因此,在版权侵权语境下,对生成式人工智能服务平台应采何种归责原则,首先需判定其在侵权内容传播中的角色定位。

网络服务提供者(internet service providers)诞生之前,在版权法层面为作品传播提供技术渠道的主体一般视作内容服务提供者。如提供广播技术的广播组织性质上为内容提供者,须对传播的侵权内容承担严格责任。尽管有学者指出,知识产权侵权并非民法规制的特殊侵权行为,应采过错责任的归责原则 [9],我国法院也一般依据《著作权法》第59条要求传播者就版权侵权承担过错推定责任。但在实践中,除了侵权作品的出版者、销售者和出租者之外,其他传播者很难证明其已尽到注意义务,故而在责任承担效果上几乎与严格责任无异。[10] 自20世纪90年代网络服务提供者登上历史舞台后,技术服务提供者逐渐从内容服务提供者群体剥离。在1993年发生的playboy案中,美国法院依然将BBS运营者认定为类似传统出版商的内容服务提供者,须对用户上传的内容承担严格责任。但在两年后的Netcom案中,美国法院则认为BBS运营者只是根据用户的指令上传、存储内容,并未直接从事版权法所控制的作品利用行为,因此不应如内容服务提供者那般对侵权内容的传播承担严格责任。法院进一步指出,采纳一种极易导致不计其数的当事方承担责任的规则不合理,因为这些当事方仅仅建立或提供了发挥网络功能所必需的系统,并认为应当为第三方所作的纯粹被动的行为提供一种(侵权)例外。Netcome案中法院的判决思路深刻影响美国《新千年数字版权法案》第512条(“避风港”条款)的制定,而美国“避风港”条款又成为欧盟与中国相关条款构建的重要参照。自此,由于网络技术服务提供者的加入,版权领域的利益协调从版权人、传播者与社会公众间的“三国演义”变为四方博弈。区别对待网络技术服务提供者主要基于教义学和法政策两个层面的理由。在教义学层面,网络技术服务提供者仅是根据用户的指令传输内容,扮演着传播中介的角色,构成直接侵权的应当是用户而非传播中介。在法政策层面,网络在社会、经济、文化等方面发挥日益重要的作用,须防止给网络技术服务提供者施加过重的负担抑制网络发展;且历史已经充分证明新技术带来的尚未预见的利益,或者说“溢出”效益,常常超出新技术带来的暂时收益。[11] 区别对待在规则层面体现为“避风港”条款的引入,其核心在于网络技术服务提供者不承担普遍版权审查义务,故而不能仅因传播侵权内容便要求其承担侵权责任,还需检视其对侵权内容的传播和扩散是否存在过错。

生成式人工智能服务平台应归入哪种类别存在界定上的难题,因为从技术特征角度,其与典型的网络内容服务提供者、网络技术服务提供者既有共同点但也存在区别。首先,生成式人工智能根据用户输入的提示词输出相关内容,与数据库根据用户检索输出相关内容类似,符合内容服务提供者的特征。尽管如此,与数据库不同,生成式人工智能输出的内容并非事先存储于平台的服务器中,而是根据用户的指示“即兴创作”。因此,若非用户的介入,则不存在侵权。这点又跟网络技术服务提供者根据用户指令存储、传播内容有相似之处,尽管内容并非由用户提供。鉴于生成式人工智能服务平台的独特技术特征,有学者主张其构成一种新型的网络技术服务提供者。[12] 笔者认同此观点,因为上述“优待”网络技术服务提供者的两个理由同样适用于生成式人工智能服务平台。其一,在教义学层面,虽然侵权内容看似由生成式人工智能平台直接提供,但由于大模型算法的复杂性,服务平台无法控制大模型运算的结果,而缺乏控制的内容生成不应视为直接提供。其二,在法政策层面,生成式人工智能属于快速迭代中的新兴技术,对其施加严格责任会导致技术开发成本过高,从而阻碍技术发展。[13] 与之相对,过错责任能较好地兼容政策考量,将保障技术发展融入过错判定。近现代过失标准的客观化意味着过失已不再“是对个人的道德责难,而是风险分配的工具或手段”[14]272。这为政策目的融入过失的判断提供了空间。Prosser 教授即指出,判断过失的注意义务本身并非神圣的道德信条,而不过是一套通过政策综合考量确定原告受到保护的说辞。[15] 该观点得到美国法院的广泛认同,Friedman法官甚至据此发展出了衡量注意义务范围的八大因素,并称之为“精致的政策判断”(delicate policy judgements)。在大陆法系,Josef Esser教授也指出,过错责任的真正优势并非在于道德,而是经济政治的动机。[14]92 其次,过错责任在适用中具有较大的制度弹性,便于法院根据技术进步与产业发展调适生成式人工智能服务平台应承担的版权注意义务。以网络存储空间服务提供者的侵权判定为例,法院根据商业模式的演进、过滤技术的发展与版权保护的需求等不断调整服务提供者的注意义务,甚至采用过错推定来减轻版权人的举证难度,较好地维护技术进步与版权保护间的平衡。

2
生成式人工智能服务平台的过错判定标准分析

关于如何认定生成式人工智能服务平台的过错,学界亦是众说纷纭。有学者主张借鉴产品责任中的“现有技术抗辩”来判定生成式人工智能服务平台是否尽到注意义务。[16] 有学者认为,生成式人工智能服务平台兼具内容生产者与平台管理者的双重角色,对数据、模型、模拟训练、生成内容等负有审核的安全保障义务,若违反该义务造成他人人格权、著作权的损害,需承担侵权责任。[17] 还有学者建议,通过立法对人工智能的 “研发、设计、运行、测试、监测和维护”进行具体的管制,若违反这些管制性规定,则推定人工智能服务平台对损害的发生有过错。[7]126 值得注意的是,由于生成式人工智能服务平台被界定为新型网络技术服务提供者,不少学者主张引入改进的“避风港”条款与“通知—删除规则”,从而避免给技术开发者施加过重的负担,为人工智能技术的发展提供制度保障。[7,11,15] 在生成式人工智能侵权第一案中,法院以《生成式人工智能服务管理暂行办法》《生成式人工智能服务安全基本要求》中的公法义务为依据,要求被告承担设立投诉举报机制、潜在风险提示和显著标识等三项义务,并依此判定生成式人工智能服务平台是否要承担版权侵权责任。[18]

 

2.1   “现有技术水平”标准之否定

所谓“现有技术水平”标准,是指按照侵权发生时的技术水平,若生成式人工智能服务平台能够预知和防止侵害的发生,但怠于采取相关必要措施,则应被认定为有过错。[16]23 从表面看, “现有技术水平”标准的内涵似乎很符合我们对过错判定的认知。但若深究便可发现该标准在规范逻辑与实践操作层面皆存在问题。首先,“现有技术水平”标准脱胎于产品责任中的“发展风险抗辩”或“现有技术抗辩”,这一点该标准的主张者也不讳言。[16]22 众所周知,产品责任是典型的无过错责任。“现有技术水平”标准的主张者一方面通过大量篇幅论证生成式人工智能服务平台不应适用产品责任;另一方面又将“现有技术抗辩”改头换面成“现有技术水平”标准,用来判定生成式人工智能服务平台的过错。这显然会导致规范适用上的逻辑错位,使得所谓的过错责任向产品责任转化。其次,从实践操作角度, “现有技术水平”标准也缺乏可操作性。生成式人工智能属于高度复杂的大语言模型,且仍处于高速迭代发展中,因而何为现有技术水平难以衡量。尽管人工智能产业如火如荼,但全球真正量产大语言模型系统的企业屈指可数,且差异较大,难以形成公认的行业标准,确认所谓更好的替代设计也非常困难。[7]126 即使能够确定行业标准,也需要考量标准的高低。若以行业的高标准来划定“现有技术水平”,则初创型中小人工智能企业难以企及,会抑制最具活力的初创企业的发展,致使人工智能成为巨头独享的竞技场。若为照顾初创企业采用较低的行业标准,则意味着头部企业必然符合“现有技术水平”,这会导致它们怠于采取制止侵权的措施,而这些企业恰恰优化算法、防止侵权的能力最强。概言之,依“现有技术水平”标准判定过错容易形成抑或“强人所难”抑或“放任自流”的局面。

2.2 安全保障义务标准之分析

安全保障义务标准的理论依据为“危险控制理论”,由于生成式人工智能服务平台带来的输出侵权内容这一危险,因而应当对其课以平台管理的安保义务,减少侵权的发生。[17]51 对于安全保障义务的内容,主张者列举欧盟《人工智能法案》第14条第4款、《网络信息内容生态治理规定》第7条、《生成式人工智能服务管理暂行办法》第19条以及《互联网信息服务深度合成管理规定》第10条。[17]51 欧盟《人工智能法案》第14条针对高风险的人工智能系统施加了人工监管义务,该条第4款则对委派的监管人的适格性做了具体要求,如能够有效地理解高风险人工智能的能力与不足、了解高风险人工智能内容输出的趋势、能正确解释高风险人工智能输出的内容。国内相关的条款则是从行政管理、公私益保护角度对人工智能平台施加公法义务,主要体现为内容管控、透明度要求、个人信息保护等。在生成式人工智能版权侵权第一案中,法院采用类似思路判定被告是否尽到版权注意义务,包括设立投诉举报机制、潜在风险的提示和显著标识等。

安全保障义务与一般性的“注意义务”不同,只适用于“宾馆、商场、银行、车站、娱乐场所等公共场所的管理人或群众性活动的组织者”等特殊主体。[14]458-459 随着人类活动从物理世界向网络世界迁移,有学者主张将网络技术服务提供者作为新的义务主体,因为“开启或加入交往空间者对其中的他人负有安全保障义务,应在合理限度内照顾他人权益”。[19] 尽管扩张安全保障义务的主体范围日益获得支持,主体范围却依然限于各种类型的网络技术服务提供者。安全保障义务标准的主张者却将生成式人工智能服务平台界定为内容提供者,理由是其对内容生成过程具有“不可或缺”的控制力。[17]51 如前文所言,内容提供者应对侵权内容承担严格责任,安全保障义务并无适用空间。安全保障义务标准除了在证成逻辑上存在缺陷外,所包含的义务内容也与防范版权侵权缺乏相关性。如《网络信息内容生态治理规定》第7条针对的是低俗、血腥、歧视等不良信息,与侵犯版权并不相关,自然不能成为版权注意义务的内容。在有关网络存储空间服务提供商的版权争议案件中,权利人曾试图以服务提供商须审查过滤淫秽内容为由主张服务提供商有内容审查义务,应对侵权内容的传播承担责任,但法院以不相关为由拒绝支持该主张。《生成式人工智能服务管理暂行办法》第19条规定生成式人工智能服务平台配合主管部门督查的义务,要求其“按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明”。该配合执法检查保证技术透明度的公法义务与制止版权侵权也无直接关联。至于《生成式人工智能服务管理暂行办法》第12条规定的显著标识义务,其主要是为了提醒公众相关内容由人工智能生成,以减轻传播虚假信息造成的影响,而并非法院认为的“经标识后,有关权利人能够明确认识到生成物系由人工智能生成,进而采取更具针对性和有效的维权措施,更好地保护其权利”。欧盟《人工智能法案》第50条规定的透明度义务也能佐证这一点。该条第1款要求人工智能服务提供者告知用户其正与人工智能进行交流互动;第2款则要求人工智能生成的音频、图像、视频或文本等内容须被标注为“人工智能生成或操纵”;第4款则特别规定该标注义务尤其适用于深度伪造,而经人工审核且由人类负编辑责任的人工智能生成内容可免于标注。《生成式人工智能服务管理暂行办法》中唯一跟知识产权保护相关的是第4条,概括地要求生成式人工智能服务平台尊重知识产权。 该条款缺乏规范内容,法院以该条为依据要求生成式人工智能服务平台承担风险提示义务并无充分理由。此外,风险提示义务制止侵权的实际效果也不无疑问,只要使用者能隐匿于网络,风险提示并无劝诫作用。

2.3 “通知—删除规则”之障碍

“通知—删除规则”随“避风港”条款诞生,虽然其适用效果受到诸多质疑,但不可否认的是其至今仍在解决网络平台侵权纠纷中发挥重要作用。因此,当前的学界观点和司法判决(设立投诉举报机制)几乎皆认为“通知—删除规则”可适用于生成式人工智能服务平台。尽管如此,在生成式人工智能的场景下,“通知—删除规则”的运行面临难以克服的障碍。

“通知—删除规则”自诞生之初便有其适用限制。美国“避风港”条款在引入该规则时明确将网络接入服务提供者排除在外,仅将网络缓存、网络存储以及网络搜索服务提供者涵盖在内。我国《信息网络传播权保护条例》则规定, “通知—删除规则”仅适用于那些提供网络存储和网络搜索服务的实体,而网络接入服务和网络缓存服务的提供者不受这一规则的约束。在将 “通知—删除规则”扩张至电商平台上的商标侵权时,我国法院将电商平台与网络存储空间服务提供者类比,认为两者具有技术上的相似性。[20] 在微信小程序案中,一审法院则从技术角度认为小程序平台类似网络接入服务提供者,从而排除 “通知—删除规则”的适用。⑭概言之,“通知— 删除规则”的适用局限在立法和司法层面皆得到认可。尽管在我国,“通知—删除规则”经《侵权责任法》第36条的改造逐渐演变为归责条款的一部分,“通知—删除规则”也转变为通知—必要措施,导致其适用范围有所扩张,但并非没有限制。

“避风港”条款之所以将“通知—删除规则”限定适用于特定类型的网络服务提供商,实质上源于不同服务商间的技术差异对利益均衡的影响。首先,删除的措施要考虑技术上的可行性,避免给网络服务提供者施加无法完成之义务。美国“避风港”条款虽然将“通知—删除规则”适用于网络缓存服务提供者,但对其适用的情形做了严格限制,即投诉的内容已经从原始网站上删除或者法院已经下令将投诉的内容从原始网站上删除。因为从技术角度,若原始网站上的内容不删除,则该内容会被再次自动保存到网络缓存服务器中。其次,删除的措施要考虑法律上的可行性。删除措施的不适用在多数情况下是因为法律不能而非技术不能。如,在技术上,网络接入服务提供者可通过断网制止侵权,但网络接入作为最基础的网络服务,若遭到切断会使被投诉方遭受不成比例的损害。典型的示例包括因网站上的一篇文章侵权而导致整个网站下线、用户因为使用P2P软件下载侵权内容导致整个家庭网络被切断。因此,法律基于利益失衡的顾虑规定接入服务提供者不适用“通知—删除规则”。

通过技术可行性与法律可行性来判断“通知—删除规则”的适用范围已在新的网络服务提供场景中得到验证,如微信小程序平台与阿里云服务平台。在技术上,无论是微信小程序平台还是阿里云平台均可通过切断服务制止侵权,因而 “删除”具备技术上的可行性。尽管如此,在微信小程序案中,切断服务却会给被投诉人造成不成比例的损害,因为被投诉人在线提供众多作品的播放,通知人仅投诉一部作品的在线播放侵权,而要制止一部作品的侵权却需切断所有作品的在线播放服务。在阿里云服务平台案中,切断服务会给平台造成不成比例的负担,因为切断服务会使其严重违反合同义务,也会在技术和经济方面给其增加不合理的负担,影响整个云计算行业的发展。[21]

生成式人工智能服务平台无法通过技术可行性与法律可行性的双重检验,因为对其适用“通知—删除规则”目前尚属技术不能。大语言模型并非存储内容的数据库,而是利用人工神经网络对巨量数据进行分析学习后“自主”生产新的内容,若要删除生成的侵权内容,则须对整个模型进行重新训练,而这是个极其昂贵的过程。[22] 法律显然不应当认可一项收益微乎其微但成本高不可攀的措施。有人还提出过滤“有问题”提示词的替代方案 [23],但由于大语言模型生成内容有很高的自主性,模型设计者自身也无法预见提示词产生的具体表达,因此“删除”提示词并非有效的侵权制止方案。此外,介于自然语言的丰富性,用户总能轻易地规避这些“有问题”的提示词。如针对OpenAI构建的安全护栏,网络上有很多绕开建议。[22]

3
生成式人工智能服务平台的版权注意义务内容

注意义务的高低应当与行为造成的风险相对应。[24] 生成式人工智能的应用场景非常广泛,不同应用场景存在不同程度的权益损害风险,因而应当区分应用场景来设定生成式人工智能服务平台的注意义务。欧盟《人工智能法案》便对人工智能设定风险级别,包括不可接受的风险(unacceptable risks)、高风险(high risks)、有限风险(limited risks)和低风险(low risks),并设定了不同的义务内容。⑰生成式人工智能输出侵犯版权内容的风险主要体现为“记忆”(memorization),即记住了训练中输入的某些作品。下文将对“记忆”的风险级别、成因进行分析,然后得出生成式人工智能侵犯版权的救济途径。


3.1 生成式人工智能的“记忆”风险

人工智能系统是否为高风险不仅取决于其执行的功能,还取决于该系统被使用的具体目的和方式。⑱欧盟《人工智能法案》主要界定了两类高风险的人工智能系统:其一,人工智能系统旨在用作须通过第三方事先一致性评估的产品的安全组件;其二,其他明确列举于附件三中主要对基本权利产生影响的独立人工智能系统。[24] 该法案附件三中列举的高风险领域包括生物特征识别、关键基础设施、教育效果评估、雇佣与业绩评测、必要公私服务的获取以及执法决策。由此可见,高风险主要指向利用人工智能自动决策影响公众获取必要资源的公平机会,生成式人工智能显然不在此列。尽管有学者主张,考虑到生成式人工智能可能带来的虚假信息、偏见以及对主体的依赖等潜在风险,这些风险与用于评估学生或员工的人工智能系统所面临的风险相当,因此可将生成式人工智能视为高风险类别。[8]201 但具体到版权领域,生成式人工智能则不涉及高风险。首先,生成式人工智能产生版权侵权内容的概率较低。据国外研究机构进行的大语言模型记忆测试,生成内容与训练材料构成实质性相似的概率仅有0.03%。[25]326 此外,所谓“相似”在多数情况下仅是作品风格等思想层面的相似,并不构成著作权侵权。如,在Getty Images诉Stability AI案中,Getty Images侵犯图片演绎权的主张难以成立,虽然两幅关于足球攻防图片的对比确实让人产生“借鉴”的联想,但相似之处并非受保护的表达而是思想。[25]311 其次,即使生成侵权内容,其对权利人的损害亦有限。生成式人工智能的利用可分为私人与商业性两类。对于私人利用生成的侵权内容,一般不会与被侵权作品的正常利用相冲突,同时因为出于个人学习、研究和欣赏的目的而大概率构成合理使用。对于商业性利用生成的侵权内容,版权人可向商业利用人主张损害赔偿,不存在难以救济或维权成本过高的情形。

3.2 生成式人工智能的“记忆”成因

经典人工智能范式分为符号主义与联结主义。前者是基于规则的推理模型,强调规则上的封闭性;后者是基于数据的推理模型,强调数据上的开放性。[26] 当前的生成式人工智能采用后一技术路线,其开放性意味着人工智能的开发者无法“通过规范其设计和部署过程”解决生成致害内容的问题。[27] 在联结主义范式的指引下,生成式人工智能的开发运行体现为对巨量作品中的现有表达进行拆解、抽象与重新组合,根据大量数据训练提炼出表达联结的习惯,以前面的符号预测后面的内容,具有结果上的不可控性。[28] 因此,即便人工智能的开发者没有刻意模仿某个版权作品,人工智能依然可能生成侵权内容。[29] 据学者进行的大模型记忆测试,在下列情况下,生成内容较易存在“记忆”复制的问题:其一,与特定文本描述相关联的图片更容易被记住,诸如米老鼠、史努比与奥特曼等具有强烈视觉特征的版权形象。其二,在训练语料中反复出现且差异较小的图片,由于一直被相同的关键词标注容易导致“记忆”,如涂鸦艺术家班克西的《女孩与气球》壁画。其三,极其受欢迎的作品容易被记住。如,哈利波特系列小说,因为网络上相关作品内容随处可见。从作品“记忆”的成因可以看出,“记忆”并非人工智能开发者刻意为之,而是根据技术要求对训练语料进行客观标注的附带不可控结果。

3.3 生成式人工智能的“记忆”救济

版权制度被称为技术之子,技术开发者的版权责任一直是版权制度的核心议题之一。著名版权学者Ginsburg教授指出,版权制度试图维持这样一个平衡,即创作者需维持对新市场的足够控制以保障版权的激励意义,但该控制不得窒息新技术的应用。[30] 协调技术发展与版权保护的典型示例当属美国最高院在SONY录像机案中创设的“实质性非侵权用途”规则,即当某产品兼具侵权和非侵权的双重功用时,不能认定产品开发者构成直接侵权。加拿大政府在起草《版权现代化法案》时盛赞索尼案,认为该案体现的技术中立理念有助于“确保经营者在法律允许的范围内开发和向消费者提供创新产品和服务的自由,从而促进竞争和推动创新”。[31] 虽然索尼规则偏爱技术开发者的倾向受到一些质疑,理由为“实质性非侵权用途”并不考量侵权用途的比例,易导致那些大量用于侵权的技术能避开版权法的制裁,但生成式人工智能显然不属于质疑者担忧的情形。上文已经指出,生成式人工智能因“记忆”输出侵权内容的概率极低,在形式和实质上均符合非侵权用途。即便根据经典的汉德公式,生成式人工智能开发者也对生成侵犯版权的内容没有过错。根据汉德公式,当减少侵害的成本小于侵害预期造成的损失时,行为人应当采取相应措施。生成式人工智能造成的版权损失小且侵害概率低,而防止侵害(重新训练)的成本却非常高。此外,认定行为人具有过错是为了激励其尽到合理注意义务,从而达到防止侵权的效果。但鉴于生成式人工智能采联结主义的技术路线,因“记忆”输出侵权内容是根据技术要求对训练语料进行客观标注的附带不可控结果。因此,防治侵权的难度极大,即便认定生成式人工智能开发者有过错也无法实现激励功能。若坚持以不可控的结果认定过错,则会迫使生成式人工智能开发者转而采用符号主义这一可控的技术路线。这有违技术中立要求的技术非歧视原则,即平等对待技术开发者,让市场自发地评判技术优劣,从而推动技术发展。[32]

既然无法认定生成式人工智能开发者就输出侵害版权内容存在过错,那么如何救济版权人因侵权遭受的损失呢?本文认为,救济应聚焦于生成式人工智能的商业利用端,即以商业利用为目的生成侵权内容的行为。首先,个人利用人工智能生成他人享有版权的内容大概率能主张合理使用。我国《著作权法》第24条第1款第(1)项规定“为个人学习、研究或者欣赏,使用他人已经发表的作品”的私人使用例外。虽然有学者主张并非所有私人使用均构成合理使用,还需要通过 “三步检测法”的评估。[33] 如,从网上下载电影供个人欣赏由于会不合理地损害著作权人的合法权益,因而不能主张私人使用例外。但对于生成式人工智能而言,其因“记忆”输出的侵权内容一般皆是网络上特征显著的高频内容,故即使不利用生成式人工智能,公众通常也能方便地从网络免费获取。因此,私人利用人工智能生成含有版权的内容一般不会不合理地损害版权人的合法权益。其次,针对人工智能生成内容的商业利用可使版权人获得较好的救济。从赔偿能力角度,商业利用主体虽然不尽属于资金充沛的“深口袋”,但偿付能力显然要高于私主体,且在商业侵权中赔偿额度通常要高。再者,从商业策略的角度,版权人起诉私人侵权者并不明智,因为这类诉讼既不经济又容易招致消费者的怨恨。[34] 从举证难易的角度,商业侵权由于一般涉及公开传播,因而取证较为容易;而私人侵权通常发生于朋友、家庭等私人环境中,涉及个人隐私因而取证非常困难。最后,规制商业侵权还能促使生成式人工智能服务平台与侵权用户通过合同调配权利义务,降低生成侵权内容的概率,实现负外部性的内部化。如,微软在服务条款中承诺,对于因使用Copilot生成内容而被诉版权侵权的商业用户,只要其遵守Copilot内置的护栏和内容过滤机制,微软将帮助用户应诉并承担因诉讼产生的任何不利判决或和解的费用。[35] 因此,在追究商业用户侵权的情形下,出于提升竞争力的需要,生成式人工智能服务平台有主动承担类似“瑕疵担保责任”的意愿,从而实现侵权负外部性的内部化,促进平台不断改进大模型以降低侵权概率。

4
结  语

自OpenAI推出ChatGPT大语言模型后,大型网络公司纷纷推出自己的生成式人工智能服务。生成式人工智能在技术上的突飞猛进让版权人感到忧惧,进而在世界范围内引发系列版权诉讼。版权制度自诞生便持续面临技术进步的冲击,如何应对已逐步形成共识,即在保护版权人利益的同时保障技术开发的自由。就内容输出而言,生成式人工智能造成版权侵权的风险低、损害小,且侵权是根据技术要求对训练语料进行客观标注的附带不可控结果。因此,不应对生成式人工智能服务平台施加过重的版权注意义务。在生成式人工智能场景下,版权侵权的救济应聚焦于商业利用端,既能较好地保护版权人的合法权益,也能保障服务平台的技术开发自由,还有助于推进侵权负外部性的内部化,实现版权保护与技术发展之间的动态有机平衡。


注  释

(上滑查看)

① 与美国、澳大利亚、德国等国家不同,我国对出版者适用过错推定,且在司法实践中适用了较低的注意义务证明门槛。参见王迁. 网络环境中版权直接侵权的认定[J].东方法学,2009,( 02):15-16.

② Playboy Enterprises Inc. v. Frena, 839 F.Supp. 1552, at 1559( M.D. Fla. 1993). 需要注意的是,在美国版权法中,若某行为被认定为直接侵权,则侵权人的主观心理状态不影响侵权的成立,只是作为法官在确定赔偿数额的考虑因素。

③ Religious Technology Center v. Netcom On-line Communications Services, Inc. 907 F. Supp. 1361( N.D.Cal. 1995).

④ H.R. CONF. REP. NO. 105-796, at 72( 1998).

美国版权法实践中区分直接侵权与间接侵权。虽然美国版权法并没有明确规定间接侵权,但美国法院依据《 美国版权法》 第116条规定所谓“许可权”来认定间接侵权,主要针对那些自身没有实施版权人的独占权但许可他人实施这些独占权的主体。在长期的司法实践中,美国法院在间接侵权的框架下发展出了帮助侵权和替代责任这两类侵权认定标准。See H.R. REP.NO. 94-1476, at 61( 1976). 后来直接侵权与间接侵权的区分经由王迁教授等学者引入国内,成为判定网络服务提供者侵权责任的主要依据。

⑥ Raymond v. Paradise Unified School Dist., 218 Cal. App. 2d 1, 8, 31 Cal. Rptr. 847, 851( 1963); Wright v. Arcade School Dist., 230 Cal. App. 2d 272, 278, 40 Cal.Rptr. 812, 815( 1964).

⑦ EU Artificial Intelligence Act, Article 14.

⑧ 杭州市互联网法院( 2018) 浙0192民初7184号民事判决书;北京市第一中级人民法院( 2014) 一中民五终字第0020号民事判决书。

⑨ 广州互联网法院( 2024) 粤0192民初113号民事判决书。

⑩ EU Artificial Intelligence Act, Article 50.

⑪ 该规章的第7条要求生成式人工智能服务平台不得侵犯他人的知识产权,但该条针对的是内容输入的训练阶段,与本文讨论的内容输出阶段无关。

⑫ Digital Millennium Copyright Act, Sec. 512,( a).

⑬《 信息网络传播权保护条例》 第20条、21条。

⑭ 杭州市中级人民法院( 2019) 浙01民终4268号。

⑮ H.R. REP. 105-551( Ⅱ), 52-53.

⑯ 由于这些“断网”行为会给相关方造成严重的损害,因此通常须经公权力的审查后方能为之。如,根据法国的“三振出局”法案,最终的断网决定需由法院作出;在英国,屏蔽海盗湾网站域名的禁令由法院做出;在我国,关闭以侵权网站的决定通常由执法机关做出。

⑰  欧盟《 人工智能法案》 将不可接受的风险归为禁止性实践,并对高风险人工智能进行重点规制,而对于有限风险和低风险两种情况仅在前言部分的第53段予以界定。

⑱   Explanatory Memorandum of the ArtificialIntelligence Act, 5. 2. 3.

⑲  Sony Corp. of America v. Universal City Studios, Inc., 464 U.S. 417( 1984).

⑳ 一般认为,就过错判定而言,索尼规则比汉德公式对技术开发者更友好。See DiCola P, Sag M. An informationgathering approach to copyright policy[J]. Cardozo L.Rev., 2012, 34: 212.




参 考 文 献

(上滑查看)

[1]       沃尔夫冈·多伊普勒. 《欧盟人工智能法案》的背景、主要内容与评价:兼论该法案对劳动法的影响[J]. 王倩,译. 环球法律评论,2024,46(3):6. 

[2]       Master List of lawsuits v. AI,ChatGPT,OpenAI, Microsoft,Meta,Midjourney & other AI cos[EB/OL]. (202312-27)[2024-06-11]. 

https://chatgptiseatingtheworld. c o m / 2 0 2 3 / 1 2 / 2 7 / m a s t e r - l i s t - o f - l a w s u i t s - v - a i chatgpt-openai-microsoft-meta-midjourney-other- ai-cos/.  

[3]       王俊,冯恋阁. AI画出奥特曼:中国法院作出全球首例生成式AI服务侵犯著作权的生效判决[EB/OL]. (202402-26)[2024-06-11]. 

https://www.21jingji.com/ article/20240226/herald/133a6c2f9c0b045899e4dea10c5778eb. html. 

[4]       徐小奔,杨依楠. 论人工智能深度学习中著作权的合理使用[J]. 交大法学,2019(3):32-42. 

[5]       曹博. 人工智能辅助生成内容的著作权法规制[J]. 比较法研究,2024(1):88-90.

[6]       王利明. 生成式人工智能侵权的法律应对[J]. 中国应用法学,2023(5):32-34. 

[7]       周学峰. 生成式人工智能侵权责任探析[J]. 比较法研究,2023(4):125. 

[8]       徐伟. 生成式人工智能服务提供者侵权归责原则之辨[J]. 法制与社会发展,2024,30(3):190-204. 

[9]       吴汉东. 知识产权侵权诉讼中的过错责任推定与赔偿数额认定:以举证责任规则为视角[J]. 法学评论,2014,32(5):126. 

[10]     王迁. 网络环境中版权直接侵权的认定[J]. 东方法学,2009(2):16. 

[11]     LEMLEY M A,REESE R A. Reducing digital copyright infringement without restricting innovation[J]. Standford Law Review,2004,56(6):1387. 

[12]     徐伟. 论生成式人工智能服务提供者的法律地位及其责任:以ChatGPT为例[J]. 法律科学(西北政法大学学报),2023,41(4):74. 

[13]     European Commission. Liability for artificial intelligence and other emerging technologies[M]. Brussels:Publications Office,2019:27. 

[14]     程啸. 侵权责任法[M]. 2版. 北京 :法律出版社,2016:272,92,458-459.

[15]     PROSSER W L. Handbook of the law of torts[M]. 4th ed. St. Paul,Minn. :West Publishing Company, 2010:185. 

[16]     王若冰. 论生成式人工智能侵权中服务提供者过错的认定:以“现有技术水平”为标准[J]. 比较法研究,2023(5):20-33. 

[17]     杨显滨. 生成式人工智能服务提供者间接侵权责任的承担与限制[J]. 法学家,2024(3):50-52. 

[18]  姚志伟. 人工智能生成物著作权侵权的认定及其防范:以全球首例生成式AI服务侵权判决为中心[J]. 地方立法研究,2024,9(3):1-17. 

[19]  刘文杰. 网络服务提供者的安全保障义务[J]. 中外法学,2012,24(2):402-403. 

[20]  刘文杰. 《电子商务法》“通知—删除”规则之检讨[J]. 北京航空航天大学学报(社会科学版),2019,32(6):15-16. 

[21]  冯刚. 云服务提供商版权责任之探析[EB/OL]. (2020-03-11)[2024-02-01]. 

http://bjzcfy.chinacourt.gov.cn/ article/detail/2020/03/id/4841717.shtml. 

[22]  WILLIAM S M. Will AI destroy the DMCA copyright compromise?[EB/OL]. (2024-02-14)[2024-05-31]. 

https://frostbrowntodd.com/will-ai-destroy-the-dmcacopyright-compromise/#_ftn6. 

[23]     MARCUS G,SOUTHEN R. Generative AI has a visual plagiarism problem[EB/OL]. (2024-01-06)[2024-0607]. 

https://spectrum.ieee.org/midjourney-copyright. 

[24]     袁俊宇. 数字人民币运营机构安全保障义务的廓清

与实现[J]. 当代法学,2023,37(2):57. 

[25]     SAG M. Copyright safety for generative AI[J]. Houston Law Review,2023,61(2):326,311. 

[26]     余成峰. 法律人工智能新范式:封闭与开放的二元兼容[J]. 中外法学,2024,36(3):586-606. 

[27]     徐英瑾. 人工智能哲学十五讲[M]. 北京:北京大学出版社,2021:18. 

[28]     揭其涛,王奕诺. 玫瑰荆棘:生成式AI赋能数字出版内容生产的逻辑、机遇与隐忧[J]. 科技与出版,2024(4):65. 

[29]  SOBEL BLW. Artificial Intelligence’s Fair Use Crisis[J].  COLUM. J. L. & ARTS,2017,41(1):65. 

[30]  GINSBURG J C. Copyright and control over new technologies of dissemination[J]. Columbia Law Review,2001,101(7):1613. 

[31]  HAGEN G R. Technological neutrality in canadian copyright law[M]. Geist M(ed.). The Copyright Pentalogy. Ottawa :University of Ottawa Press,2013:312. 

[32]  SAMUELSON P. Five challenges for regulating the global information society[M]//. Regulating the global information society. Brandon:Psychology Press, 2000:316. 

[33]     王迁. 知识产权法教程[M]. 北京:人民大学出版社,2021:286. 

[34]     BHATTACHARJEE S,LERTWACHARA K,GOPAL R,et al. Impact of legal threats on online music sharing activity:an analysis of music industry legal actions[J]. Journal of Law and Economics,2006,49(1):91. 

[35]  Introducing the microsoft copilot copyright commitment [EB/OL]. (2021-06-22) [2024-0610]. 

https://www.microsoft.com/en-us/licensing/news/ microsoft-copilot-copyright-commitment. 

AUTHOR

王 杰

上海交通大学凯原法学院





END

科技与出版
《科技与出版》旨在搭科技进步与出版创新之桥,传编辑出版与文化传播之经。是CSSCI来源期刊、中文核心期刊、“复印报刊资料”重要转载来源期刊。由清华大学主管,清华大学出版社有限公司主办,中国版协科技出版工作委员会指导。
 最新文章