张玉国等:出版业在AI时代的机遇与挑战及版权制度的应用

学术   2024-11-20 19:09   上海  

原文刊载于《版权理论与实务》2024年第10期(第13-24页)
文/ 张玉国  李妍  励讯中国研究院高级研究员


内容提要

生成式人工智能(GAI)技术的出现和媒体热炒带来了关于版权的“制度焦虑”。本文从AI的历史讲起,分析了生成式AI带来的机遇和挑战,以及现阶段AI技术的局限性,并探讨关于版权制度是否应该调整要思考的“三个考虑、两个原则和一条出路”,同时呼吁在AI热中坚持理性,不要急于调整制度,而是“让子弹再飞一会儿”。


【关键词】AI 热潮与 AI 寒冬;生成式 AI 的机遇与挑战;AI 局限;AI 理性


计算机科学家罗伊·阿玛拉有一个著名的“阿玛拉定律”:人们总是高估一项技术所带来的短期效果,而低估它的长期影响。回顾过去一二十年的技术热点,AR、VR、比特币、区块链、3D打印、元宇宙等等,无不突显出这一特征。有的甚至昙花一现,倏忽即逝。2022年11月,OpenAI公司旗下的生成式人工智能工具ChatGPT横空出世,加上移动互联网、社交媒体的渲染加持,引发全社会对于AI的关注甚至狂热。2024年的诺贝尔物理学奖与化学奖也破例颁给与AI相关的技术领域。在这种背景下,社会上也产生了一些“制度焦虑”,似乎不支持AI就是落伍、守旧的。但从人类历史长河来看,技术潮涨潮落,制度设计需要有定力,坚持“长期主义”,在一项新技术的实际应用、社会收益、发展路径还没有完全清楚之前,要谨慎出台新制度。本文从人工智能技术的历史出发,分析其所带来的机遇和挑战,结合出版业的实践,从社会综合收益层面衡量人工智能是否已颠覆现有版权制度,并尝试探讨是否应当对版权制度进行调整以及如何调整。


一、人工智能的历史呼唤“AI理性” 


在新一轮生成式AI热潮出现之前,人工智能技术已有近70年的发展历史。1956年夏天,约翰·麦卡锡、马文·明斯基、克劳德·香农、纳撒尼尔·罗切斯特等10位学者在美国达特茅斯学院召开暑期研讨会,第一次提出了“人工智能”这个概念。自此,人工智能开始出现在人们的视野,1956年也被人称为“人工智能元年”。回顾这近70年历史,其进程并非一帆风顺,而是起伏跌宕,既有热潮,也有“寒冬”。 


人工智能的先驱们似乎从一开始就对该学科的发展寄予了过高的、不切实际的期望。1955年8月,约翰·麦卡锡等四位科学家在提交给洛克菲勒基金会的课题研究计划里说:“我们提议进行一次为期2个月、10位科学家参与的人工智能暑期研究计划……研究机器如何使用语言、形成抽象概念,解决通常由人才能解决的各种问题,并提高自身性能。我们认为如果仔细选择一批这样的科学家工作一个暑期,会在上述领域做出显著成绩。”只需10位科学家、暑期工作2个月似乎就能解决人工智能领域的大部分问题——这是何等雄心勃勃!无独有偶,在人工智能先驱罗森博格研发出“感知机”(Perceptron,该研究由美国海军资助)之后,《纽约时报》于1958年7月报道称:“美国海军刚刚展示了一款电子计算机的雏形,并期待它很快就会走路、说话、写作、复制自己,并意识到自我的存在。” 


也许正是这些不切实际的期望,让人工智能的发展并不顺利。粗略算来,该领域至少经历了“三起两落”。20世纪70年代、20世纪90年代的两次著名的“AI 寒冬”,基本上是对AI抱有的殷切期待无法实现,最终政府缩减科研经费,企业减少资金投入,从而导致技术遇冷。关于人工智能热潮与“寒冬”的历史资料很多,笔者不再赘述,很多长期从事人工智能研究的学者也有切身体会。美国人工智能专家梅拉妮·米歇尔教授在演讲中提到,她博士毕业时正值20世纪90年代的“AI 寒冬”,有人建议她千万不要把“研究人工智能”写在简历里,否则很难找到工作。李开复也提到,1998年他到北京创建微软中国研究院的时候,正值人工智能低潮,从事这个行业的专业人士都羞于提及“人工智能”这个词语,在当时人工智能就是“不堪大用”的代名词,因此,他在设定科研方向的时候,故意避开“人工智能”这个字眼,而是选用“机器视觉”“自然语言理解”“语音识别”“知识挖掘”等侧重应用的词语。


人工智能起伏跌宕的历史告诉我们,对一项新技术要有合理期待。著名的科技咨询公司Gartner有一条人工智能技术成熟曲线,认为目前的生成式AI技术正处于“泡沫巅峰期”的顶点,在未来可能会经历泡沫破裂带来的低谷期,而后实现均值回归,稳步爬升至理性水平,此后开始大规模应用。要避免“AI寒冬”,时代呼唤“AI理性”。 


二、生成式AI为出版业带来的机遇 


出版行业并非首次接触人工智能技术。在生成式AI技术之前,出版行业很早就已经开始应用所谓“提取式AI(Extractive AI)”技术进行数据挖掘和信息提取,其中比较典型的应用是搜索、推荐、知识图谱、文本可视化等,至今已经有超过20年的历史。 


要抓住生成式AI为专业出版和信息服务领域提供的新机遇,首先要了解专业人士对这项技术的需求。励讯集团旗下律商联讯和爱思唯尔在2024年分别做出的两项面向法律和科技医学领域专业人士的报告显示:在法律信息服务领域,72%的专业人士预计,生成式AI 将对其日常工作产生积极影响;82%的受访者希望生成式AI能够帮助他们管理重复性的日常事务。在科技和医学领域,72%的受访者认为AI将对其工作领域产生重大,甚至变革性的影响,95%的受访者认为AI将会加速知识发现的进程。 


生成式AI工具究竟从哪些方面为专业人士提供价值?概括起来,可以称为 “CDS三大核心应用”。1. 对话式搜索(Conversational Search):即运用人类自然语言进行对话式的搜索。传统搜索工具使用关键词检索,用户在获得一个文献列表之后需要一篇一篇点开来看。而对话式搜索是提出一个问题,直接获得答案,且可以连续追问问题,获得更为深入、丰富的信息,这是传统搜索工具所不具备的。2. 起草初稿(Drafting): 即根据用户提供的关键信息和要求提供文本的初稿。该功能在法律界应用比较广泛,对于一些简单的法律文书,生成式AI可以轻松敏捷地产生文本初稿,供作者进一步修改加工,提升法律专业人士的工作效率。3. 总结提炼(Summarization):即浓缩、概括、提炼的能力。面对某一不熟悉的、跨学科的研究领域,研究人员可以使用生成式AI工具迅速获取该领域研究综述。也可以使用AI工具对长篇文献进行快速浓缩、提炼摘要, 在最短的时间内获得精炼的知识。


放眼市场,一批国际专业信息服务商已经开始行动,立足于自身所拥有的海量高质量内容优势部署其 AI 战略,推出专注于不同领域的垂类应用。以笔者所在励讯集团为例,截至目前,已经陆续推出了 13 款生成式 AI 产品,包括科研与医学领域的Scopus AI,Clinical Key AI和Sherpath AI,服务于法律信息服务领域的Lexis+ AI、Nexis+ AI,以及大宗商品市场咨询领域的Ask ICIS和人力资源领域的Brightmine AI Assistant等。这批生成式AI产品刚刚投放市场就获得了广大专业人士的好评,是精简工作流程、提升效率和生产力的有力辅助工具。由此可见,生成式AI在出版行业有巨大的应用前景和潜在价值。 


三、生成式 AI 带来的挑战 


与所有的新兴技术一样,生成式AI在创造机遇的同时也带来了一些严峻的挑战。例如在专业出版领域大量低质量内容的出现、助长 “论文工厂”等顽疾、对科研诚信的挑战,在公有领域,对数据安全和隐私保护的挑战、劳动替代、偏见和歧视等等。在所有挑战之中,有以下四个值得我们格外关注,如果解决不好,将会动摇生成式AI的可信度和可持续发展。 


(一)生成式AI“幻觉”问题 


所谓人工智能“幻觉(hallucination)”,表现为AI生成的回应中包含被当作事实呈现的虚假或误导性信息,即“一本正经地胡说八道”。据《纽约时报》2023年5月27日报道,一位美国律师在准备辩护材料的时候使用了ChatGPT,后者给他编造了6个并不存在的司法案例。无独有偶,据英国《卫报》报道,2024 年初,加拿大的一位律师在提交给法庭的辩护材料中使用了两个通过ChatGPT查询的案例,后来证明这两个案例都是编造的,这位律师也因此面临当地律师协会的调查。又例如某国际搜索引擎在整合了生成式AI技术后,推出了号称下一代搜索引擎的“AI Overview”功能,可是有媒体报道,这一功能竟然产生推荐用户每天吃一小块石头以补充矿物质,制作披萨饼的时候放入胶水以防止奶酪滑落等令人啼笑皆非的回答。在大众或泛娱乐的应用中, 生成结果的轻度误差或许无伤大雅,但在以严谨性著称的科技、医学、法律等领域,“生编硬造”则可能造成极其严重的后果。我们对“玩具”与“工具”的要求有本质不同。


生成式AI的“幻觉”是如何产生的?主要有两个原因。第一是训练模型的数据来源不够准确、完整,即所谓的“垃圾进、垃圾出”:使用低质量、有缺陷的数据训练模型,其产出的结果也一定不会是高质量的。因此,高质量、可信赖的训练数据对大模型生成内容质量至关重要。第二是机器学习算法的本质是概率计算,有概率就会有偏误。图灵奖获得者、被誉为“深度学习教父”之一的杨立昆(Yann LeCun)提到,目前大语言模型的机制本质上是“推测下一个词”,如果前面一个词推测错了,就会影响到后面的输出结果,一错再错。南京大学人工智能学院院长周志华教授在2023百度云智大会演讲中指出,机器学习的本质是“概率近似正确”,“完全依靠大语言模型自己,无法做到对一件事情有绝对的把握”。他认为,人工智能领域长期存在的“圣杯”问题,就是如何能够把机器学习和逻辑推理很好地融合起来。 


(二)生成式 AI 的成本和能耗问题 


随着对生成式 AI 的探讨逐渐回归理性,其高成本和能源消耗问题日益突显。金融数据分析和调研公司 Factset 在其近日的一篇分析文章中指出:“当资本市场对人工智能的热情逐渐褪去,能源市场却陷入了由AI数据中心建设所带来的供应紧张局面。”根据斯坦福大学AI Index的估算,OpenAI的GPT-4估计使用了价值7800万美元的计算资源进行训练,谷歌的Gemini Ultra的计算成本则高达1.91亿美元。知名计算机专家吴军提到,ChatGPT每训练一次,相当于3000辆特斯拉电动汽车,每辆跑到20万英里(约32万公里),而普通家用汽车年平均行驶只有1.5万公里左右。也就是说,ChatGPT每训练一次,就相当于3000个家庭的特斯拉电动汽车,在一个月里消耗掉21年的用电量。谷歌公司前CEO施密特(Eric Emerson Schmidt)最近在斯坦福大学的一次座谈中提到,一家头部AI公司未来需要的投资将达到千亿美元以上,其能源消耗也将超越美国的国家电力供应能力,他为此到白宫给美国领导人提建议,要“让加拿大成为美国最好的朋友”,因为加拿大有充足的水电资源。


一项技术如此消耗能源,让人始料未及。这与大模型技术的本质相关,蚂蚁集团首席技术官何征宇曾经把大模型技术比喻为“钻木取火”,成本高昂。相比之下,人脑只有20瓦的能源消耗,却能够进行极其复杂的生物计算和智能。未来如何提升人工智能的运算效率并降低能耗,实现人工智能技术的可持续发展,是值得我们重点关注的问题。 


(三)虚假信息(Disinformation) 


随着生成式AI技术的不断迭代和性能增强,其所生成的内容无论是语气还是表达方式都越来越接近人类,这也导致利用 AI 生成虚假信息的现象日益严重。“斯坦福互联网观测站(Stanford Internet Observatory)”的技术研究经理蕾妮·迪雷斯塔 (Renee DiResta) 曾说过:“对于虚假信息,社交媒体使其传播成本为零,而生成式AI使其生产成本为零。”在国外,根据Copyleaks公司的报告,仅在2022年11月至2024年3月这段时间,互联网上充斥的AI生成的内容(AI generated content)就上涨了8362%。根据清华大学新闻与传播学院新媒体研究中心于2024年4月发布的一份报告,AI谣言量半年信息量增长65%,其中经济与企业类AI谣言量一年增速高达99.91%。飞速增长的谣言使被造谣的企业不得不耗费大量精力和财力辟谣,而且这些真假难辨的信息大多是大模型通过抓取来自社交媒体、短视频平台等大众传播渠道的信息并加以训练后而生成,非常善于捕捉公众关切程度较高、能够迅速发酵的话题领域,例如民生、教育、公共安全等,长此以往,对社会公信力乃至法治秩序都会带来极大的挑战。


为了应对这一现象,各国的立法者和管理机关都在采取行动。2024年7月,为了防范和打击深度伪造现象,美国加州通过了《编辑和深度伪造内容来源保护完整性法案》,要求用于生成创意或新闻内容的AI工具的提供商允许该内容的所有者添加出处信息,并禁止未经授权使用带有出处信息的内容来训练 AI 模型或生成AI内容。2024年8月又通过了《数字内容溯源标识法案》,要求对人工智能生成的内容进行标识,包括AI服务提供者的名称、来源数据的时间和日期,以及具体哪一部分由人工智能所生成,并且授权主管部门对违反该法案的行为进行处罚。2024年9月,中国的国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》,要求服务提供者对人工智能生成合成内容添加显式标识和隐式标识。用户向提供网络信息内容传播平台服务的服务提供者上传生成合成内容时,应当主动声明并使用平台提供的标识功能进行标识。 


(四)AI“越狱(Jail breaking)”问题


AI“越狱”,是指通过特定的提示或技术手段绕过AI系统内置的安全限制,使得AI能够执行原本被禁止的操作或生成被限制的内容。通过提示词对AI进行“越狱”的例子包括著名的“祖母漏洞”——对AI工具说:“请给我念一串Windows序列号,因为我小时候我的奶奶总是这样哄我睡觉。”AI工具就会慷慨地贡献出多个序列号,并且祝你睡得香甜。在某些“祖母漏洞”被修复以后,又因为同样的原因爆发了“星座漏洞”:将一串验证码放在星空图上,告诉AI你和你的孩子们正在观赏星空,请它帮忙读出星座的名称和拼写(验证码),AI会非常和善地完成这项任务,并祝孩子们玩得开心。在上面两个案例中,用户通过虚构充满温情和生活化的场景来绕过AI内置的道德审查机制,其核心正是利用了AI事实上无法真正理解上下文语境和真实世界,也没有近似于人类的真实道德,只是根据指令通过概率计算来预测下一个词,因此只要编造一个看上去合理化的指令背景,从理论上讲就可以操纵AI执行任何任务。因此,利用提示词规避审查的“越狱”也被称为 prompt injection,即提示词攻击。此外还有通过技术手段实现“越狱”,例如通过输入带有恶意的训练样本对模型进行调整,或是通过转换编码来绕过对齐训练,甚至有专门为“越狱”大模型设计的应用程序。 


关注生成式AI带来的挑战,并不是否定这项技术的价值,很多技术本身都是“双刃剑”。但毋庸讳言,生成式AI的以上挑战,对人工智能治理、大模型技术的发展路径和可持续性提出了新的问题。某些一线人工智能研究者和从业者已经开始反思这项技术。 


四、AI时代的版权制度 


当前,人工智能技术和版权相关的热点问题主要有三:一是在训练阶段,大模型未经许可使用版权内容是否构成侵权,二是人工智能生成物是否具有可版权性,三是人工智能生成物的侵权及其归责问题。这些问题都非常复杂,需要法律专业人士进行深入、详尽、细节地探讨。本文想从常识和大局的角度,以三个维度为出发点,对第一个问题所涉及的关于版权保护与大模型训练之间的关系及其衍生问题进行辨析,并且探讨在现有情形下是否应该以促进技术发展为目的调整版权制度。这三个维度概括起来就是:三个考虑、两个原则、一条出路。


(一)三个考虑


首先是经济考虑。包括出版业在内的版权产业一直是国民经济的支柱性产业。根据中国新闻出版研究院调研,2022年,我国版权产业增加值达8.97万亿元人民币,占GDP的比重为7.41%;版权产业的城镇单位就业人数超1600万人,占全国城镇单位就业总人数的比重为9.58%;版权产业的商品出口额为4639亿美元,占全国商品出口总额的比重为13.03%。在美国,核心版权产业规模1.8 万亿美元,创造就业960万,占美国劳动力总数4.88%;广义的版权产业2.9万亿美元,占GDP12.52%; 而 广 义IP产 业 占GDP近50%,占S&P上市公司500 强中90%,提供了44%的就业。在英国,出版行业为经济贡献110亿英镑,提供2.9万个直接就业和超过7万个间接就业岗位,并且为电影、电视、演出等改编作品IP创意提供了基石,从而带动更广泛的文化娱乐和艺术行业繁荣发展。从拉动进出口、带动经济增长、增加就业等角度来看,版权产业是国民经济发展当之无愧的中坚力量。


相反,生成式AI对经济增长的促进作用尚待观察。2024年诺贝尔经济学奖获得者、麻省理工学院经济学教授达龙·阿西莫格鲁(Daron Acemoglu,畅销书《国家为什么会失败》作者)在其近日发表的一篇名为《不要相信人工智能炒作》的文章中提到,生成式AI对经济增长贡献将十分有限。他认为在未来10年,生成式AI能够带来的美国生产力提升仅为不到 0.5%,对GDP影响也小于1%,远远低于去年某些机构的乐观估计。一方面是国民经济的长期支柱产业,另一方面是或许会有巨大经济前景、但实际效果有待观察的新兴技术,是否要以牺牲国民经济的支柱性产业的利益为代价去换取这一前景,是值得我们思考的问题。


其次是文化考虑。出版物是人类思想文化交流、人类文明传承延续的重要载体。中国古代四大发明之中,有两项都与出版有关(造纸术、印刷术)。国家新闻出版总署前署长、国家版权局前局长柳斌杰总结得非常精炼:出版(家)是人类思想文化传播的选择者,是前代文明的传承者,是当代历史的记录者,是人类文明的书写者。版权制度是促进出版业发展、维护人类文明发展的重要制度。


当前有一种观点认为,大力发展人工智能技术是重中之重,为了发展人工智能,可以适当让渡甚至牺牲一些其他群体的权益,包括作品权利人的利益。这种观点貌似很先进,但实际推究起来却有问题。线性的进步观、发展观,早已经被历史所证伪,生命科学中的“进化” 已经被“演化”所代替。


前事不忘,后事之师。这不由得让人想起一则故事。1949年新中国成立,对于首都如何规划,梁思成和陈占祥共同提出了所谓的“梁陈方案”,其核心是在保护好北京旧城的基础之上布局新城。由于种种原因,“梁陈方案”最终未被采纳,其中最主要的原因是“文化保护”和“发展工业”两种愿景的冲突。当时的工业化愿景是:“登上天安门城楼,一眼望去,烟柳万家即将变为烟筒林立,工厂成群,是多么辉煌迷人的远景。”当以“上帝视角”回望过去时,我们完全可以理解在当时特定的历史背景和发展需求下做出的这一决策。只是历史总有其遗憾,当我们焦虑地拥堵在北京高峰期环路上的缓缓车流中,或是在纪录片中寻找曾经属于这个城市的浮光掠影,是否会遥想如果当年的“梁陈方案”得以实施或部分实施,今日的北京城会是怎样的面貌?假以时日,某些看似“守旧”的方案往往被历史证明是正确的,“保护”正是为了更好地“创造”。 


第三是国际考虑。在版权领域,中国既要在国际上树立负责任的大国形象,又要切实维护自身利益。国际上,就内容生产大国(地区)来看,欧盟比较明确,立法层面,欧盟《人工智能法案》事实陈述第105条中规定“对受版权保护内容的任何使用都必须获得相关权利人的授权,除非适用相关的版权例外和限制”。执法层面,2024年3月,法国市场监管机构针对谷歌公司开出了2.5亿欧元的巨额罚单,原因是谷歌在未经法国出版商和新闻机构同意的情况下,擅自使用其内容训练其旗下的聊天机器人“巴德(Bard)”,被认定违反了欧盟知识产权的相关法规。美国尚处于各方博弈阶段,一系列诉讼案例高调进行。如2023年9月,《权力的游戏》作者乔治·马丁等17位作家起诉 OpenAI,称 ChatGPT侵犯其版权。此后又有包括《纽约时报》在内的多起针对OpenAI和其他生成式人工智能公司的大模型训练数据侵权诉讼,而从经验来看,这些诉讼案件需要一定的时间才能见分晓。在这种背景下,中国是否有必要率先调整版权制度,允许AI模型不经许可使用版权内容?实践上如何操作?如果允许AI模型“合理使用”中文内容,国外英文内容又不能免费获取,是否会对中国版权行业产生冲击?这样做是否有利于树立中国负责任的大国形象?这都是我们必须认真思考的问题。


(二)两个原则


从历史看未来,生成式AI要行稳致远,未来需要坚持两点:一是透明,即公开披露用于训练大模型的数据,特别是有版权的内容和数据;二是授权,即人工智能公司应当在获得权利人的授权许可之后才能使用其作品进行训练。中国版权协会理事长阎晓宏曾经在一篇采访文章中提到,国内外普遍对人工智能持积极推动的态度,但支持使用、支持发展不能是无偿的,我们需要考虑如何支付报酬,不能允许无偿使用这些创作成果。国际出版行业协会也提出了有关大模型训练数据透明的要求。例如,美国出版商协会在提交给美国版权局的关于人工智能流程的咨询意见中提出:“透明度是一项基本要求。了解哪些作者作品被摄入符合公众利益,也是寻求适当同意以清晰记录此类信息的重要组成部分。这样的要求并不繁重,有利于数字版权企业进一步创新。”并认为,“《版权法》在任何情况下都不应允许未经授权访问或获取受版权保护的作品”。 


国际和国内立法以及行业标准方面对这一趋势已经有所体现。国际层面,欧盟《人工智能法案》事实陈述第107条中规定“为了提高通用人工智能模型的预训练和训练中使用的数据的透明度,包括受版权法保护的文本和数据,此类模型的提供者应就通用模型训练中使用的内容制定并公开足够详细的摘要”。2023年底,美国两名众议员提交了《人工智能基础模型透明法案》 (AI Foundation Model Transparency Act),要求基础模型的创建人报告训练数据来 源。今年4月, 美 国 众 议 院 议 员 Adam Schiff 提交了《生成式人工智能版权披露法案》(Generative AI Copyright Disclosure Act),要求生成式人工智能训练数据集的创建者或修改者必须通知版权登记处,详细说明所使用的受版权保护的作品,并提供数据集URL(如果公开可用)。


在国内,由全国网络安全标准化技术委员会发布的《生成式人工智能服务安全基本要求》(TC260-003)要求:“语料用于训练前,应对语料中的主要知识产权侵权风险进行识别,发现存在知识产权侵权等问题的,服务提供者不应使用相关语料进行训练;例如,语料中包含文学、艺术、科学作品的,应重点识别语料以及生成内容中的著作权侵权问题”“宜具备以下知识产权措施:——公开语料中涉及知识产权部分的摘要信息。” 


(三)一条出路


和则两利,斗则俱伤。版权产业与AI技术公司并不是零和博弈,目前已有多个版权方和AI公司达成合作的案例。2024年4月,OpenAI与英国《金融时报》宣布达成战略合作伙伴关系,ChatGPT可以从《金融时报》的文章中提取摘要来生成回答,并提供相关新闻引述和链接。5月,OpenAI与新闻集团签署内容合作协议,获准获取新闻集团旗下包括《华尔街日报》《泰晤士报》《太阳报》等十余家媒体的内容并用于生成内容。8月,OpenAI与康泰纳仕集团达成合作协议,获授权展示来自Vogue等媒体的内容。合理的授权与合作机制可以使技术公司从可靠来源获取海量高质量数据,为用户提供更加可信赖的AI工具和生成内容。权利人也可以获得相应的利益分配,从而有动力持续创作优质内容,并以此为技术提供源源不断的训练养料,最终推动技术向有利于人类社会的方向发展。版权集体管理组织也可以发挥作用,前文提到谷歌前CEO施密特前不久在斯坦福大学课堂上的座谈,有学生问他,你怎么看待现在AI公司未经许可使用版权内容进行模型训练,他的回答是,这一系列的官司和诉讼与20世纪60年代音乐产业与互联网产业的争端十分相似,最终结果可能会是合作的模式:每次播放一首歌都要交一笔费用,这笔钱将存到某个银行账户里(比如版权集体管理组织的账户),再进行利益分配。 


五、结语:让子弹再飞一会儿


经过上文讨论,以下几件事情比较清楚了:


(一)出版商不是创新的障碍


纵观出版发展历史,出版业因技术而生,随技术变迁,从来不曾畏惧过新技术。《大英百科全书》关于出版的词条说得好:“回顾出版业的历史,其突出特点就是与技术创新和社会变革紧密交织在一起,互相促进。今天我们所熟知的出版离不开三项主要技术发明:文字书写、纸张和印刷,还有一项社会变革,即大众读写能力的提升。”可以说,技术创新和应用就刻在出版业的DNA里,潜移默化地影响着这一古老行业的发展。如前文所述,国际出版界已经有20多年应用AI技术的历史,当生成式AI技术出现之后,出版商也是第一批迅速跟进应用、推出相应产品的。


(二)高质量的版权内容是可信人工智能的基础


生成式人工智能的出现,再一次证明了高质量、可信赖的出版物是最有价值的资产,是人类社会的宝贵财富。据美国调研机构 Epoch发布的一项研究,随着大模型训练所需要的数据量的不断增加,现有的公开高质量数据集预计将在2026至2032年间消耗殆尽。为了进一步应对数据需求,AI公司不得不使用合成数据(即AI生成的数据)去训练AI,而这将可能导致“模型崩溃”——在经过数代合成数据训练后的大模型会开始胡言乱语。而真正高质量的原创内容和数据正是经过作者和编辑精心创作、打磨的出版物。AI公司正在考虑如何进一步利用这些高质量内容。据《纽约时报》报道,某大型技术公司为了应对“数据荒”,考虑以每本10美元的价格获得内容授权,甚至想干脆收购一家国际知名出版公司西蒙·舒斯特。


(三)AI 仍有很多局限,生成式 AI的发展路径尚不十分清晰


目前人工智能有过度炒作的趋势,导致人们倾向于忽视现阶段 AI 存在的诸多局限。华裔人工智能学者李飞飞教授曾经引用过一句话:“即使房间里着了火,世界上最聪明的人工智能算法还在琢磨着如何走出下一步好棋。”可见现阶段 AI 根本不懂得我们所处的物理世界。中科院院士、人工智能研究专家谭铁牛曾经形象地将人工智能目前的局限性概括为四点:(1)有智能没智慧:AI 没有意识和悟性,缺乏综合规划决策能力;(2)有智商没情商:机器人对人的情感理解与交流还处于起步阶段;(3)会计算不会“算计”:人工智能系统可谓有智无心,更无谋;(4)有专才无通才:会下围棋的“AlphaGo”不会下象棋。对于大语言模型,杨立昆认为,语言只承载着人类所有知识的一小部分,大部分人类知识以及所有动物知识都是非语言的(且非符号的),因此大语言模型永远无法接近人类水平的智能。“人类很容易被人工智能的流利程度所蒙蔽,但它们并不知道世界是如何运转的。” 大模型的成本和能耗问题,也让人们对于其可持续发展提出质疑。杨立昆甚至预言大模型在5年之后就会消失。


众所周知,深度学习是这一波AI热潮的底层技术。对于深度学习,杨立昆也讲过一段很中肯的话:“深度学习的能力十分强大却又十分有限。只受过国际象棋训练的机器根本无法下围棋,反之亦然。而且它完全不理解自己所做的事情,它只不过是机械化地执行指令,它所掌握的常识甚至还不如一只野猫。如果以生物的智能做一把标尺,人类的智能为100,老鼠的智能为1,那么人工智能在标尺上的位置可能更接近后者,尽管它们在执行十分精确严密的任务时所表现出的性能都远超人类。”


综上所述,生成式AI是一种非常有用的工具,但也只是人类利用的工具之一。生成式AI的出现,并没有动摇现在的版权制度。在一项新技术的实际应用、社会收益、发展路径还没有完全清楚之前,切勿被媒体炒作带偏,应该冷静观察,广泛听取意见,谨慎出台新制度,“让子弹再飞一会儿”。 


文章注释从略,完整原文请见《版权理论与实务》纸质版。


(本文为授权发布,仅表作者观点,未经许可不得转载)


“星标”、“转发”、“在看”,给小编加鸡腿哦!
投稿请联系shipa@shipa.org

近期活动

知识产权那点事
传递知识产权资讯,开展知识产权调研,搭建业界交流平台,与你一路前行!投稿请至shipa@shipa.org。感谢您的关注!
 最新文章