贾开|人工智能争议之一:开源是发展AI的合适路径吗?

科技   2024-11-02 17:58   北京  

作者 | 贾开  清华大学管理学博士、上海交通大学国际与公共事务学院副教授
转自 | 实验主义治理


编者按:围绕人工智能的争议正在各个层面展开,这并不一定表明人工智能技术已日臻完善并因此开始引发全面的社会后果,反而可能意味着人工智能作为一种技术系统现象正在进入新的一轮变革期。在此背景下,诸多争议并不止于表面,其可能反映了人工智能乃至当前数字化转型基础结构的变化正在孕育之中。以此视角出发,本公号将陆续刊发系列针对人工智能现象的观察评论文章,本篇文章是该系列的第一篇,以供读者参考批评。


以Yann Lecunn vs. Yoshua Bengio, Marc Andreessen vs. Vinod Khosla,Meta vs. OpenAI,J. Doe 1 et al vs. GitHub, Inc. et. al.等颇具戏剧性的对立为标志,围绕人工智能是否需要开源的争议正在科学研究、风险投资、产业公司、法律诉讼等各个领域普遍展开。在此背景下,AI开源争议已不能再被视为局限于技术层面的开发模式、商业模式之争,而是上升为事关人工智能未来发展道路选择的时代“大问题”之一,并因此将影响人工智能技术演化、人工智能安全治理、人工智能普惠应用等诸多相关议题。


另一方面,考虑到“开源”作为数字时代知识生产与演化基础模式的重要地位,其在应用于人工智能领域时所面临的新挑战,同样也意味着我们正在进入数字生产模式更迭变革的关键时期。自上个世纪后半叶以来逐渐成熟而稳定的技术与产业演化形态,正在人工智能背景下进入新一轮的调整与变革期。



一、 人工智能开源的争议

开源作为软件乃至数字经济时代一般意义上的知识生产与再生产模式,已经得到了广泛的认可和支持。尽管不同于工业时代的常规认知,通过开放源代码以促进更多人参与获取、修改、分发进而产生持续创新的理念已经成为数字时代的普遍实践。开源软件在其发展历程中,不仅积累了蔚为大观的软件生态体系,同等重要的是创造了新的开源治理体系。左版权及其他开源协议建构了新型开源产权规则,在避免“搭便车”与产权纠纷的同时也维系了持续开放的再生产过程,而礼物文化、多元动机、对话共识、分叉竞争等一系列社区治理机制,也将开源从个体行为转变为集体行为从而实现了规模经济和范围经济。正如谷歌首席经济学家哈里·范里安所言,数字时代的技术创新遵循组合创新的规律,而其基础就是海量的开源软件。


但开源这一基础模式在人工智能时代却正在遭遇新挑战,并引发了持续性的广泛争议。支持者(代表如Yann Lecunn、Marc Andreessen、Meta等)认为,人工智能与其他软件技术一样,仍然应以开源模式展开,这是数字时代促进创新及普及应用的最佳模式,只有在开放过程中才可能形成普遍的创新生态,LLaMA便是支持者的坚实案例。无论是否是Meta公司的初衷,LLaMA模型开源后快速引发的系列创新仍然超出了人们的想象:斯坦福研究者的Alpaca仅用52K数据微调以及不到600美元的训练成本就达到了GPT-3.5的可比性能,UC Berkeley、CMU等多个大学联合研究的Vicuna以不到300美元的训练成本达到了GPT-4的可比性能,而UC Berkeley AI Research Institute(BAIR)发布的Koala模型利用网络高质量数据训练在至少一半的情况下达到了ChatGPT的可比性能1。在LLaMA开源之前,我们很难想象能够以低成本实现与GPT相当的性能水平,上述实践充分展现了通过高质量数据集使本地化部署的小模型实现大模型性能的可能性。


     

另一方面,反对者却(代表如Yoshua Bengio、Vinod Khosla、OpenAI等)并不这么认为,商业竞争和安全风险是经常被提及的两个原因。作为功能性能尚不完善并可能引发潜在社会风险的通用技术,开源人工智能被认为是“不负责任”的。Bengio反驳LeCun的三个观点具有代表性:开源AI的支持者没有给出充分理由以说明开源一个能力强大但价值未对齐的人工智能是否是安全的、开源AI将恶化人工智能安全研究投入远小于性能研究的结构性偏差(因为开源所鼓励的自发性并不能解决此种实质偏差)、人工智能的强大能力很可能使之被误用(类比于核武器被普通人拥有并误用)而开源则为此提供了工具或渠道。2OpenAI联合创始人、首席科学家Ilya Sutskever同样表达了类似观点:从竞争视角来看,GPT-4消耗了OpenAI大量资源,而很多公司都在做类似事情,由此构成了一个充分竞争的成熟市场,开源并不符合AI领域的知识生产规律;从安全视角来看,考虑到GPT-4的性能如此强大,因而开源将使得人们能够轻易地用这些模型“作恶”。也正是因为考虑到这两点,OpenAI在2023年发布GPT-4时并没有像之前那样公开模型的详细信息,模型训练的数据集、参数规模、能耗、训练硬件等信息都没有向公众公开,而此举同样引发了业界的普遍争议3


      

如果仅从上述罗列来看,围绕AI开源的争议似乎只是反映了各位预设观点或态度的不同。事实上,Meta的LLaMA团队被认为在成立之初就被Yann LeCun注入了开源基因,其整个价值观(mindset)都围绕开源而展开。但这样的理解可能大大简化了相关争议的复杂性,及其之于AI未来发展的重要性。拜登政府2023年10月发布的《安全、稳定、可信人工智能的开发与应用行政令》的第4.6条要求即被认为“非对称”地加重了开源AI的合规负担,因其要求对能够广泛获取的、具有“双重用途”(dual use)的大模型展开监管政策的研讨,而并非相应针对闭源AI提出类似要求。换言之,如果仅仅只是观点之争,那么公共政策或法律规则理应权衡二者并作出折衷选择,但拜登政府行政令所体现出的倾斜表明,AI开源争议正在产生实质影响,而对此争议的回应也是迫在眉睫的重要问题。




二、 人工智能的特殊性以及开源在当前的困境


AI开源问题的特殊性主要体现为,传统开源及开源治理问题所针对的软件生产与再生产现象与规律,与AI生产与再生产过程并不完全一致。传统开源软件的生产逻辑在于,通过开放源代码以使任何人都可以公开获取、使用、修改、发布,并在不断回馈的过程中实现代码生态的丰富与完善;与此相对应,开源治理的制度逻辑在于版权规则创新,以协议的方式解决搭便车与投机问题。正是基于这一生产逻辑和制度逻辑,开源软件才体现出了透明民主、多元包容、参与协作、开放创新等系列特征。


与传统开源软件相比,大型语言模型体现出以下三方面的变革性特征。第一,考虑到大模型自身训练成本门槛过高,大模型开源生态主要体现为基于基础模型的衍生应用,而非对大模型本身的反馈迭代,由此不同于传统开源软件。例如前文提及的Alpaca、Vicuna、Koala均是在LLaMA模型上的再开发,而非针对LLaMA本身的优化与叠加。在此意义上,大模型开源方相对于其他生态参与者处于相对优势地位,而在诸如Linux的传统开源软件中,软件的发明者(例如Linus)并不具有此特殊性。也正因为此,传统开源软件体系下对代码维护者能够产生较大竞争压力的分叉机制,对于大模型开源方的影响却有限。


第二,建立在联结主义(神经网络)基础上的大型语言模型,在突破“波兰尼困境”的同时也带来了根本上的不可解释性(“黑箱”特征),这在开源议题上具体表现为训练数据、算法、权重以及代码等不同层次、不同对象的开放,而这也自然迥异于传统开源软件仅关注代码开放的一般逻辑。事实上也正因为此,围绕“大模型开源”的定义始终是该领域争论的焦点议题之一,例如Meta就被媒体批评“污染”了开源生态,因其混淆了人们对于“开源”的理解。4简单而言,LLaMA一方面并没有将全部模型开源,也没有做到将包括预训练数据集在内的全流程开源,同时另一方面其开源协议中对用户的使用也施加了一定限制(例如如果被许可方基于LLaMA提供的产品月活用户超过7亿则需要单独获得商业授权,同时也禁止使用LLaMA结果去改善其他AI大模型,以及要求合法合规使用等),而不是像传统开源软件那样坚持“自由”地获取、使用、修改、分发。如果考虑到政府会制定相应政策以促进AI开源的发展,通过行业对话以形成AI开源的共识性定义,则显得尤为重要。OSI(Open Source Initiative)在2024年8月以利益相关方的方式发布了首份AI开源定义报告5,仍然坚持了自由使用(use)、学习(study)、修改(modify)、发布(share)的基本原则,但同时也结合实际情况做出了调整(例如不要求数据源完全开放,而仅要求“有能力的人能够复现”6)。我们仍然不能认为OSI的定义就是权威的,对此的一个反思是限制“大玩家”对开源模型的使用是否合理,典型案例便是LLaMA协议。如果考虑到大模型成本投入的规模,我们似乎也有理由支持此种限制,而这也构成了对传统开源要求“自由”理念的修正。


     

第三,围绕大模型“超强”能力而引发的广泛社会风险担忧,导致大模型开源治理已经超出传统开源软件治理聚焦的版权问题,而这也使得以协议作为主要治理手段的传统开源治理制度逻辑,在当前可能面临失效。传统开源软件治理的关键在于版权,因其要解决的核心问题是代码经开源后是否会因投机者的“搭便车”而阻断后续的开放进程,进而同时对开源动机产生消极影响。不过在AI开源领域,大模型本身的“超强”能力使得反对者担心AI风险会伴随开源进程而扩散,典型类比是Bengio指出AI开源犹如“每一个人手中都可能配有一个核武器”。在此背景下,AI开源治理的核心问题正在朝向“责任”问题转变。换言之,大模型开源方是否需要对其他使用者、学习者、修改者、再发布者的违规行为承担连带责任?针对该问题的分析又具体包括两个层面:一方面,与Bengio不同,Yan LeCun则认为所谓AI“超强”能力导致风险的假设是不成立的,在此意义上AI开源治理关注责任问题可能也自然是不必要的;另一方面,如果仍然接受风险假设,究竟应以何种责任机制来合理分担风险并提供救济,就成为新问题,而围绕无过错责任7、安全港原则等的讨论可能为此提供了新思路。

     

可以很明显的看到,上述三点都是AI开源相对于传统开源的发展乃至变革。事实上,如果我们将传统开源的精神定义为“自由”获取、使用、修改、分发的话,那么上述三点都表明AI开源在实质意义上都已经显示出了偏离。导致这种偏离的原因来自市场和制度两个方面。

      

从市场来讲,大模型研发的高投入使之不同于传统软件研发基于个人兴趣的生产过程,这也使得AI开源必须要考虑如何保护“大玩家”的激励动机,而仅从“眼睛多了好找漏洞”的软件功能完善角度出发可能还不足以支撑该动机,以开源来激发商业利益可能才能真正维系“大玩家”的持续投入,由此也不难理解LLaMA协议对于开源“自由”的限制。


      

从制度来讲,AI技术逻辑的复杂性使得大模型开源要真正实现“自由”要求,则必然涉及数据、代码、算法、权重乃至算力等一系列生产流程,而数据本身包含的复杂价值属性(隐私、版权或公共安全)使得“自由”开放必然面临违反合理合规要求的潜在价值冲突。尤其考虑到整个数字化转型进程当前都正在进入治理动荡期,开源治理自然也难以“独善其身”,完全的自由可能同样难以实现。


于是,在注意到AI开源本身的特殊性及所提出的挑战情况下,我们究竟为什么开源以及如何开源,便成为摆在利益相关方面前的新挑战。接下来本文第三部分将简要讨论可能的改革与出路。


三、 争议的关键是什么以及

为什么人工智能仍然需要开源?


讨论AI开源的目的在于寻找大模型技术生产与再生产的稳定模式。如果以此为目标,笔者以为人工智能的发展应用仍然需要开源。针对此论断的解释包括三点:对AI生产当前实质问题的重新定义(即究竟什么才是争议的关键)、开源为什么是回应此问题的答案、AI开源需要如何作出改变才能作出回应。


《Science》杂志2023年3月发布的评论文章对当前AI领域的“输入”(以AI人才、算力的流动分布为指标)和“输出”(以AI领域的文章、基准为指标)进行了数据化测度和解构,结论是AI产业界已经获得了相比于高校、科研机构的绝对优势地位,而这在AI发展史上还是第一次8。举例而言,2004年只有21%的AI领域博士生进入产业界,而这一数据到2020年是70%。对大模型而言,几乎全部大尺寸模型都来源于产业界,而这一数据在2010年还只占11%。李飞飞也表达过类似观点:公共部门当前已经极大滞后于产业界,但当前AI的成就却在很大程度上依赖公共资源的历史投入与积累。或许李飞飞没有直接表明但我觉得暗含其中的一个意思是,未来AI的成就可能仍然需要依赖以不同形式表现出来的公共产品或公地资源。



这些讨论背后的实质性问题,事实上反映了AI生产与再生产过程中的公共性和商业性的平衡与关系问题,而这更具体表现为AI领域的经济民主问题。在宏观层面,“以人为本”作为AI发展基本原则的理念在几乎所有的倡议文本中都存在,而这也自然意味着AI发展需要以大多数人民利益为基准。但值得注意的是,“以人为本”原则在具体微观层面的理解并不完全一致:如Bengio等所指出的,研发“安全人工智能”可被视为以人为本;而如Yan LeCun所言,应将人工智能普遍性地向公众开放也可被视为以人为本。所以在此意义上,“以人为本”的微观实现机制讨论便显得尤为重要,而这便涉及具体的“经济民主”问题讨论。


经济民主本身意味着“政治”进入“经济”领域,这也意味着“技术分工”与“社会分工”并不必然要求一一对应,更加体现灵活劳动结构和劳动者广泛参与、合作特征的制度安排应成为生产关系调适的方向。9在人工智能领域,经济民主主要有两方面的制度要求:产业主导下的大模型研发进程如何再回馈于公共领域以实现公共性与商业性的再平衡,以及开放式的生产参与能否实现以推动人工智能的普遍繁荣——但这两点在当前都面临着诸多挑战。就前者而言,当前事实上缺少合适的再平衡机制,而由此带来的权益冲突正在朝着愈加激烈的方向发展10,但短时间内难以实现制度共识的困境则限制了相应制度的完善。另一方面,就人工智能的普遍繁荣而言,昂格尔所指出的“孤岛先锋主义”仍然是人工智能技术创新应用不得不跨越的鸿沟,而仅靠技术性能的单方面突破永远都不可能实现普遍应用的现实也越来越明显。


正是从经济民主视角对人工智能当前发展问题的界定,才使得我们认为“开源”是对此作出回应的最佳机制之一。一方面,大模型开源同样可被视为厂商回馈公共性的重要机制,此时的分析重点已经不再是站在社群角度来讨论开源是否“自由”,而是站在发布者角度讨论公共/商业关系的再平衡。建立在人类社会公共知识基础上的大模型研发进程,同样可以以开源形式反馈于公共场域(例如高校的研发者),并通过激发更丰富的社群参与以形成良性的公共知识生产过程,而这也同样有利于大模型以及发布者自身的商业利益。另一方面,也只有在开源进程中,人工智能的普遍繁荣才可能真正实现,因开源最终体现的并非是单点技术的突破,而是结合应用场景以实现的整体性发展。就像当年的开源软件一样,开源的成果并不局限于作为结果的Linux等开源软件,更重要的是作为过程的、围绕开源软件的生产与再生产而形成的治理关系,以及蓬勃发展的开源社群。


在理解开源重要性的同时,并不意味着传统开源软件的治理措施就可以同样适用于人工智能领域。事实上,从公共/商业再平衡、AI普遍繁荣这两个方面来定义开源价值,同样也就意味着传统开源软件以“自由”为核心的价值取向开始作出修正。正因为此,我们或可认为,LLaMA对开源大模型使用范围和条件的限制也是站得住脚的,因其更有利于经济民主的实现——尽管其损害了“自由”。同样,如果从经济民主视角来理解人工智能的生产与再生产过程,我们也可能发展出新的开源产权制度。举例而言,即使对于OpenAI等闭源性人工智能而言,我们同样可以基于“法与经济”的耶鲁学派来强制要求OpenAI向满足一定条件的开发者或研究者开放11。此时的产权逻辑正如卡拉布雷西所设计的责任规则那样,不是由OpenAI来决定开放条件,而是由社会第三方来作出大模型能否向特定主体开源的决定——当然,这也自然能够回应李飞飞等的担忧。

 

如果能够在此基础上理解开源的价值与革新,那么Bengio等所关心的风险问题也将不再是核心。一方面,正如Yann LeCun等所指出,风险可能是想象出来的。但另一方面,即使我们接受Bengio所担心的超级风险,我们通过责任规则同样能够确保风险在一定范围内而不是被普遍扩散。在此意义上,开源产权制度也能得到更大的发展空间。


全文引用及注释:

1.https://cloud.tencent.com/developer/article/2261431

2.Yann LeCun针对这三个观点做了回应:(1)凭空想象AI的安全风险是无意义的,重要的是如何设计安全的AI系统,而开源至少是重要路径之一;(2)没有充分数据或理由证明当前AI安全研究是缺失的,不仅有大量资源投入AI安全研究,使用AI来赋能安全场景(例如汽车、医药、社交网络等各个场景)同样是提升社会整体安全水平的重要渠道,而开源恰恰是普及AI应用的关键;(3)将AI类比于核武器是愚蠢的,AI不会比汽车、计算机更像武器,在没有充分发展AI之前讨论限制其风险是不理智的。参见:https://www.facebook.com/yann.lecun/posts/10159184371347143?ref=embed_post.

3.https://www.theverge.com/2023/3/15/23640180/openai-gpt-4-launch-closed-research-ilya-sutskever-interview

4.https://www.ft.com/content/397c50d8-8796-4042-a814-0ac2c068361f

5.https://opensource.org/ai/drafts/the-open-source-ai-definition-1-0-rc2

6.Data Information: Sufficiently detailed information about the data used to train the system so that a skilled person can build a substantially equivalent system.

7.戴昕:无过错责任与人工智能发展——基于法律经济分析的一个观点,华东政法大学学报

8.Ahmed, N., Wahed, M., & Thompson, N. C. (2023). The growing influence of industry in AI research. Science, 379(6635), 884-886.

9.崔之元,《鞍钢宪法与后福特主义》,《读书》,1996.03.

10.以大模型训练语料的版权争议为代表,例如2023年发生的好莱坞编剧罢工过程中,争议焦点议题之一便是OpenAI等基于海量公共知识训练而形成的大模型是否属于“正当使用”,以及是否需要给编剧作为一个集体以合理补偿。特别是考虑到编剧单位工资正在人工智能应用背景下被压低的现实问题,编剧们正在进入“因过往工作的成就而失去当前工作”的悖论。

11.崔之元:从“法与经济”的耶鲁学派看山西煤矿兼并重组https://mp.weixin.qq.com/s/DvFr6WlP2Coj6zxzoggY0g

——END——

苇草智酷简介——


苇草智酷(全称:北京苇草智酷科技文化有限公司)是一家思想者社群组织。通过各种形式的沙龙、对话、培训、丛书编撰、论坛合作、专题咨询、音视频内容生产、国内外学术交流活动,以及每年一度的互联网思想者大会,苇草智酷致力于广泛联系和连接科技前沿、应用实践、艺术人文等领域的学术团体和个人,促成更多有意愿、有能力、有造诣的同道成为智酷社区的成员,共同交流思想,启迪智慧,重塑认知。

好文推荐
破除数据确权的迷思:评贾开、胡凌《合作的互联网》
贾开、俞晗之、薛澜 | 人工智能全球治理新阶段的特征、赤字与改革方向
贾开 | 走向数字未来,探索全球治理
方军 | 大模型热后的冷思考:如何用AI加速知识学习
未来学家库兹韦尔:人工智能将与人类合体,未来数理化诺贝尔奖会由人工智能发现或赋能

苇草智酷
让天下思想者连接起来
 最新文章