文丨天元律师事务所 李昀锴
审定丨主管合伙人 孙彦
1、OpenAI起诉“open.ai”域名所有者案件反转?
2023年8月,知名AI公司OpenAI对一家名为Open Artificial Intelligence(“Open AI”(有空格))且拥有域名www.open.ai的公司提起诉讼,声称该名称侵犯了OpenAI商标,造成消费者混淆。
该诉讼称,由总裁Guy Ravine领导的Open AI(有空格)公司一直在误导客户,让他们相信自己与OpenAI及ChatGPT有关联。Open AI(有空格)公司在2015年开始运营后,采用了“Open AI”(有空格)的名称。“这种深思熟虑的选择破坏了OpenAI在美国专利商标局注册商标的努力。”报道称,该诉讼旨在结束Open AI(有空格)公司未经授权使用OpenAI名称的行为。
涉嫌侵权的Open AI(有空格)网站
(图片来源于网络,侵权即删)
近期,Open AI(有空格)于10月11日向加利福尼亚州联邦法院提交了修改后的反诉,其中详述了他们在5月份提出的反向商标混淆、欺骗行为和公司虚假陈述指控。该反诉不仅针对OpenAI使用“Open AI”名称的合法性,还关注OpenAI的公司演变,即其脱离非营利根源的举动。反诉状声称,这家人工智能巨头向营利性结构的转型不仅损害了Ravine的业务,也损害了更广泛的人工智能社区。除此之外,被告还声称,OpenAI“不诚实地使用Open AI的名称”在该领域造成了不信任,导致研究人员和捐助者质疑该公司的真实意图。(来源:网络法诉讼圈)
评论:OpenAI与Open AI(有空格)之间的商标侵权诉讼是一个很有意思的案件。根据媒体报道,被告方Open AI(有空格)似乎并不是一家“流氓”商标公司,目前反诉状中Open AI(有空格)主张OpenAI公司对其构成了反向混淆(大公司商品侵权使用小公司在先注册的商标,使消费者误认为小公司的产品来源于大公司)。该公司创始人Ravine是“Open AI”概念的最初创造者,其主张2014年就开始提出该概念并寻求谷歌公司等大公司投资,远早于OpenAI于2015年以相同名称推出之前。OpenAI曾试图注册“OpenAI”商标,但由于他先前使用该商标,其申请被商标局拒绝。Ravine说法得到了深度学习巨擘LeCun教授的回复,其在X声称“在OpenAI出现之前,就有了Open AI(有空格)”。这场官司的影响远远超出了双方当事人的范围,OpenAI究竟是正当的捍卫自己的权益还是反向混淆侵犯了小公司的利益目前依然充满不确定,而案件最终的发展也可能影响整个人工智能行业,且让我们拭目以待。
2、权威AI开源标准1.0版发布:Llama也不算开源
2024年ALL THINGS OPEN大会上,Open Source Initiative(OSI)正式揭晓了开源人工智能定义(OSAID)1.0版本,标志着全球首个开源AI标准的诞生。
OSAID 1.0版本的发布,旨在为全球AI开发人员和用户提供一个明确的框架,用以判断AI系统是否满足“开源人工智能”的标准。该标准覆盖了代码、模型及数据信息等多个方面,为社区主导的公开评估提供了统一且权威的指导。
作为开源领域的一项重大突破,OSAID的发布得到了全球范围内众多顶尖组织的广泛支持。这些组织包括微软、谷歌、亚马逊、Meta、英特尔、三星、Mozilla基金会、Linux基金会以及Apache软件基金会等,共计超过25家机构共同参与了标准的设计与制定。
根据OSAID的规定,一个开源AI系统应赋予用户以下四项基本自由:用户无需请求许可,即可将系统用于任何目的。用户有权研究系统的工作原理,并检查其各个组件。用户可以为了任何目的修改系统,包括改变其输出。用户有权与他人共享系统,无论是否经过修改,供他人出于任何目的使用。值得关注的是在此机制下,一直以来开源大模型的标杆Llama 3也不符合本规则。(来源:机器之心)
评论:AI技术的发展为开源软件带来了不少的争议,传统软件开源是公开其软件的全部源代码,其他开发者可以参与该软件代码开发、迭代。而对AI模型而言,可以开源的包括模型训练源代码、参数权重、训练数据等。但当前多数AI开源模型的开发者通常仅仅开源参数权重,而训练源代码、训练数据等均未开源,这就导致其他开发者无法了解该模型的训练原理,也无法对开源模型进行改进及优化。这就导致了行业内出现了很多质疑模型开源为作秀的声音。
其实从法律角度,开发者采用这种开源模式也是有苦难言。一方面,完全开放训练数据等内容,在同行面前将毫无保留,可能同行会在学习后推出新的模型,面临更激烈的市场竞争;另一方面,很多开发者使用的都是来自网络抓取的数据(包括文章、视频、音频等),这些数据本身的清洁性就有很大问题。目前国外很多AI模型的开发者(包括Meta、OpenAI、Perplexity、Anthropic等)都正在处理与权利人的侵权诉讼,此前甚至有英伟达的开源模型NeMo仅公布了使用的开源数据集,便被三名美国作家以著作侵权为由起诉的案件。如果开发者严格按照开源标准公开训练数据,那么将很可能因此承受更大的诉讼风险,其实是得不偿失的。
3、新华社批“AI污染”乱象
10月22日,新华社发布题为《警惕“AI污染”乱象》的文章,文中提到某小说平台账号依靠AI“创作”,每日更新十几本电子书,行文却逻辑不通、辞藻空洞……AI制造的“信息垃圾”产量庞大,且辨别难度较大、筛选成本较高。由“信息垃圾”导致的“AI污染”越来越突出。整治互联网“AI污染”势在必行。
该文指出“互联网构筑着人类生存的新家园,年轻一代已成为网络“原住民”,整治“AI污染”是打造清朗的网络空间、保障每个网民美好生活的必要行动。”“在措施上,要明确AI平台对源头素材的把控责任和对生成内容的监管责任,完善AI内容生成规则,强制对AI生成内容打上显著标识,提升AI技术的透明度和可解释性。”(来源:新京报传媒研究)
评论:AI污染已经在网络平台随处可见,无论是在抖音、小红书、微信中,还是在大众点评、淘宝、京东中,大家都能看到各种形式的AI内容,而且往往这些内容都不会标注为AI生成。此类“信息垃圾”的大量产出,看似只是内容品质的问题,但其不仅浪费了用户时间与精力去甄别筛选,更有可能误导部分受众,本身已涉及对用户知情权、选择权的潜在侵害。而反馈到AI行业中,AI垃圾内容若继续泛滥会影响其训练表现,具体体现为数据质量下降、模型泛化能力受损及误导用户反馈等,会干扰学习、降低泛化能力、形成错误循环等,最终可能陷入“恶性循环”。目前监管机关已经注意到相关问题,出台了《人工智能生成合成内容标识办法(征求意见稿)》等规范,我们希望相关规范可以尽快落地,对网络上的AI垃圾进行有效的管理和控制。
4、商汤科技组织机构大调整
据媒体报道,商汤科技近期因战略转型进行了裁员,赔偿标准为N+1,较去年的N+2.5有所降低。公司解释称,此次裁员和组织调整是为适应未来业务发展需求,聚焦“大装置-大模型-应用”核心业务,尤其是生成式AI领域。裁员主要涉及非核心业务线,如安防、自动驾驶和医疗。
10月22日,商汤科技联合创始人徐立发布了公司成立10周年的全员信。在信中,徐力对比了传统的AI1.0时代和生成式大模型的AI2.0时代,指出两者之间的一个重要区别在于成本结构的变化。在AI1.0时代,模型开发的主要成本集中在研发人员的投入上,而在AI2.0时代,算力资源的投入成为了主要成本。为了应对这种变化,商汤科技决定进行组织架构的调整,并启动了相应的裁员计划。
根据内部消息,此次调整的重点是保留与“日日新”大模型和大装置相关的核心业务,而包括安防、自动驾驶、医疗等在内的其他业务线都将被重新评估并进行调整。裁员的赔偿标准为N+1,这意味着相比去年的裁员补偿标准有所降低。(来源:青投创新)
评论:商汤科技曾因其技术领先被视为中国AI领域的先锋,但其目前的经营情况却不甚理想。虽然商汤科技很快将业务重心转向AI应用场景,但一方面要不断投入巨额资金用于高端算力的购置、顶尖人才的招募以及前沿技术的研发,成本如滚雪球般攀升。另一方面,市场对于AI应用的接受度和需求度尚处于培育和探索阶段,很多应用场景看似前景广阔,但实际落地转化为有效商业价值的过程却困难重重。这其实正是当前AI行业企业的普遍缩影,很多企业看似风光无限,实际上却举步维艰。我们希望包括商汤科技在内的其他企业可以走出阵痛,凭借聚焦核心业务在生成式AI领域突出重围。
*特别声明:
本文仅为交流目的,不代表天元律师事务所的法律意见或对法律的解读,如您需要具体的法律意见,请向相关专业人士寻求法律帮助。