2024年,随着Meta坚持开源AI战略,其股价再度回归高点,也引发了一个争议:开源AI能够战胜闭源的各种产品吗?
开源与闭源的争议早已有之,从操作系统之战到浏览器之争,这场辩论从未停歇。如今在AI领域,这个话题再次引发热议。
随着开源生态越来越繁荣,我们看到OpenAI这些领头羊的优势正在减少,国内厂商DeepSeek已经推出性能胜过o1的开源模型,Meta更是先于OpenAI拿出了视觉AI模型Llama 3.2。
扎克伯格在最新财报会上分享,Llama 3.2已经应用到自家平台中;X上也有海外开发者拿出识别照片生成菜单的产品。
新的变革似乎就在眼前,开源AI正在快速渗透企业级应用,并对闭源模型构成前所未有的挑战。
今晚,前哨AI小课将带来【如何本地部署Llama3.2 开源大模型】专题,教会大家使用这款最新的视觉AI大模型。
如果你想提前了解下一轮AI热的关键技术,欢迎点击预约观看今晚的免费直播,想了解更多AI技术动态也欢迎加入前哨AI小课。
直播之前,我们先抛下感性的判断,从技术、产业格局好好看看开源AI距离领军企业多远,这个生态今天究竟如何?
1.开源生态快速扩张
开源AI因为公布技术、代码的特点,很多人都有「不赚钱,缺乏维护,难以持续」的感觉,事实上开源AI的热度可能远超大家的想象。
Meta官方分享的数据:2024年5—7月,Llama系列模型的使用量翻了一番,下载量超过4亿次,是去年的10倍。
与此同时,Llama系列已经诞生超过6.5万个衍生模型,如同一个巨大的生态系统,在这里企业可以根据自身需求选择最合适的模型,根据自己的需要组合出满意的产品。
ANZ Bank便是一个典型案例。
这家服务澳大利亚和新西兰的银行,最初选择OpenAI作为供应商,测试开发了自己的金融AI产品,然而真正开始部署应用时,它们选择放弃OpenAI,基于Llama模型做微调开发。
2.商业玩家为何总是青睐开源技术?
这背后的原因正是企业引入新技术的三大的核心诉求:控制力、定制化和成本效益。
历史已经不止一次上演这样情景,开源的Linux最终战胜Windows,主导了企业级系统和工业计算;开源的Chromium浏览器超越IE成为新的浏览器王者,成为大量开发者支持的网络生态。
10月,Groq CEO Jonathan Ross接受采访时断言:“开源总是会赢,因为大多数人都害怕被厂商锁定。” ,道出了无数企业的心声。
Venture Beat采访了一系列企业管理者,其中不乏Oracle副总裁、美国顶级银行管理人员,他们都提到一个共同的点,OpenAI这类企业服务缺乏透明度,让他们难以将核心业务布设其中。
这也和当前的AI技术所处的阶段有关,闭源AI大模型在推理和复杂任务上更具优势,但幻觉等问题让AI并不能时刻保持自己的高水平。
幻觉、不透明、价格对B端用户而言都是要害问题,所以很多企业内部主要在简单场景应用AI,例如撰写标准的邮件、营销内容初稿。
在这些简单领域,开源AI并不输于闭源,更重要的是对大企业而言他们还能将复杂任务拆解成简单的步骤,让人和AI配合完成,并不需要一个超级聪明的AI搞定所有事情。
3.技术差距正在缩小,商业还是问号?
除了企业用户的实际需求,闭源AI的领先程度也正在缩小。
11月21日,王煜全在特训营直播中做了详细分享,简单说Meta加入后,开源AI模型落后OpnAI 15个月左右,如果只看顶尖的Llama 3,落后的时间还要缩短到3个月。
扎克伯格在最新的财报会上分享,Llama 4正在开发中,训练集群规模超过10万个H100,比已知的其他模型训练集群都要大,这个新模型会在多模态、推理和处理速度上再度升级,预计会在2025年初先发布个小版本,后续再推出完整版。
站在AI研发放缓的当下,开源性能追上闭源似乎已经是势不可挡,只是我们还有一个疑问,开源真的能赚钱吗?
对此小扎的分享是:开源技术更多是反哺平台服务,例如Meta最新的AI照片功能背后就是Llama3.2;9月份Meta广告平台也有超过一百万广告商使用了AI工具(基于Llama),创建了超过1500万份广告。
考虑到Llama并为完全开放商业使用授权,Meta又囤积着目前最大的GPU算力集群,哪天转型推出自己的AI云服务,在开源AI之上叠加更多面向用户的云服务也未可知。
站在历史的节点,我们或许可以预见,一个更加开放、灵活、高效的AI时代正在到来,开源企业不一定能成为未来赢家,开源生态的从业者一定会受益于新技术的爆发。
面对AI的巨大需求,你不想提前掌握这门未来技术吗?现在加入前哨AI小课,你就能加入这个未来生态之中!
↓点击加入,学会用AI为你工作(iOS用户请在电脑端打开)
↓¥399,掌握王煜全AI产业预测精华(iOS用户请在电脑端打开)
↓全球消费电子展,王煜全与你现场看未来(扫码加入)
此外,我们还为您准备了一份清单
“近期市场相关刺激政策一览表”