何许人也?敢把大模型价格“打骨折”?

科技   2024-05-17 17:02   北京  


云计算价格战的硝烟尚未散去,全球AI大模型也卷出了“骨折价”。

今年以来,OpenAI、Mistral AI、通义千问、智谱AI、文心一言纷纷祭出降价“撒手锏”。

在海外,法国人工智能企业Mistral AI大模型Mistral Large的输入、输出价格比GPT-4 Turbo便宜约20%。OpenAI推出新一代旗舰AI模型GPT-4o,其API价格下降50%。

国产大模型在降价上也“不甘落后”。通义千问2.5性能基本追平GPT-4 Turbo,个人用户可从App、官网和小程序免费使用。
智谱AI将入门级大模型GLM-3 Turbo调用价格下调80%,1元就可以购买100万tokens。字节跳动豆包大模型开启对外服务,根据火山引擎公布的价格计算,1块钱就能买到豆包主力模型的125万Tokens。

究竟是什么原因引发了大模型这轮波澜壮阔的降价潮?降价后大模型将往何处去?值得我们研究。

 
全球大模型掀起降价潮
  原因几何?

任何技术最终的落脚点都是实用性、易用性和性价比的三者统一,没有例外。

无论是当初的电商、外卖、手机,还是如今的新能源汽车、大模型,当技术发展到一定阶段,竞争到最后都会遵循价格第一的铁律。目前,全球大模型产业不约而同地掀起“降价潮”,也正印证了一个规律:性价比是商业最高真谛,贵不等于值得,划算才是。

在新技术或新产品追求大规模商业化落地过程中,“降价”策略得以使新技术和产品得到最快速度、最大限度的普及,也成为科技企业技术商业化的必然路径。

全球大模型头部企业OpenAI于近日宣布最新GPT-4o多模态大模型,其在保持与GPT-4同等智能水平的基础上,实现了文本、图像和语音处理的全面提升,同时GPT-4o将免费开放给所有用户,整体API价格相比于前代也下降了50%。

事实上,这已不是OpenAI在商业化道路上的第一次降价。以GPT-3.5系列的输入成本为例,2023年3月首次降价90%,6月再次降价25%,到了2024年2月,进行第三次降价50%。

反观国内,以具有代表性的大模型头部企业智谱AI为例,去年6月,在科技媒体The Information的盘点中,智谱AI被视为最有可能成为“中国OpenAI”的5家企业之一,其一举一动在业内具有风向标性质。
智谱AI的大模型开放平台bigmodel.cn于近日上线了全新的价格体系。新注册用户可以获得额度从500万tokens大幅提升4倍,至2500万tokens,入门级产品GLM-3Turbo模型产品的调用价格更是断崖式下降80%,从5元/百万tokens直接降至1元/百万tokens,堪称“价格屠夫”。

我们看来,降价并非简单粗暴的价格战,而是充分释放让利空间,是技术、规模带来的正循环。目前,大模型应用发展仍处于早期阶段。QuestMobile数据显示,截至今年3月,基于大模型的AIGC行业用户量为7380万,尽管同比增长了8倍,也仅占移动互联网用户量的6%。而降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。
“数据飞轮”在大模型进化过程中的作用不可忽视,通过客户在应用程序中输入的提示词这样的数据反馈,使大模型快速迭代。

通过降价,一方面用户不仅感受到了大模型应用带来的便利和高效,大模型企业还可以更快速地吸引用户,通过用户反馈数据加速大模型迭代升级,另一方面帮助大模型企业抢占市场份额提高营收,以对冲高昂的研发投入,真正实现“技术-场景-盈利”的商业化闭环,同时随着大模型应用场景的开拓,还会衍生出更多的微调及推理等需求,进一步带动国内AI应用的繁荣发展。
从这个角度来讲,大模型降价这事无论对于个人用户还是企业用户都是一种双赢。

大模型迈入“普惠时代”

通过对比通义千问、文心一言、百川、MiniMax、月之暗面等入门级产品API调用价格不难发现,智谱AI此次降价幅度之大前所未有。

价格调整后,使用GLM-3 Turbo创作一万条小红书文案(以350字计)将仅需约1元钱,足以让更多企业和个人都能用上这款入门级产品。

除了个人版GLM-3Turbo,智谱AI的企业级产品GLM-4/GLM-4V价格尚未出现大幅波动,仍维持在0.1元/千tokens,百万tokens的价格为100元。作为一款能力逼近GPT-4的国内领先大模型,GLM-4这一价格还是具有明显优势。

再与OpenAI价格进行对比,其最新模型GPT-4 Turbo每100万tokens输入/输出价格分别是10/30美元。Claude 3 Opus则更贵,每百万tokens输入/输出价格15/75美元。

在这轮降价潮中,我们可以隐约看到“摩尔定律”也在深深影响着大模型行业。伴随大模型价格下降的是性能的大幅提升。

今年3月,清华大学基础模型研究中心联合中关村实验室发布的《SuperBench大模型综合能力评测报告》显示,GLM-4已然闯入第一梯队,与GPT-4、Claude-3等国际一流模型水平接近,且差距已经逐渐缩小。

2023年3月,智谱AI推出千亿开源基座对话模型ChatGLM系列,并在过去一年内完成4次升级,于2024年1月推出新一代基座大模型GLM-4系列,整体性能相比上一代提升了60%,已经逼近GPT-4。
它能够支持128k的上下文窗口长度,与GPT-4 Turbo相当,同时具备更强多模态能力,效果超过开源SD模型,逼近DALLE-3。

为进一步降低大模型使用门槛,智谱AI推出智能体定制功能,用户只需使用简单的提示词指令,就可以创建属于自己的智能体。
任何人都可以自由运用GLM-4模型,即使没有任何编程基础,也能便捷地进行大模型开发。正是得益于GLM模型的强大的智能体能力,GLM-4实现了自主根据用户意图,自动理解、规划复杂指令,从而完成更加复杂的任务。

技术的持续进步为降低开发大模型成本提供了现实可能。智谱AI通过模型推理算子优化、模型压缩及硬件高效适配、高性能系统实现,以及精细化集群调度等技术,将GLM-3 Turbo推理成本进行大幅压缩。
自大模型开放平台上线以来,在模型效果和推理性能不断提升的情况下,已累计降价超过百倍,这无疑也给了智谱AI将API调用价格打至“冰点”的底气。

一直以来,大模型给外界的印象是贵、小众。事实也确实如此,在行业发展初期,由于还未形成规模效应,厂商的成本一直居高不下,很多企业和开发者只能望洋兴叹。
但智谱AI等大模型厂商此次调价向行业和公众宣告这样一个事实:优质的大模型,不一定要花大价钱,“技术普惠时代”已经到来。

所谓的“技术普惠”,就是坚持致力于突破技术壁垒,让更多前沿科技以大众更能接受的价格走进生活,让更多人有机会享受到科技带来的便利。

“强性能+好价格”是技术普惠的最大特征,智谱AI正在沿着这条路前行,其开放平台上已经聚集了超过数十万的企业和开发者,并且在持续快速增长,过去的半年每日的token消耗增长超过一百倍。
比如官方开发的三个调用工具,网页检索、函数调用以及知识库,自从1月上线以来调用次数已经超过3亿次。

智谱AI CEO张鹏曾表示:“虽然目前技术已经非常快速地在呈现,但仍有很多问题值得去探索。智谱着眼于通用人工智能(AGI),这里的每一个问题的突破都有可能实现飞跃式发展,我们还远未达到技术的天花板,但曙光已现,2024年是向AGI发起冲锋的起始年份。”而此轮凌厉的降价,预示着智谱AI吹响了向AGI发起冲锋的号角。
商业化先行者已立潮头

虽说大模型这两年很火,但质疑之声仍不绝于耳。

其中一个很重要的原因,就因为现阶段做大模型每天的投入可能成百上千万,但很多的产品目前商业化程度并不高,有点像“砸钱赚吆喝”。

虽然“高投入”依然是主流大模型赛道玩家的主色调,但近两年,基础大模型及上层应用服务商的盈利能力明显在增强。同时,大模型应用在C端涌现出了不少现象级产品,但很多仍处于以免费模式获客到商业转化的阶段,营收规模并不突出。

在这其中,OpenAI较早开始商业化尝试,2022年对外的营收是2800万美元,2023年ARR增至16亿美元,激起了业内的无限联想。不过,OpenAI爆发式的营收增长和其丰富的业务线、市场占有率、以及B端、C端的双布局也有很大关系。

对比国外,国内企业级大模型服务的渗透更快,发展势头也更猛。在B端需求井喷以及客户群较高的付费能力的推动下,《中国AIGC应用全景报告》预测,国内AIGC应用市场2024年底有望增至200亿规模,预计2030年可达万亿规模。

从目前来看,底层通用大模型赛道多采用开放API接口的形式,扩大客群,最终按实际消耗或调用的tokens量收费。对于主流的大模型应用来说,按订阅费、调用费以及定制化收费显得更常见。

比如OpenAI的另一条业务线DALL-E 3,虽然没有公布明确的商业计划,不过它更多向ChatGPT的付费版/企业版用户开放,充分放大了ChatGPT会员订阅的吸引力。
反观智谱AI,其大模型开放平台bigmodel.cn,被视为公司今后大模型应用和商业化的重要接口之一,其平台生态也日益壮大。截至目前,智谱AI已有超过2000家生态合作伙伴、1000家规模化应用和200家深度共创客户。
通过采用降价策略,智谱AI率先抢占市场一角,吸引大量企业和开发者对API的调用,当企业和开发者形成平台粘性后,实现大规模营收也就是顺理成章的事情了。

在大模型的激烈竞争中,智谱AI率先拿起“价格屠刀”,无疑将带给行业不小的压力,但也加速了整个行业的商业化进程。
对于大模型厂商而言,价格战既是压力也是前进的动力,但对于企业和开发者而言,则是实实在在的利益和价值,有助于加快大模型行业应用创新落地。
但最终市场蛋糕能做多大,将取决于能否落地合适的业务场景,打造商业闭环,同时也是对大模型应用服务商自身的产品和服务实力的深度考验。

可以预见的是,未来大模型一定是技术、成本、性价比三者的平衡,国内大模型厂商通过不断在B端和C端进行持续探索,将为大模型打通商业化闭环提供了切实可行的路径。尽管前路挑战重重,但随着技术的普惠发展,我们相信,大模型全民普及时代正加速到来,一个充满机遇和创新的新纪元已为时不远。


 相关阅读


别拿「豆包」不当干粮,新晋AI顶流好猛!

走入商业化拐点,大模型“开箱即用”或突破行业困局

AI大模型疯长,存储扛住了吗?

大模型加持后,数字人“更像人”了吗?

卷完参数卷应用,大模型落地有眉目了?

【科技云报道原创】

转载请注明“科技云报道”并附本文链接


科技云报到
云计算、网络安全、人工智能、大数据、区块链领域垂直新媒体,专注原创的企业级IT内容行家
 最新文章