Arista 财报:AI 后端网络“内卷”成功,前端网络“压力山大”!

科技   2024-11-12 17:11   江苏  

在高性能计算的演进历程中,超级计算机通常是一种独立的机器,旨在运行某些模拟或模型,与外部的连接相对较小,主要用于展示一些可视化内容。然而,随着通用人工智能(GenAI)的崛起,超算需要不断从外部接收数据,并持续向外部输出建议或行动作为响应。

正如AI集群需要高效、快速且无损的网络来避免在昂贵的服务器上(这些服务器装有大量GPU和其他类型的AI加速器)浪费时间和金钱一样,将AI系统与外部相连的前端网络也需要从当前企业普遍采用的10Gb/s速度进行升级。

这就是为什么像 Arista 这样的公司对GenAI充满热情的原因。

在公布 2024 年第三季度财务业绩的电话会议上,Arista 的高层透露,他们的超大规模云构建者客户名单中又新增了一家“云巨头”,这些客户正在试用或测试其以 AI 为中心的交换机,用于下一代 AI 集群。目前单个集群中的 GPU 数量将达到 50000 到 100000 台,未来还将进一步增加。

Arista 还表示,另外 15 家构建GPU数量较少的企业客户也在测试其产品,以便进一步推进试点和生产系统的部署。据推测,如果企业能够从英伟达或AMD获得GPU配额,那么他们可能会部署数千个GPU,最多可达1万个。

在AI 网络互连市场中,英伟达的 InfiniBand 虽然在之前的 AI 集群中占据主导地位,但现在正面临来自Arista及其自身的Spectrum-X系列的激烈竞争。这一变化历经了漫长的时间,尤其是在IT行业的时间尺度上来看。但坦率地说,以太网目前还不足以充分提高这些 GPU 的利用率,它必须在RDMA和拥塞控制方面有所改进,才能在 InfiniBand 的优势领域中与其竞争。


关于Arista首席执行官Jayshree Ullal所提及的AI前端升级与 AI 后端(她称之为“AI中心”)投资比例的问题,由于这是一个新兴现象,因此目前尚不清楚。而且随着时间的推移,这一比例将更难以确定。正如现在很难界定什么属于“云”范畴,什么不属于一样。预测显示,2025年AI后端网络市场为7.5亿美元,AI相关的前端网络市场也为7.5亿美元,另外还有一个与之无关的7.5亿美元的园区网络市场。

Ullal在电话会议上解释说:“对于后端投入的每一分钱,可能还需要额外投资30%到200%的资金用于前端网络的升级和优化。因此,我们相信,明年7.5亿美元的后端投资将带动前端流量(其中包括AI,也包括其他内容)再增加7.5亿美元。我们无法准确计算出哪些是纯粹的AI投资,因此我越来越倾向于,如果你开始将推理、训练、前端存储、广域网(WAN)、传统云等所有元素结合在一起,那么纯粹的AI投资就变得难以追踪了。”

不过,那是明年的事情了。在 9 月份的季度中,Arista 仍在努力争取一些 AI 资金。目前,它正在与五大 AI 客户进行交易,其中之一是 Meta,它正在构建两个集群,一个与英伟达InfiniBand 互连,另一个与 Arista 以太网互连。据Ullal透露,其中三家客户进展顺利,另一家刚刚开始,而新加入的第五个客户“进展比我们预期的要慢”,并且“正在等待新的GPU,他们在电源、冷却等方面遇到了一些挑战”。

本季度,Arista 的产品收入增长 18.5% 至 15.3 亿美元,服务收入增长 28.2% 至 2.871 亿美元。


在产品方面,软件订阅业务带来了2070万美元的销售额,同比下降30.2%,这也导致软件和服务的综合增长率被拉低至3.079亿美元,仅增长21.4%。

综合来看,本季度Arista 总收入增长了20%,达到18.1亿美元,环比增长7.1%。营业利润为7.85亿美元,增长30.2%,这表明公司不仅成本控制得当,而且通过销售更多高端产品提升了利润率。净利润的增长速度更快,达到37.2%,为7.48亿美元。净利润占收入的比重高达41.3%,非常健康。如果不考虑某些税收优惠政策(这些政策曾在2019年第四季度将Arista的净利润率推高至47.2%),这无疑是创纪录的高水平。这是实实在在的利润增长,而非是账面上的数字。

截至第三季度末,Arista的现金及等价物总额为74.3亿美元,同比增长66.7%。客户采购承诺增加了15%,达到23亿美元,递延收入为25.7亿美元。展望未来,Arista 表示第四季度收入应在 18.5 亿美元至 19 亿美元之间。与预计的 10% 至 12% 的年增长率相比,这一数字增长了 18%。

到 2025 年,随着网络结构转向云 AI 客户,预计收入将增长 15% 至 17%,但随着年收入超过 80 亿美元,毛利率可能会下降 3 到 5 个百分点。至于向 400 Gb/s和 800 Gb/s互连的过渡,Ullal 表示,大多数 AI 试验仍在使用 400 Gb/s产品,因为客户正在等待适用于800 Gb/s网络的网卡和超以太网特性,如数据包喷洒。

原文链接:
https://www.nextplatform.com/2024/11/08/the-back-end-ai-network-puts-pressure-on-the-front-end/




【活动专栏】

【投稿】:SDNLAB原创文章奖励计划

SDNLAB
SDNLAB是专注网络创新技术的先锋媒体社区和实践应用平台,涵盖AI 网络、DPU/智能网卡、SD-WAN/SASE、Web3.0、零信任、云网融合等相关领域,提供新闻资讯、技术交流、在线实验、行业分析、求职招聘、教育培训等多元服务。
 最新文章