随着人工智能技术的迅猛推进,科技巨头们正上演着一场场激烈的AI算力争夺战。近期,马斯克旗下的xAI集群数据浮出水面,揭示了其雄心勃勃的计划——推出一个装备有10万台H100 GPU的Colossus超级训练集群。与此同时,Meta也不甘落后,拟购入35万台H100 GPU,旨在为其强大的Llama 4 AI模型注入更澎湃的算力。
据LessWrong网站的估算,到2025年,微软、谷歌、Meta、亚马逊以及新兴的xAI这五大巨头,在GPU/TPU的持有量上,若换算成等效H100的数量,将惊人地超过1240万台。这一数字不仅彰显了科技巨头们在算力“军备竞赛”中的持续投入,更预示着一场前所未有的AI算力盛宴正在席卷全球。在这场没有硝烟的战争中,每一块GPU都承载着推动人工智能向前跃进的无限可能。
算力版图再扩张:巨头竞相布局,超1240万块等效H100 GPU蓄势待发
近日,LessWrong网站发布了一篇深度博客,通过对英伟达芯片产量及几大AI巨头GPU/TPU数量的详尽估算,展示科技巨头们在算力领域的雄心壮志。
据其分析,微软当前拥有75万至90万块等效H100 GPU,而明年这一数字有望激增至250万至310万块;谷歌则紧随其后,拥有100万至150万块等效H100 GPU,预计明年将突破350万至420万块大关;Meta亦不甘示弱,其持有的等效H100 GPU数量在55万至65万块之间,明年有望增至190万至250万块;亚马逊则以25万至40万块等效H100 GPU的数量占据一席之地,明年预计将达到130万至160万块;而新兴的xAI则以10万块等效H100 GPU为基础,预计明年将迅速扩张至55万至100万块。
这一串串惊人的数字背后,是科技巨头们对算力版图的激烈争夺和对下一代更先进模型训练的迫切需求。马斯克旗下的xAI已透露,其强大的Grok 3模型将在年底前惊艳亮相,经过法律问题数据集的严格训练后,Grok 3将化身全天候私人律师,为用户提供高效便捷的法律服务。谷歌方面,其Gemini 2.0版本预计本月正式上线,将为用户带来更加智能、更加精准的搜索体验。而OpenAI更是宣布,将开启为期12天的“Shipmas”狂欢活动,届时将推出一系列新功能、新产品和演示,包括备受瞩目的文本转视频AI工具Sora以及全新的推理模型等。
马斯克自豪地宣称,其Colossus集群无疑是“世界上最强大的人工智能训练系统”。这一集群配备了顶级的英伟达HGX H100服务器,每台服务器内嵌8张强大的H100 GPU。每个机架精心设计了8台服务器的空间,而这些服务器又进一步组成了拥有512个GPU的庞大阵列。整个Colossus集群内,更是耸立着超过1500个这样的GPU机架,共同支撑起无与伦比的算力运行,为人工智能的发展注入了强劲动力。
与此同时,Meta也在积极布局,利用其超过10万个Nvidia H100 GPU的集群,全力训练其最新的Llama 4 AI模型。这一集群的规模之大,使其成为目前全球数一数二的AI训练集群。更令人瞩目的是,Meta计划在明年将这一数字提升至35万个H100 GPU,进一步巩固其在算力领域的领先地位。
而作为OpenAI的坚实后盾,微软在算力领域的投入同样不容小觑。据多方分析,微软很可能是英伟达近两年的最大客户之一。Omdia Research的数据显示,2023年,微软和Meta共同成为了H100 GPU的最大买家,预计采购量高达15万个。而到了2024年,微软的AI芯片囤货目标更是直线飙升,预计将达到惊人的180万块,其中绝大多数将来自英伟达。
英伟达领航AI芯片市场,定制芯片与下一代产品备受瞩目
在AI巨头持续大规模部署AI算力的大背景下,英伟达作为全球AI芯片市场的领航者,其市场地位和技术优势在2025年及未来一段时间内仍将保持强劲。
一、英伟达市场地位稳固
·市场占有率:2024年,英伟达在AI芯片市场的占有率高达约75%,显示出其在该领域的绝对领导地位。其他定制化芯片占据10%-15%的市场份额,而超微、英特尔等企业则瓜分了剩余的10%-15%市场。
·高端服务器GPU产值:据DIGITIMES Research数据,2024年高端服务器GPU产值预估将达到1022亿美元,英伟达作为该领域的佼佼者,无疑将从中受益良多。
二、英伟达产品规划前瞻
·Blackwell系列:英伟达的AI芯片Blackwell产品发货将从2025财年的四季度开始,届时将同时发货Blackwell和Hopper两大系列产品。Blackwell作为英伟达的新一代AI芯片,其性能较上一代产品有了显著提升,将更好地满足AI训练和推理的需求。
· Rubin芯片:英伟达的下一代Rubin芯片同样备受瞩目。大摩分析师Charlie Chan透露,台积电和供应链已在为Rubin芯片的推出做准备,推出时间可能从原定的2026年上半年提前到2025年下半年。Rubin芯片将采用前沿的3nm工艺、CPO(共同封装光学元件)和HBM4(第六代高频宽内存)等技术,性能将更加强大。这些技术革新将进一步提升Rubin芯片在计算性能、能效比以及数据处理能力等方面的表现,为AI和高性能计算领域提供更强大的支持。
三、定制芯片市场值得关注
·市场趋势:随着AI技术的不断发展和应用领域的不断拓展,定制芯片市场逐渐崭露头角。定制芯片能够针对特定应用场景进行优化,提供更高的性能和更低的功耗,因此备受AI巨头的青睐。
·竞争格局:目前,英伟达在AI芯片市场占据主导地位,但定制芯片市场的崛起也为其他企业提供了发展机遇。未来,随着AI应用的不断深入和定制化需求的不断增加,定制芯片市场有望成为AI芯片领域的一个重要分支。
AMD作为英伟达在AI芯片领域的主要竞争对手,其下一代Instinct MI350系列加速器有望在2025年下半年震撼上市。这款加速器基于AMD全新的CDNA 4架构,与基于CDNA 3的加速器相比,推理性能实现了惊人的35倍提升。这一数据无疑为AMD在AI芯片市场的前景增添了一抹亮色。
英特尔在AI芯片市场同样拥有一定份额,尽管今年推出的Gaudi 3表现并未达到预期,但英特尔并未放弃在AI芯片领域的探索。据悉,英特尔寄予厚望的Intel 18A将在2025年实现量产。基于Intel 18A的下一代AI PC处理器Panther Lake和下一代数据中心处理器Clearwater Forest也将在明年发布。此外,英特尔还计划在2025年推出全新的AI加速器产品Falcon Shores,作为Gaudi系列的后续产品,英特尔对其寄予厚望。业界普遍关注英特尔在AI芯片市场能否凭借这些新产品实现突破。
除了AMD和英特尔等传统芯片巨头在AI芯片市场的竞争外,几大AI巨头在定制芯片方面的开发与应用进程同样值得关注。近日,亚马逊AWS宣布推出全新的AI定制芯片Trainium3,与上代Trainium2相比,采用更先进的3nm工艺,计算性能增加2倍,能效提升40%。该产品预计于2025年底量产。
据了解,Adobe、AI新创公司Poolside、数据平台服务Databricks以及芯片大厂高通都已经或计划采用Trainium2训练其AI模型。
未来,随着AI巨头在定制芯片方面的不断投入和创新,它们将成为英伟达GPU在AI芯片市场的重要竞争对手。
端侧AI需求激增,厂商竞相卡位布局
随着2025年的到来,AI模型的边缘和推理计算需求正迎来爆发式增长。过去,AI芯片的活动主要聚焦于数据中心,而端侧设备如手机和PC的AI应用则大多依赖于从云端调用的资源。然而,这一格局即将发生深刻变化,具有真正端侧AI功能的设备有望在2025年面世,边缘AI的普及程度也将大幅提升。
在数据中心领域,GPU一直占据着AI加速的主导地位。然而,在边缘侧,情况则更为复杂多样。为了满足AI加速的广泛需求,企业需要灵活地配置CPU、GPU和NPU等多种计算资源。这一趋势在英特尔近日举办的新质生产力技术生态大会上得到了充分体现。
大会上,英特尔与新华三共同推出的AIGC灵犀一体机备受瞩目。这款一体机基于至强处理器与Gaudi2D加速卡,能够在私域灵活布局,实现多模型的高效推理和业务场景的闭环交付。它充分满足了边缘侧AI应用对于多模融合、灵活便捷等多元化需求,为边缘AI的发展提供了有力支撑。
此外,在AI PC方面,英特尔也展示了基于XPU的AI算力优化案例。这些案例涵盖了游戏、教育教学、工厂制造、商场支付等多个领域,充分展示了AI PC在端侧AI应用中的广泛潜力。通过优化算力配置,AI PC能够为用户提供更加流畅、智能的体验,进一步推动端侧AI的发展。
随着端侧AI需求的激增,各大厂商正在竞相卡位布局。通过灵活配置计算资源、推出创新产品和技术方案,它们正努力满足用户对于边缘AI和端侧AI应用的多元化需求。未来,随着技术的不断进步和应用场景的不断拓展,端侧AI将迎来更加广阔的发展前景。
--- 关于我们 ---
芯果成立于2023年12月,是科技成果转化、科技领域投资投行服务的专业媒体平台。芯果团队是一群朝气蓬勃的超级小伙伴,依托教育背景,包括清华大学、北京大学、中国传媒大学、北京交通大学、河北大学等深厚的科研学术、科技产业积淀,以及管理团队过往在产业、资本领域积累的丰富资本市场案例经验,聚焦科技投资投行领域,重点关注人工智能、半导体及集成电路、新能源、智能汽车等各类创新。
转载、合作、加入粉丝群请联系小助理
(微信号:globalfinance007)
随手点赞👍,戳个在看