在当今科技迅猛发展的时代,以芯片、板卡、服务器为主的人工智能基础设施(AI Infra)作为未来AI时代数字经济的基石,正逐渐从幕后走向台前,从数据中心走向每一个智能设备的边缘。
随着 AI 技术的不断进步,全球对于 AI 基础设施的需求激增,这不仅推动了半导体市场的快速增长,也为整个行业带来了颠覆性的变革。从 NVIDIA 的 A100 和 H100 GPU,到 AMD 的 MI300 系列,再到华为的昇腾 910B,各大半导体厂商正在加速迭代产品线,以满足迅猛增长的 AI 计算需求。
AI 基础设施的快速发展,预示着智能系统将拥有更加强大的“心脏”和“大脑”,能够通过高效的数据处理和智能推理来快速学习和适应复杂的任务。这在大模型训练和推理、自然语言处理、图像识别、科学计算等领域带来了显著的提升。同时,随着计算芯片架构迭代,以及存储技术、互联方案、先进封装的发展,AI 芯片的性能和能效比也正在持续提升。
然而,尽管 AI 基础设施的发展前景令人充满期待,其实际建设和应用仍面临诸多挑战。从技术层面来看,如何突破存储墙和互联墙的瓶颈,如何提高数据中心的能效比,以及如何实现 AI 芯片的高性能和低成本,都是当前研究的热点和难点。从产业角度来看,AI 基础设施的全球竞争格局日益激烈,如何在当下实现产业链的协同和创新,这些都是行业亟待解决的问题。
在下文的分享中,你将了解到:
AI 基础设施的定义及其在计算、存储和互联层面的发展现状; 全球主要厂商在 AI 基础设施领域的进展和挑战; 中国 AI 基础设施的发展方向和策略; AI 基础设施未来的发展趋势,包括计算芯片的 DSA 架构、存储芯片的 HBM 技术、先进封装以及能源系统的优化; 中国在 AI 基础设施领域的投资机会和挑战,以及如何在全球化的背景下寻求突破。
AI 基础设施行业观察:
随着大模型(LLMs)规模的不断扩大,AI 时代的步伐已经加快。在 AI 模型的发展过程中,Scaling Law(扩展定律)成为推动性能提升的重要理论基础。根据 Scaling Law,当模型参数、训练数据和硬件配置同步增加时,AI 模型的能力会随之提升。模型扩展的这一趋势被视为 AI 时代的“摩尔定律”,推动了各类 AI 系统的蓬勃发展。
当前,像 GPT-4、PaLM 2 以及中国的悟道 2.0 等大模型不断涌现,参数规模从数十亿级别扩展至数千亿甚至上万亿级别。这一现象表明,未来的 AI 技术将需要更强大的算力来满足训练和推理的需求。麦肯锡预测,到 2030 年,全球 AI 计算需求将达到 25×10³⁰ FLOPS,相当于 2024 年需求的 50 倍,这意味着 AI 基础设施建设将进入一个密集投入期。
“AI 基础设施”狭义上指用于 AI 训练、推理的硬件,目前训练和推理场景均在云侧数据中心,AI 基础设施即数据中心的服务器、板卡、芯片等,但推理未来也会在smartphone、PC、机器人、智能硬件、汽车等场景多元化,AI Infra 定义将被扩展。
AI 算力基础设施(数据中心为主)已成为全球半导体增长的主要驱动力,拉动全球半导体市场达到 1 万亿美元。在各类智能设备中,从智能手机到个人电脑、智能家居再到数据中心,AI 芯片的需求不断增加。其中数据中心在 2023 年也阶段性超越消费电子成为最大半导体终端市场。GPU在数据中心中扮演着至关重要的角色,而 AI 大模型的特征也使得存储需求大幅提升。
自 2023 年以来,消费类市场、数据中心、汽车、通信和终端设备的需求快速上升,数据中心的扩建尤为突出。在未来几年,这些领域将以约 10% 的年均复合增长率(CAGR)保持高速增长。
推动这一增长的关键在于:
数据中心和云计算:为了支持大规模模型的训练和推理,企业需要不断扩展其数据中心和计算资源。 智能终端设备:AI 技术的普及使得终端设备的智能化成为趋势。 汽车和通信:AI 在自动驾驶和 5G 通信领域的应用拓展,为芯片厂商创造了新的增长机会。
如图所示,不同科技巨头正在各自领域内推动 AI 基础设施的创新,AI 基础设施正在重塑全球科技格局。
NVIDIA:凭借强大的 GPU 硬件、互联方案和 CUDA 生态系统,成为全球 AI 计算的领导者。 AMD:通过 MI300 等新产品系列进行扩展,在 GPU 市场取得一定进展。 SK Hynix:作为DRAM三大原厂之一,引领全球 HBM 发展。 Qualcomm:在 AI PC、AI Smartphone时代想象空间提高,正在推动终端设备的智能化。 Broadcom和台积电:分别在半导体互联和制造代工领域中发挥重要作用,为 AI 基础设施提供底层支持。
AI 基础设施的未来将由计算、存储、互联和通信技术共同驱动。同时,边缘计算和物联网的快速发展将进一步推动 AI 技术向终端设备的渗透。
一、AI基础设施系统架构梳理
AI 基础设施的构建是确保 AI 技术高效运行的基石,涵盖了计算芯片、存储系统、互联方案、封装技术、电源管理和冷却方案等关键环节。
计算芯片是 AI 基础设施的核心,用于执行训练和推理等高强度任务。
CPU(central processing unit,中央处理器):是对计算系统所有硬件资源进行控制调配、执行通用运算的核心硬件单元,在处理单线程、通用及复杂计算任务的能力强。全球 CPU 市场主要由 Intel、AMD 两家美国公司垄断,合计市占率常年维持在 95% 以上。CPU 具有极高的灵活性、兼容性,通用服务器(传统) 绝大部分计算资源依赖 CPU,在过去数十年间,CPU 作为数据中心的算力中枢,负责了网站运行、数据管理、企业级应用等诸多功能,但由于在架构本身处理多线程计算任务能力差,在处理 AI 任务时性能和成本均远劣于 GPU,CPU 逐渐失去了主导地位。
GPU(graphics processing unit,图形处理器):是一种异构多核处理器芯片,针对图形图像处理和优化场景设计,包括运算单元、L0/L1/L2 缓存、存储单元、分配单元、寄存器堆等。GPU 擅长并行计算,是目前 AI 服务器的算力中枢。由于其架构特征及极高的通用性,GPU 是目前最适合大模型训练、推理的成熟硬件方案。GPU 目前已成为仅次于 CPU、DRAM 的第三大半导体市场,受 AI 需求驱动,多家机构预测 GPU 将以超过 CAGR~20% 高速增长,在 2030 年超过千亿美元,有望成为全球最大半导体细分市场。近年来,NVIDIA 的 GPU 市场占有率一骑绝尘,其 CUDA 生态系统进一步巩固了优势。
DSA(Domain Specific Architecture)指专为某计算场景定义的特殊芯片架构:如 Google TPU 等 ASIC 芯片为特定AI任务(如 AIGC 模型推理)设计。这些芯片具有高效的能耗比,并在特定应用场景中展现出卓越的性能。McKinsey 预计 2030 年 95% 的 AI 计算任务将由 DSA 架构 AI 加速核完成,基本完全取代 GPU。
AI 模型训练和推理需要高效的数据存储与访问,存储系统在整个计算架构中至关重要。然而,当前存储能力的提升速度远不及计算能力,大大制约了整体系统表现,出现了“存储墙(memory wall)”问题:指代存储芯片及互联性能的提升速度远不及计算芯片的提升速度,使得数据的存储、搬运成为制约计算系统整体表现的核心原因。
为了解决存储墙问题,存在两种思路:减少 SoC 和外部存储之间的数据传输需求;将存储更“贴近”计算芯片。
HBM(High Bandwidth Memory,高带宽存储):即“3D 堆叠”的 DRAM,将 4/8/12/16 层 DRAM 存储芯片在垂直方向进行堆叠,之间通过硅通孔(TSV)、微凸块(micro bump)进行连接,可以实现更高存储密度、更高通信带宽、更低功耗,实现超高速数据传输,解决了大规模计算中的数据瓶颈问题。HBM 广泛用于高性能 GPU 和 AI 加速器中,如 NVIDIA H100 GPU。未来,HBM3 和 HBM4 的推出将进一步提升性能,适应更复杂的 AI 模型需求。
DRAM(Dynamic Random Access Memory,动态随机存储器):是一种由晶体管和电容器组成基本存储单元的高密度/大容量、相对低成本的易失性存储器,被用于主存/内存,是仅次于 CPU 的全球第二大半导体细分市场。虽然不如 HBM 带宽高,但 DRAM 凭借其较大的存储容量和较低的成本,依然是数据中心的重要组成部分。
NAND (not-and) Flash:是最主流的非易失性闪存存储器,常被用于外存,固态硬盘、手机是 NAND flash 应用占比最高的两大场景;NAND 是除 DRAM 外第二大的存储类半导体器件。3D NAND 技术的成熟大幅提升了存储密度,使其成为 AI 服务器和终端设备的重要存储解决方案。
存内计算(Process-in-memory,PIM):即“直接在存储中进行计算”,是计算与存储合并在一个单元内的架构,无需或大幅减小数据搬运的需求,从而解决存储墙的问题。
制程趋近极限带来的摩尔定律放缓:在 3D 层面集成可进一步提高集成度并降低成本; AI 芯片存储墙问题:提升互联性能、降低能耗; Chiplet模式的加速发展:先进封装使得 Chiplet 的集成成为可能,是前提条件。
先进封装是一个较宽泛的概念,指利用键合等方式实现更高集成度、更小尺寸、更高性能、更低功耗的一系列芯片封装技术。广义上,先进封装包括高密度倒装封装(HD Flip Chip)、晶圆级封装(Wafer Level Package)、2.5D 封装、3D 封装。
狭义上,先进封装指 2.5D 和 3D 封装,即通过 TSV(硅通孔)技术在 Z 轴上进行信号延伸和互联,可以将多个芯片进行垂直堆叠,以实现更高的集成度和更好的互联性能。
2.5D封装:集成密度超过 2D 但未达到 3D,将多个芯片整合在同一基板上,提高了芯片之间的数据传输效率。采用硅中介层(interposer)的集成方式进行互联,典型代表为 TSMC 的 CoWoS 封装工艺,如 NVIDIA A100 与 H100 芯片。
3D封装:通过垂直堆叠芯片实现更高的集成度和互联性能,台积电和三星在这一领域具有技术领先优势。3D 封装使得存储和计算单元更加紧密地协作,提高了整体系统的能效。典型代表为 TSMC 的 SoIC 工艺;HBM 也属于一种广义的 3D 封装工艺。
互联技术:NVIDIA NVLink 和 NVSwitch 全球领先
AI 服务器内部的计算单元需要通过高速互联进行高效协作。传统 PCIe 技术已逐渐无法满足现代 AI 任务的需求,NVIDIA 的 NVLink 和 NVSwitch 技术提供了更高的带宽和更低的延迟。
NVLink 技术:NVIDIA 的高带宽互联技术支持 GPU 之间的低延迟通信。新一代 NVLink 将带宽提升至 900GB/s,相当于 PCIe 5.0 的 7 倍。
NVSwitch 系统:实现节点内部与外部的交互,用于连接多 GPU 服务器及集群数据中心。每个 NVSwitch 拥有 64 个连接端口,支持 2.7Tb/s 至 13.6Tb/s 的数据传输能力,为 AI 系统提供顶级算力。
电源管理:DCX模块与能源效率优化
AI 服务器的高功耗要求更加高效的电源管理系统。传统的 12V 供电方案在能效上已经无法满足需求,48V DC 系统逐渐成为新一代服务器的标准。电源管理采用 DC/DC 转换模块优化电流传输,将 50V 直流电降压至芯片所需的 0.8V,以减少电流转换中的损耗。
国内企业正在开发本土 DCX 模块,努力摆脱对国外供应的依赖。预计未来华为等数字能源企业将成为关键参与者。
DCX 电源管理模块:支持高效的电压转换,为 GPU 和 AI 加速器提供稳定的电源供应。
制冷方案:数据中心的散热与热管理
AI 服务器在高负载运行时产生大量热量,传统风冷系统已不足以满足散热需求。液冷和浸没式冷却系统逐渐成为数据中心的主流方案。智能监控系统结合冷却设备,确保数据中心温度与能效的最佳平衡,满足 AI 服务器的高密度部署需求。
液冷:通过液体循环降低服务器温度,提高散热效率。 浸没式冷却:将服务器完全浸入冷却液中,极大减少了能耗和维护成本。
光通信模块:核心元件与发展趋势
光模块在数据中心的高速数据传输中发挥着关键作用。随着数据中心规模的扩大,光通信设备的重要性进一步提升。
作为光通信系统的核心部件,光模块 BOM 成本占比达到 75-80%。主要元件包括光芯片(VCSEL、PD)、TIA、DSP和调制器。目前全球市场以 Coherent、Lumentum 等厂商为主,但中国企业正加速自主开发,缩小与国际市场的差距。互联方案:提升服务器通信性能
数据中心的瓶颈不仅来自计算力,还包括不同节点间的通信延迟。NVLink 与 PCIe 等技术持续升级,提高了服务器内部与集群之间的通信效率。英伟达的互联系统结合了 NVLink 和 NVSwitch,实现高效的数据传输,为大规模计算提供了支撑。
出于对个性化、隐私、低延迟的诉求,AI大模型在端侧进行部署存在广大的想象空间。但端侧AI的部署仍受到算力、存储、电量的限制,其中大模型对内存容量的高要求可能是限制大模型在端侧部署的主要因素。
AI 手机:SoC 架构与 AI 算力的突破
手机端芯片采用 SoC 集成方案,融合 CPU、GPU、NPU 等多元计算单元。像华为的 Kirin 9000S、苹果 A18 Pro、骁龙 8 Gen 3 等芯片正推动 AI 手机进入深度学习时代。AI 手机的重点发展方向包括本地推理、语音交互及个性化应用,使终端设备不依赖云端计算,同时提升用户体验。
AI PC:赋能新一代办公与生产力
AI PC 以 PC SoC 芯片为核心,融合 CPU 与 GPU,优化深度学习推理能力。例如,苹果 M4、AMD Ryzen AI 300 以及 Intel 的 Meteor Lake Ultra 等芯片都在推动个人计算机进入 AI 时代。
未来 AI PC 将不仅用于办公,还将在数据处理、模型推理等场景中发挥关键作用,实现更高效的生产力。
二、全球主要厂商进展
全球 AI 基础设施市场正在经历快速变革,各大企业在计算芯片、存储技术和封装工艺上的竞争日趋激烈。
NVIDIA 凭借 GPU 的绝对性能和 CUDA 生态系统,稳居市场领导地位。NVIDIA 通过软硬件结合的战略强化了市场壁垒,其 H100 GPU 和 NVLink 互联技术不仅满足了高性能计算的需求,还为大型 AI 模型的训练和推理提供了基础设施支撑。NVIDIA在较长时间内,仍将维持全球范围对GPU、加速卡、AI服务器的接近垄断地位。
AMD 正凭借多元化的产品布局向 NVIDIA 发起挑战。AMD 不仅在 CPU 市场中凭借 EPYC 系列占据一席之地,还通过 MI300 GPU 和 Xilinx 的 FPGA 技术在 AI 计算市场扩展影响力。多元化的芯片组合使 AMD 能够灵活应对不同场景的需求,并在云计算和数据中心市场中取得了重要进展。然而,AMD 要想超越 NVIDIA,CUDA软件生态系统是AMD难以逾越的一道难关。
Intel 作为传统的半导体巨头,尽管在AI领域的表现略显滞后,但其在先进封装和制程工艺上的布局为其未来发展提供了潜力。Intel 与台积电一同推动了 3D 封装技术的应用,同时推出了 Sapphire Rapids 系列 CPU,以应对高性能计算的需求。然而,Intel 在 AI GPU 和加速器领域的相对劣势使其面临来自 NVIDIA 和 AMD 的双重压力。未来,Intel 需要在工艺优化和市场开拓方面寻求更多突破。
在 AI 基础设施的发展过程中,云厂商自研芯片可能在未来实现一定出货规模。Google、Amazon 和 Microsoft 等企业通过自研 AI 加速器芯片,减少了对第三方供应商的依赖。Google 的 TPU 系列自推出以来,广泛应用于 NLP 和计算机视觉任务,而 Amazon 的 Trainium 加速器则进一步提升了其 AWS 云服务的竞争力。这些云厂商的创新不仅推动了AI基础设施的发展,还重塑了芯片供应链的格局。
与此同时,中国企业也在 AI 基础设施市场中崛起。华为的昇腾 910B GPU 成为国内市场上与 NVIDIA A100 抗衡的少数选择之一,并在 AI 训练和推理中展现出强大性能。长鑫存储和长江存储作为本土存储厂商,通过自主研发的 DRAM 和 3D NAND 技术,逐步弥补了国内市场的短板。尽管中国厂商在产业链上仍面临挑战,但随着技术的积累和政策支持,他们正在缩小与国际领先企业的差距。
未来,AI 基础设施市场的竞争将不仅限于计算芯片的性能提升,还将包括存储效率和封装工艺的优化。2.5D 与 3D 封装技术的发展将进一步提升计算单元之间的协作效率,而 Process-in-Memory 等新兴技术有望解决传统架构中的数据传输瓶颈。全球市场的格局也将更加多元化,各大厂商需要在创新和市场拓展上不断突破,以应对日益复杂的市场环境。
总的来说,AI 基础设施的发展正处于关键转型期。随着各大厂商的深度布局和竞争的加剧,计算芯片、存储系统和封装工艺之间的协同创新将成为决定企业成败的关键因素。NVIDIA、AMD、Intel、云厂商以及中国本土企业的互动与博弈,将在未来几年内重新定义全球 AI 基础设施的市场格局。
三、中国企业的未来方向
随着全球科技竞争的加剧,AI 基础设施已成为中美博弈的重要战场。美国通过严格的出口管制和技术封锁,试图限制中国在高端芯片和半导体领域的崛起。具体措施包括 EAR 条例和实体清单,对关键技术和产品如 GPU、EUV 光刻机及半导体材料实施全面限制。这种多层次的封锁试图遏制中国获取尖端技术与设备的能力,使其在未来的科技竞争中陷入被动。然而,中国并未因此停滞不前,而是在不断探索自主创新路径,以突破核心技术瓶颈,确保科技产业的独立发展。
美国的“小院高墙”策略针对性地封锁中国获取高性能计算芯片和 AI 加速器等产品,这不仅影响了华为、SMIC 等本土企业的技术研发,也对中国 AI 产业链的上下游造成了严重冲击。在光刻机领域,ASML 等欧美供应商在国际市场上扮演关键角色,其先进 EUV 光刻设备的出口限制直接限制了中国高端芯片的制造能力。尽管 EUV 技术短期内难以实现完全自给,但通过技术积累和合作研发,中国企业已经在等效 7nm 工艺上取得了重要进展,为未来的技术升级奠定了基础。
在应对外部挑战的过程中,中国企业不仅需要依靠自主研发,还要重视供应链的整合与国际合作。华为的昇腾系列芯片和 SMIC 的 N+2 制程工艺为中国芯片产业链提供了重要支撑。与此同时,长鑫存储和长江存储的 DRAM 和 3D NAND 量产也显著提高了本土存储产品的供应能力。政策层面,中国政府通过专项基金和产业引导,鼓励企业在关键技术环节展开布局,并推动各领域的协同创新,以提升整体产业链的抗风险能力。
在国际合作方面,尽管欧美国家的出口管制对中国造成一定影响,但日本、韩国和欧洲国家仍希望在半导体市场上保持开放的贸易关系。这些国家和地区在材料、设备和技术服务方面占据重要位置,其市场态度将直接影响全球供应链的稳定性。因此,中国在推进本土化进程的同时,还需保持与其他国家的经济和技术合作,确保在复杂的国际环境中实现科技与产业的平衡发展。
总体来看,科技战给中国的科技发展带来了严峻挑战,但也为产业升级和自主创新提供了机遇。通过持续的技术创新和产业链整合,中国有望在未来的全球科技竞争中占据一席之地,实现从“被动应对”到“主动出击”的战略转变。这不仅是对当前局势的有力回应,更是未来科技强国之路上的关键一步。
四、AI基础设施未来发展趋势
未来 AI 基础设施的发展趋势呈现出多样化特征,从计算芯片到存储系统、先进封装工艺以及终端设备的智能化部署,每个领域都在推动新一轮的创新和产业升级。
随着 Transformer 模型的大规模应用,未来 GPGPU(通用图形处理单元)可能无法高效地满足复杂的 AI 任务需求。DSA(Domain Specific Architecture)定制芯片崛起,专门优化特定任务,以实现更高的性能和更低的成本。长期,GPGPU 和 DSA 可能共存于市场,GPGPU 处理通用计算任务,而 DSA 承担深度优化场景中的关键角色。
在现阶段,全球在AI芯片架构上做的尝试更多针对SRAM、HBM等存储上。未来,随着模型框架和算法固化,针对大模型的计算芯片DSA架构将具备更高的可行性,有望实现更高的PPA表现。
高带宽内存(HBM)因其超高的数据吞吐能力成为 AI 芯片的标配。
HBM 技术的迭代速度在提升,未来将引入更高层数和速度的产品,同时在能耗和体积上优化。SK 海力士、三星等厂商正在扩充产能以满足市场需求,推动 HBM 与 DRAM 和 SRAM 技术的深度整合。
2.5D 与 3D 封装技术通过将不同类型的芯片紧密集成,提高了芯片的计算能力和能效。
TSMC 和Intel等厂商在 3D Hybrid Bonding 技术方面领先,将其作为未来 AI 芯片封装的主流方案。随着市场对计算效率的需求提高,先进封装将在未来成为产业链竞争的关键一环。
RISC-V 开放架构因其灵活性和低成本,逐渐在边缘计算和物联网设备中获得应用。
随着全球对供应链安全的关注增加,中国正在加快 RISC-V 生态系统的布局,在与 x86、ARM 的竞争中打造自主可控的技术路线。
AI 服务器出货量的提升、耗电量的大幅增加,使得 AI 数据中心的电力需求大幅上升。据 SemiAnalysis 预计,2030 年全球数据中心能耗将占全球总能耗的 4.5% 左右(由 1.5% 上升 3pct),带来的额外能源需求约为数万亿度电。
未来,新能源的利用和能源管理系统的智能化将成为数据中心和服务器的重要发展方向,推动绿色 AI 计算的发展。
当前,AI 技术逐步从云端向端侧设备扩展,手机、PC 以及汽车等终端设备都将搭载 AI 处理芯片。
智能手机 SoC(系统级芯片)正在集成更高性能的GPU、NPU、DDR,以支持本地化的 AI 模型推理。未来的 PC 也将逐步采用更大DRAM和NPU的 AI 专用芯片,为用户提供更智能的使用体验。
2024 年 7 月 30 日,「此芯科技」发布了中国首款 AI PC 处理器,标志着国产 PC 在 AI 时代迈出了重要一步。此芯的 SoC 采用 6nm 制程,集成了大核 A72 与小核 A55 的“big.LITTLE”架构,支持 4K 视频编码和解码。GPU 部分采用自研架构,提供图形渲染与 AI 计算加速能力。此外,NPU(神经网络处理单元)提供 40TOPS 算力,可高效处理复杂的 AI 模型推理任务。
这款 AI PC 不仅能满足日常办公需求,还能支持 AI 推理、图像处理和语音识别等复杂应用场景。配备 128 位 LPDDR5 内存,带宽高达 6400Mbps,整体数据传输速率超过 100GB/s。这一突破性产品的推出,标志着国产 AI PC 正在摆脱对国外芯片的依赖,走向自主创新的道路。
五、中国的AI Infra投资机会
随着 AI 模型对算力的需求不断攀升,高算力芯片成为 AI 基础设施的核心。当前全球芯片制造领域的先进制程产能主要集中于台积电和三星等企业,但国内 SMIC(中芯国际)正在逐步突破技术瓶颈。中国企业通过发展自主 HBM 内存和前沿芯片封装技术,力争在制程和 Foundry 合作上取得进展。同时,部分企业正在布局 A100 级别的替代产品,这种产品具备与 NVIDIA 高端 GPU 竞争的潜力,将帮助国内厂商在全球市场上占据一定位置。
端侧计算和推理芯片市场正快速增长,涵盖智能手机、PC 和边缘设备。RISC-V 等架构的崛起提供了可编程的灵活性,满足不同设备的推理需求。未来随着 DSA(领域专用架构)的发展,中国有望出现专注于 NPU 和 AI 推理芯片的初创企业。这些公司不仅能够抓住国内市场,还能通过差异化设计和高效能芯片架构在国际市场寻求突破。
随着芯片封装从传统 2D 封装向 2.5D 和 3D 混合封装转型,先进封装成为提升芯片性能的重要环节。
中国企业在封装设备和材料链条上的国产化进程正在加速,减少对国际厂商的依赖。长鑫存储、长江存储、华为、盛合晶微等企业在封装设备和材料方面已形成一定布局,未来通过整合上下游供应链,国内企业将更具成本和效率优势,从而抢占全球封装市场的领先地位。
光通信技术正在经历快速迭代,CPO(共封装光学)技术和硅光芯片的发展为数据中心和高速网络提供了新动能。
光模块的升级以及光电芯片的融合,将极大提高数据传输速度与能效。国内企业需要在 DSP、TIA 等核心技术领域实现突破,以在全球光通信市场中占据重要地位。与此同时,光通信模块的国产化也将降低成本,增强供应链稳定性。
在 AI 服务器和数据中心内部,计算单元之间的高速互连是性能优化的关键。NVIDIA 的 NVLink 等技术已经证明了高速互联的重要性,而国内头部企业正通过整体自研互联系统,提升计算系统的整体效能。
同时,电源管理与冷却系统的优化将成为未来数据中心的重要关注点。国内企业通过在这些环节进行深耕,可以更好地服务于服务器和云计算市场,为 AI 基础设施的稳定运行提供保障。
这一系列投资机会表明,中国正加速布局 AI 基础设施的核心环节,从芯片设计、封装、通信到电源管理,逐步完善产业链条。
在全球供应链环境日益复杂的背景下,国内企业不仅要技术自主,更要加强上下游的整合,实现生态协同。这为资本市场和创业者带来了巨大的机遇,也为中国在 AI 时代的基础设施建设奠定了坚实基础。