芯片公司2023年报中的技术发展趋势-澜起科技

文摘   科技   2024-04-10 12:07   上海  

各公司陆续发布2023年报,从中可见一些未来的发展趋势。

主题合集可参考:

芯片公司2023年报中的技术发展趋势-1(芯原微电子)

芯片公司2023年报中的技术发展趋势-2(翱捷科技)

芯片公司2023年报中的技术发展趋势-3(复旦微电子)


服务器内存接口相关技术(高带宽内存接口技术)

内存接口相关技术主要跟随主流 CPU 及内存模组相关生态系统的发展而演进。报告期内,内存模组由 DDR4 时代向 DDR5 世代迁移。从技术层面上,内存接口技术演进路径主要分为两类:

一是沿着现有内存模组技术标准持续更新迭代,支持速率不断提升,DDR5 第一子代内存接口芯片支持速率为 4800MT/s,每升级一个子代,支持速率将持续提升,行业正在定义中的 DDR5 第五子代内存接口芯片将支持的速率为 8000MT/s,未来 DDR5 还将规划 1~2 个子代;

二是基于新的应用需求和 CPU 的技术演进产生新技术路线——高带宽内存接口技术。

基于 AI 和 HPC 等应用场景对带宽的需求,同时服务器 CPU 内核数量快速增加,迫切需要大幅提高内存系统的带宽,以满足多核 CPU 中各个内核的数据吞吐要求,JEDEC 组织制定服务器高带宽内存模组 MRDIMM 相关技术标准,MRDIMM 可以同时访问两个阵列,提供双倍带宽,第一代产品最高支持 8800MT/s 速率,预计在 DDR5 世代还会有两至三代更高速率的产品。

MRDIMM采用了 LRDIMM“1+10”的基础架构,需要搭配的 1 颗 MRCD 芯片和 10 颗 MDB 芯片,这些专 用的新型内存接口芯片与 CPU 的数据连接仍为单组内存信号,但是通过采用双倍数据传输速率和时分数据复用技术,可以将两个标准速率的内存数据通道合并后倍频传输,其与 DRAM 的数据连接则扩展为两组独立内存信号,可以在标准速率下对 MRDIMM 上面两个内存阵列同时操作。通过这种新型数据传输架构,MRDIMM 可以在使用标准速率 DRAM 的情况下,实现双倍速率读写。

因此,MRCD 芯片和 MDB 芯片与普通的 RCD 芯片、DB 芯片相比,设计更为复杂、支持速率更 高。随着 MRDIMM 相关技术的逐步成熟,其将为下游应用带来更高带宽的内存解决方案。

台式机及笔记本电脑内存模组相关技术

在 DDR4 时代及 DDR5 初期,内存接口芯片只应用于服务器内存模组,主要是为了缓冲来自内存控制器的地址、命令及控制信号,提升内存数据访问的速度及稳定性,满足服务器 CPU 对内存模组日益增长的高性能及大容量需求,由于台式机和笔记本电脑 CPU 及内存模组之间数据传输量并不大,所以目前还不需要对信号进行缓冲,但随着 DDR5 传输速率持续提升,时钟信号频率越来越高,导致时钟信号会遇到信号完整性的瓶颈,当DDR5数据速率达到 6400MT/s 及以上时,原本不需要信号缓冲的 UDIMM、SODIMM(主要用于台式机和笔记本电脑),将需要一颗时钟驱动器(CKD)对内存模组的时钟信号进行缓冲再驱动,从而提高时钟信号的信号完整性和可靠 性,目前JEDEC正在制定CKD芯片的标准。同时,JEDEC也在制定需要配备CKD芯片的CUDIMM、CSODIMM 标准。

除此以外,JEDEC 也在制定尺寸更加紧凑的 CAMM(Compression Attached Memory Module)和 LPCAMM(Low Power Compression Attached Memory Module)内存模组,用于笔记本电脑。其中 CAMM 内存模组,采用 DDR5 DRAM 颗粒,需配合使用 CKD、SPD 和 PMIC 芯片;LPCAMM内存模组采用 LPDDR5 DRAM 颗粒,需配合使用 SPD 和 PMIC 芯片.

PCIe 高速互连技术

2023 年 6 月,PCI-SIG 发布 PCIe 7.0 规范的 0.3 版本,即标准的首个预览版本。这标志着 PCIe 7.0 规范的新成就,表明 PCI-SIG 组织成员已经就即将推出的技术的关键特征和架构达成了一致,为 2025 年的正式发布奠定了良好基础。PCIe 7.0 标准旨在满足 800G 以太网,超大数据中心,人工智能及其他新兴高端应用领域对高吞吐率、低延时互连技术的需求。

CXL 互连技术

CXL 技术可以提升系统间各模块的数据交换效率,解决缓存一致性问题,显著改善多路 CPU、CPU 与加速器之间的通信能力,降低延迟,实现数据中心 CPU 和加速器芯片之间的超高速互连,从而提高数据密集型应用程序的性能。

作为当前数据中心领域最重要的标准之一,CXL 标准其有望催生诸多创新应用,改变当前数据中心的基本架构,进而提升数据中心的运行效率、降低运行成本。CXL 标准使用 PCIe 协议作为物理接口增强了兼容性,通过三种基础协议(CXL.io、CXL cache 和 CXL.memory)支持具体应用。

在 CXL 1.1 规范的初期有三种应用模式:

一是调用 CXL.io 和 CXL cache 可以使得一些缺少内存的智能设备(比如智能网卡)能够与 CPU 内存进行交互;

二是调用 CXL.io、CXL cache 和CXL.memory 可以使得 CPU、GPU、ASIC 和 FPGA 等能够共享各自的内存,同时解决缓存一致性问题;

三是调用 CXL.io 和 CXL.memory 协议可用实现内存的扩展或池化。

2022 年 8 月,CXL 联盟发布了 CXL3.0 的规范。CXL3.0 规范在三个关键领域进行重大改进:

一是作为物理接口的 PCIe 协议由 PCIe5.0 上升到 PCIe6.0,传输速率由 32GT/s 提升至 64GT/s;

二是 CXL3.0 可以支持更加灵活的 Switch 拓扑;

三是 CXL3.0 除了支持内存池化,还可以进一步支持内存共享。

2023 年 11 月,CXL 联盟发布了 CXL3.1 的规范。新规范对横向扩展 CXL 进行了结构改进、增加了新的可信执行环境功能,并对内存扩展器进行了改进。CXL 3.1 的一项新功能是支持使用全局集成内存(GIM)通过 CXL 结构进行主机之间的通信,这可以大大提高系统性能。

另一项重要的改进是通过 CXL 对内存事务的直接点对点支持,这可以增加 GPU 内存的使用效率,对于处理大规模数据集和 AI 工作负载非常有帮助。CXL 3.1 还定义了基于端口的路由 CXL 交换机的Fabric Manager API,这使得结构管理器可能成为 CXL 生态系统的关键部分,因为它需要跟踪集群中发生的许多事情。此外,CXL 3.1 的可信安全协议(TSP)是为了处理平台安全性而设计的,这对于云服务提供商的多租户虚拟机环境尤其重要。随着 CXL 技术的不断演进,未来数据中心各个计算节点和内存节点的互联将更加快速,更加高效,更加灵活。

AI 芯片技术

人工智能是引领新一轮科技革命和产业革命的战略性技术,是全球科技竞争的战略制高点。ChatGPT 的横空出世引爆了全球人工智能市场,也显示出其巨大的市场应用潜力。2023 年,以大模型为代表的人工智能突飞猛进,各类大模型层出不穷,大模型商业布局的落地速度明显加快。

“大算力+强算法”结合的 AIGC 大模型架构在未来很长一段时间都将成为人工智能发展的趋势。这类大模型架构将带动 AI 服务器的需求,包含 CPU、GPU、内存等。相较于普通服务器,AI 服务器对 CPU、GPU、内存等器件的要求更高,具体主要表现在:

1、需要更高的算力;

2、需要算力满足低延迟低功耗的特性;

3、需要内存的容量更大、带宽更高、速率更快。同时,各行业

与人工智能技术的深度结合及应用场景的不断成熟与落地,使人工智能芯片朝着多元化的方向发展,服务器的类型也将越来越丰富,并适用越来越多的行业应用场景,各种类型的 AI 加速卡会有更多的发展空间。

上述内容来源:澜起科技2023年报。


验证芯发现
验证工程师的公众号,记录芯片验证的方方面面。