博通在 “Hot Chips 2024” 大会上详细展示了带有光连接的人工智能 ASIC ,集成了共封装光学器件(CPO)技术,即 AI +ASIC 集成 CPO 。本次在 “Hot Chips 2024” 大会上展示的带有光连接的人工智能 ASIC ,很可能是为一个客户项目而设计。CPO 技术长期以来一直是一个热门话题,博通的目标是构建一种在成本、功耗、可靠性和延迟方面,比当前光模块有实质性改进的光互连,并能够实现高达1 Tb/s/mm 的双工连接,以及支持当前和下一代的光带宽密度扩展。
目前,博通已经推出了第一代概念验证 25.6T CPO 交换机产品,并正在对第二代 51.2T CPO 交换机产品进行资格认证和量产。这展示了AI ASIC 与 CPO 技术的结合,包 CPO与 2.5D 封装的集成。在本次分享中,博通也阐述了使用高密度硅光子学构建部署在数据中心前端和后端网络中的共封装光学器件的历程,以及 CPO 平台对扩展和扩展连接的影响。我们知道,互连网络中的一大挑战是通过PCB的电输入/输出(I/O)范围的限制。一些设计者使用电缆从交换芯片外部连接到光笼,但最终解决方案似乎仍然是光学连接。比如说一个很好的例子:NVIDIA NVLink NVL72 是铜而不是光纤连接。
这页PPT主要讲解了 Serdes 迁移到 200Gbps 限制了电 I/O 范围,促使开发与 ASIC 共封装的光互连。硅光子学的应用减少了光学模块的组件数量,迈向带有 CPO 的 AI ASIC 的历程。下图展示了从分立的 III-V 族到 SiPh 的转变,包括带有硅光子学的模块、传统模块设计。博通现在不仅在交换机中使用硅光子学和共封装光学器件,还在可扩展计算中使用。用于扩展网络的 CPO 和用于可扩展计算的 CPO ,提供了超过 50Tbps 的光连接到交换机ASIC,以及超过 6.4Tbps 的光连接到 GPU 。
上图中的交换机照片是博通的 Tomahawk 5 Bailly。下图是 TH5 - Bailly CPO 的介绍。
图中展示 了先进封装,具有 CMOS 驱动器和 TIA 的 64 通道 EIC,具有集成复用/解复用功能的 64 通道 FR4 PIC 和 ODM 系统集成。
与英特尔旧的硅光子学不同,博通使用的是可插拔激光器。如果激光器会出现故障,可以只替换激光器,因此使用可插拔激光器有助于提高可维护性。在上面这张原理图中,展示了 CPO 、电缆组件、前面板端口的 I/O 连接,以及 16 个可插拔激光模块及光纤电缆组件。之前我们看到 博通有一个 Tomahawk 5 的 PPT 版本,与我们在本次演示中之前展示的共封装光学器件(CPO)的组件相同,如下面的 PPT 所示。CPO 的关键组件包括先进的具有驱动器和 TIA 的电气集成电路(EIC)、封装、光子集成电路、高密度光纤连接器(PIC)与调制器和光电二极管。下图是博通的第一代系统Tomahawk 4“Humboldt”,是一款25.6T以太网交换机,具有Half CPO、Half电连接,4个3.2T光引擎(32x100Gbps DR连接)。其中光引擎是一个键合到SiGe EIC的PIC,每个光引擎有约250个光学组件。与 CMOS 解决方案相比,SiGe 消耗额外的 3 pJ/bit 功耗。下面的胶片是 Tomahawk 4 的硅光子学实现。包含了激光器、光子和电子电路、信号处理器 ASIC、PIC、EIC、基板等。新版本 Tomahawk 5 Bailly是一款51.2T以太网交换机。与Marvell 的Teralynx 10 51.2T、64 端口 800GbE 交换机是同一个级别。这款产品的特点是采用全光 CPO 连接,具备 51.2T 以太网交换能力。8个 6.4T 光引擎(64x100Gbps FR4 连接),其中光引擎是一个键合到 CMOS EIC 的 PIC,每个光引擎有约 1000 个光学组件。
在这个新版本中,博通改进了封装,使用了扇出晶圆级封装(FOWLP),为光互连创造了一个更稳定的平台。
其中,FOWLP 提高了 PIC 到 EIC 键合的可扩展性。
以下是创建带有引擎的芯片的步骤,通过FOWLP 创新,用于共封装光学器件的双面连接。下图是光引擎的横截面,是在 8 个光引擎键合到基板后进行横截面。
博通表示,这是一种更具可扩展性的制造和集成光引擎的方法。
几个月前,博通展示了在 Scale-Out 具有 128 个 400G 光端口的想法。
博通表示,一个 800G 模块将消耗 13 - 15W 的功率。通过使用 CPO,若去除 DSP 等,功率将不到 4.8W。上图是 51.2T TH5 - Bailly 的演示,展示了功能齐全的 51.2T THS - Bailly,可以看出,在 4RU MP3 机箱内,800G 互连,TDECQ为1.07,功耗仅有 4.8W。除了实现光连接,另一个重要挑战是如何保证无差错运行。在完全集成的 51.2T 交换机的所有 128 个光端口上收集的前向纠错(FEC)分布,由 ODM 在制造环境中组装的生产机箱,下面的图像显示了 72 个端口的 FEC 尾部衰减曲线。博通在实验室层面正在进行进一步的优化。这些步骤旨在向供应商表明,其质量取决于传统可插拔光学器件的质量。在 51.2T 交换机中,光网络可插拔设备消耗大量功率。使用 CPO 光学器件降低了总功率,可节省约 30%的功率。下一步是使用类似的技术将计算 ASIC 与共封装光学器件结合起来。在这里,我们可以看到带有 HBM、计算 ASIC 和光芯片组的 CoWoS 封装。下图中的 GPU 连接看起来比上面的芯片更先进,具有更多的 HBM 和更多的计算块。不过,我们的想法是可以从芯片上获得 64 个链路来直接连接到交换机。每个 GPU 通过 CPO 光学器件连接到所有 64 个交换机,CPO 可以实现更大规模的扩展域。将光器件从 xPU 移开也很重要,因为它使光引擎远离热源,对确保光学器件可靠运行至关重要。
光学器件远离高功耗的 GPU,良好的光引擎可以最后连接到封装上,从而提高制造良率。
当前,一套设备具备 64x100G ,两套设备可实现 12.8T。如果从 12.8T 的密度提升到 102.4T ,将是非常惊人的带宽量。另外,Broadcom 也展示了 Bidi 双向光学器件在高基数网络中的应用。其中 Bidi 指的是发射和接收采用不同的波长。Bidi 光学器件在 FTTx 中已经广泛部署了 20 年,这种 Bidi 光学器件方法可以降低光纤成本,因此现在可能会是人工智能的一个有吸引力的解决方案。光连接在某个时候必须实现。英特尔在 2022 年展示了其硅光子学连接器,但它在其芯片上仍然使用铜互连,尽管曾有计划在 2025 年通过 Lightbender 用光学连接取代 HBM 堆栈(但英特尔已停止 Lightbender 项目)。现在,博通正在出货 CPO 光学器件交换机。随着计算需求的不断增长,博通的 CPO 技术有望在数据中心和人工智能领域发挥更大的作用。邀请您加入我们的社群,获取海量专业文档和最新研报,当前价格最优惠!欢迎关注我们!