Nvidia 通过量子物理模拟加速 Google 量子 AI 设计

文摘   2024-11-19 15:50   安徽  

Nvidia 正在与 Google Quantum AI 合作,使用由 Nvidia 提供支持的模拟来加速其下一代量子计算设备的设计。

Google Quantum AI 正在使用混合量子经典计算平台和 Nvidia Eos 超级计算机来模拟其量子处理器的物理特性。这将有助于克服量子计算硬件的当前限制,由于研究人员所说的“噪声”,量子计算硬件只能在计算必须停止之前运行一定数量的量子操作。

“只有当我们能够在控制噪声的同时扩大量子硬件的规模时,才有可能开发出商业上有用的量子计算机,”Google Quantum AI 的研究科学家 Guifre Vidal 在一份声明中说。“使用 Nvidia 加速计算,我们正在探索越来越大的量子芯片设计的噪声影响。”

了解量子硬件设计中的噪声需要复杂的动态模拟,能够完全捕获量子处理器中的量子比特如何与其环境交互。

传统上,这些模拟的计算成本高得令人望而却步。然而,使用 CUDA-Q 平台,谷歌可以在 Nvidia Eos 超级计算机上使用 1024 个 Nvidia H100 Tensor Core GPU,以执行世界上最大、最快的量子设备动态模拟之一,而成本只是其中的一小部分。

“AI 超级计算能力将有助于量子计算的成功,”Nvidia 量子和 HPC 总监 Tim Costa 在一份声明中说。“Google 对 CUDA-Q 平台的使用表明,GPU 加速模拟在推进量子计算以帮助解决实际问题方面发挥着核心作用。”

借助 CUDA-Q 和 H100 GPU,Google 可以对包含 40 个量子比特的设备进行全面、逼真的模拟,这是同类游戏中执行规模最大的模拟。CUDA-Q 提供的模拟技术意味着需要一周时间的嘈杂模拟现在可以在几分钟内运行。

为这些加速动态模拟提供支持的软件将在 CUDA-Q 平台中公开提供,使量子硬件工程师能够快速扩展其系统设计。

    关注+星标“硅基LIFE”,每日获取关于人工智能、芯片领域最新动态。 加微信fusion9000,进“硅基LIFE”粉丝交流群交流并接收实时滚动推送的最新信息  

硅基LIFE
每天推送全球关于芯片和人工智能的最新动态
 最新文章