服务器需求增多,怎样应对数据中心面临的散热挑战

文摘   2023-05-29 19:56   江苏  

日前,英伟达工程师Ali Heydari获得了 500 万美元的拨款来完成他的数据中心冷却项目。这项拨款来自美国能源部 5 月份颁发的 15 个奖项中最大的一个,名为 COOLERCHIPS

“这是我们如何重新构建数据中心的另一个例子,”NVIDIA 工程师 Ali Heydari 说,他是该项目的负责人,曾在百度、Twitter Facebook 担任过职务,曾帮助部署了超过一百万台服务器。

“我们在 Slack 上庆祝,因为这个团队遍布美国各地,”Jeremy Rodriguez 说,他曾经构建过超大规模液体冷却系统,现在管理 NVIDIA 的数据中心工程团队。

该项目雄心勃勃,适逢计算机历史的关键时刻。随着摩尔定律达到物理极限,处理器预计会产生多一个数量级的热量,但市场对数据中心的需求继续飙升。

很快,今天的风冷系统将无法跟上。 目前的液体冷却技术无法处理每平方厘米超过 40 瓦的功率。在这样的情况下,研究人员预计未来数据中心的硅将会消散。

因此,Heydari 的团队定义了一种先进的液体冷却系统。

他们的方法有望在移动容器中冷却数据中心,即使它被放置在高达 40 摄氏度的环境中功耗达到200kW——此功耗是当今服务器机架功率的 25 倍。

与当今的风冷方法相比,它的成本至少降低 5%,运行效率提高 20% 它更安静,碳足迹也更小。

该团队的解决方案结合了两种以前从未同时部署过的技术。

首先,芯片将用冷却板冷却,冷却板上的冷却剂会像辛勤工作的处理器前额上的汗水一样蒸发,然后冷却凝结并重新形成液体。 其次,整个服务器及其低功率组件将被封装在密封容器中并浸入冷却剂中。他们将使用冰箱和汽车空调中常见的液体,但尚未用于数据中心。简单来说,服务器中的 CPU GPU 芯片将使用冷却板和挥发性冷却剂进行冷却。 然后将整个服务器装入密封容器中并浸入介电冷却剂中。

该计划的目标是能量密度超过 80kW/m3 的计算系统,相当于每台服务器约 >3kWCOOLERCHIPS 旨在通过在不影响数据中心可靠性和可用性的情况下提供更低的总拥有成本,与当前最先进的解决方案相比具有商业竞争力。

这个为期三年的项目设定了年度里程碑——明年进行组件测试,一年后进行部分机架测试,最后测试并交付完整的系统。

该团队由十几名热能、电力、机械和系统工程师组成,将使用 NVIDIA Omniverse 创建系统的完整数字孪生,NVIDIA Omniverse 是一个用于构建和运行元宇宙应用程序的开放式开发平台。




YoYo酱慢谈
杂说漫谈,科技前沿信息介绍与分享。