算力系列高级篇——算力危机报告:能源与散热的秘密战争

企业   2024-10-25 08:20   陕西  
AIGC的来临,让算力出现爆发式增长。


为了满足算力暴增的需求,数量众多的超大规模数据中心在加速落地。


在数据中心蓬勃发展的过程中,一些关键因素也不能不察,迫切需要解决,否则可能导致“算力危机”。


今天,和文档君一起了解一下,可能导致算力危机的2大因素:能源和散热


1


算力的“燃料”


要想马儿跑得快,就得给马儿喂好草料。


算力系列的文章《算力101:从零开始了解算力》《算力与计算机性能:解锁超能力的神秘力量!》《数据中心大揭秘!》,相信各位粉丝也都了解到,庞大算力,是各种专用软件、硬件共同努力的结果。


而所有的一切都要强劲、稳定、持续的电力作为“燃料”,才能驱动庞大算力的运行。


这可不是一丁点的电力,据业界预测,2030年全国数据中心能耗总量将超过4000亿千瓦时。


全球数据中心的能耗已经超过了全球电力消费的2%,而且预计在未来几年内能耗还会继续增长。


飞速增长的算力、电力,带来了巨大的能源需求问题。


该如何解决呢?很多粉丝心里其实已有答案。


在“”和“”这2个方面,聪明的人们已经有解决方案了。



“多”,就是算力提升速度再快,都要想尽办法保障足够的电力。


一是增加电力的生产


建立更多的火电厂,用更多的煤、石油、天然气等不可再生资源来发电。


优点是传统的资源利用方式,方便快捷。缺点是消耗大,对环境的影响巨大。


二是增加电力的来源种类


包括水力发电、核能发电、风力发电、太阳能发电等。


优点是资源可再生,绿色环保。缺点是受限于外界环境,包括:地形地理位置、风力大小、天气阴晴等等。


三是增加电力的存储


在电力富裕的时候存起来,等电力不足的时候再拿出来用。


优点是可以保障电力的稳定。缺点是新型技术,还在摸索创新中。


“少”,就是降低算力对电力的需求量。


一是减少算力的提升速度


现有的算力,是否已经足够满足我们的需求?是否还需要继续提升算力?如果再提升一定数量的算力就够用的话,那增加的电力需求也就有限了吧?


二是减少数据中心的损耗


承担计算主力任务的硬件,在运行过程中会损耗大量的能量。其他存储、网络等硬件,综合的损耗也不少。


为了减少这些损耗,国家据此提出相应要求,全国范围内新建数据中心的电源利用效率(PUE)<1.2。



 说明
PUE = 数据中心总能耗 / IT设备能耗

PUE越接近1,表示非IT设备耗能越少,数据中心能效水平越高。



三是减少单位算力的能耗


开发新型的计算技术,提高算力的能耗比,即同样大小的算力,对应的能耗减少。


相当于一份草料,以前只能供给一匹马的全力奔跑。通过培育新品种,一份草料,现在可以供给两匹新型马了。


四是减少算力的重复建设


算力是个好东西,很多企业、科研机构等都需要它。那有必要每个企业都建设单独的数据中心去产生算力吗?


如果集中在某些数据中心中产生算力,提供共用的算力池给大家使用,是否会达到这样的效果:算力的能力更大、算力的建设成本更低、算力的使用效率更高。


让多的多,让少的少,让马儿跑得快,草料还吃的少。


最终目标,还是希望通过各种技术和改进,让算力增加的多,电力还用的少。


2


算力的“冷却”


在产生算力的过程中,各种硬件都在全力以赴的处理各种数据。


那忙碌的场景,可以用“忙到冒烟”来形容。


实际上硬件运行过程中产生的高温,不仅会导致更多的能量损耗,更可能导致硬件的不稳定,甚至可能导致硬件的损坏。


所以,聪明的人们,想出了各种办法进行算力的“冷却”。


风冷


最常见的散热方式,我们的家用电脑也是采用这种方式。


通过空气的流动,将硬件产生的热量吸收和排出。


优点是成本低,便于安装和维护,而且通过设计合理的布局,提高空气流动的效率,确保散热的效果。


缺点是散热能力可能受到环境问题、空气湿度等因素的影响。


而且在大型的数据中心中,由于热密度更高,单纯采用风冷技术无法满足整体的散热要求。


空调


也是比较常见的散热方式,风冷方式是将常温的空气流动起来,空调冷却系统则是通过冷却空气,来控制数据中心的温度和湿度。


优点是可以满足数据中心对温度、湿度的严格要求,例如温度要求在20°~25°之间,湿度要求在40%~60%之间。


缺点是空调的运行也会消耗大量的能源,而且空调冷却系统的多个压缩机、冷凝器、蒸发器等设备,部署成本和维护成本都不低。


水冷


水的比热容较大,能够吸收大量的热量,而且吸收热量后的温度上升速度比较缓慢。


更重要的是,液体的对流换热系数,是空气的10倍~40倍。所以用水来散热,效率更高。


水冷系统是一整套的设备,水泵可以将自来水、井水或者专门的冷却水泵送到冷却管道中,冷却管道与数据中心的设备进行热交换,将设备产生的热量吸收从而降低设备的温度。吸收热量后的升温水会顺着管道到达热交换器,和热交换器并列在一起的冷却塔,就可以将水中的热量吸收出来,将热量散发到空气中。冷却后的水,继续进入到水泵,循环给设备降温。


优点是散热效率高,用了水冷以后,就可以减少对风扇、空调等辅助散热设备的依赖,降低能源消耗。


水冷系统的运行相对稳定,不受环境问题、空气湿度等因素的影响,可以进行精准的温度控制,确保数据中心的稳定工作环境。


缺点是需要部署专用的水泵、冷却塔、冷却管道等设备,占用了一定的空间。而且需要确保管道的密闭性,维护成本较高。


液冷


重要设备或者设备中的重要部件,进行有针对性的散热。


这里的液体,不一定是水,也可以是增加了特定添加剂的水基冷却液,改善水的性能,提高防腐防冻等能力。也可以是非水基的冷却液,例如:矿物油、氟化液等。



优点是可有针对性的降低特定设备的的温度,对其他部件的影响较小。


冷却液与发热元件直接接触,散热效果好,能够快速有效的带走热量。


缺点是液冷系统的设计水平、加工精度、安装工艺、控制复杂度、冷却液成本、维护难度等等,都有比较高的要求。


其中的两种方式如下:


  • 冷板式液冷服务器


    支持CPU液冷、CPU+内存条液冷、CPU+GPU液冷等,液冷散热占比超过

    80%,助力数据中心PUE降至1.1。


  • 浸没式服务器IceTank

    单节点能够处理超过2000W的功率,可以确保温度的均匀性,防止热点的产

    生,从而延长了硬件的使用寿命。 

    此外,超高散热能力还减少了对传统散热方法如风扇和空调的依赖,降低了运

    营成本。


上面简单介绍的这些“冷却”技术,有各自使用的场景。


而在“算力”世界里面,液冷技术由于具有低能耗、高散热等特点,逐渐成为满足数据中心散热要求的重要选择。




END



好的,今天介绍的就这么多:


  • 算力越大,需要的电力越多。电力越多,提供的算力越多。是增加电力?还是减少算力?两者之间的平衡,该如何把握,是一个难题。


  • 风冷、空调、水冷、液冷,“冷却”的技术有很多,该如何选择?该如何继续演进,需要综合考虑,因地制宜。


各位聪明的粉丝,有什么更好的解决方法吧,可以留言区一起讨论哈~


要想了解更多关于算力的知识,还请持续关注中兴文档推出的算力系列化图文。文档君带你由浅入深,走进算力的世界。


想第一时间收到我们的更新吗?

只需两步,为文档君加上“爱你一万年”星标⭐!

没有星标,你爱的文档君就要跟你失联啦~

我们是一群平均从业年限5+的通信专业工程师。
关注我们,带你了解通信世界的精彩!

中兴文档
通俗易懂且高颜值的通讯技术文档!
 最新文章