中央广播电视总台某数据中心现状分析与节能探索

科技   2024-11-08 12:22   北京  

摘要:数据中心整个运营期间消耗的能源主要是电力,目前我国电力还是以燃烧煤炭为主,消耗电力本身就意味着碳排放。数据中心现阶段是高能耗、高排放的代表,节能降碳必定会成为数据中心发展新的主旋律。本文从总台某数据中心现状入手,分析当前阶段所使用的节能技术以及改进措施,并介绍了实现数据中心绿色低碳化的技术探索。

关键词:数据中心;PUE;节能降碳
当今社会,云计算、5G、AI等新型科学技术飞速发展,传统行业与信息化技术加速融合,数据中心作为保障大量系统运行的底层基础环境,必然成为其中至关重要的基础设施。
2021年7月,工信部发布了《新型数据中心发展三年行动计划(2021-2023年)》,其中明确提出了到2023年,新建大型及以上数据中心电能利用率PUE降低到1.3以下。同时,北京市发展和改革委员会公布《关于进一步加强数据中心项目节能审查的若干规定的通知》,通知中明确指出新建扩建数据中心主要为计算型,需要提高可再生能源的利用水平、能效水平、能源监测和管理水平。从源头上规范引导数据中心提高能效水平,强化全生命周期节能管理,实现绿色发展,促进数据中心碳减排、碳中和。
一、PUE的介绍
PUE(Power Usage Effectiveness,电能利用效率)是由美国绿色网格组织(The Green Grid,TGG)提出的评价数据中心能源效率的指标,目前被国内外数据中心行业广泛使用。PUE是数据中心全年总能耗与数据中心的IT设备全年能耗比值,PUE是一个大于1的数值,PUE数值越低,说明数据中心用于IT设备以外的能耗越低,越节能,也意味着数据中心绿色化程度越高。影响PUE的因素有很多,譬如:地理环境、空气条件、平均温湿度等直接因素,网络环境、电源效率、制冷条件、运维需求等间接因素,都会对PUE产生影响。
二、数据中心能耗发展趋势
国家能源局数据显示:2018年我国数据中心的总耗电量约为1600亿千瓦时,到2020年总耗电量突破2900亿千瓦时。根据国际能源机构统计数据,全球数据中心2010~2019年增长率约为20%,数据中心每年耗电占全球电力需求的近1%,占全球二氧化碳排放量的0.3%。
从Uptime Institute每年发布的数据中心行业调查报告显示,2007年全球数据中心PUE平均值为2.5,到2019年达到1.67,能效水平大幅提升。如图1 所示。
图1  大型数据中心年平均PUE值
三、总台某数据中心现状分析与节能技术介绍
1)机房环境现状
总台某数据中心机房主要分布在2层和B1层,共涉及到8个机房,目前投入使用的有7个机房,还有1个机房正在建设中。总面积约为2500平方米,现已部署机柜712个。各机房具体情况如表1 所示。
表1  总台某数据中心各机房详细信息统计表
2)配电系统方面
动力部门为总台某数据中心机房提供了双路UPS电源作为主供电源,工艺市电作为备用电源。
数据中心根据业务系统重要性及等级保护要求,优先使用双路UPS供电方式保障制播类应用设备和数据中心设备用电安全,使用市电+UPS供电方式保障新媒体类应用用电安全;根据不同机房供电能力及散热能力,规划不同上架安装密度,避免局部热点及超限供电;并在机房内采用单双路智能精密配电柜与智能PDU相结合的方式为机柜供电,并实时监测机柜功率。
3)制冷系统方面
总台某数据中心机房采用传统的地板下送风、敞开式机柜布置与冷通道密闭隔离相结合的方式设计。技术方面主要是采用智能动态精确制冷,分别基于自动温控技术及精确送风技术。在机柜进出风位置设置一线式温度传感器,对机柜的进出风温度数据信息及时收集,再通过控制智能通风地板的开合度来调节控制冷风的出风量,能有效地缓解制冷能耗的问题。
数据中心根据不同可用区划分机房及机房冷通道空间,减少不同可用区及业务系统交叉;同一业务系统尽量部署于同一机房,减少跨机房部署情况。
4)IT设备及环控系统方面
总台某数据中心承载了台内多个可用区的重要业务,涉及IT设备主要包括:DELL、华为、浪潮等机架服务器设备、HP刀片服务器设备、各制作岛托管的转码制作服务器设备,IBM、EMC、NETAPP、华为、浪潮等存储设备,思科、博科、华为等网络交换机设备。
当前对每个机房、每个机柜的用电量均有监控,对机房区域内的温湿度以及机柜上的PDU均进行数据采集。同时采用云图的形式展现数据中心各区域温湿度情况,直观展现机房内的热区,形成对数据中心整体环境的监控。
四、数据中心节能降碳改进措施
数据中心能耗主要是由IT设备的能耗和数据中心其他相关基础设施能耗组成,数据中心其他相关基础设施能耗又可以分为三部分,包括:供配电系统能耗、制冷系统能耗以及剩余相关系统能耗。
1)IT设备及系统能耗改进措施
数据中心的有效空间使用率随着业务发展而变化,很难达到满负荷,同时,数据中心又对IT业务的稳定性、可靠性要求极高,因此IT资源的使用效率通常会控制在80%以下。
◆对异形设备、使用年限过久设备加强监控管理,合理规划机柜资源,提高机柜使用率;
◆通过统计、分析各系统设备用电量以及负载高低峰时间段的用电量情况,找出异常耗电设备,做好用电监测、负载管理和设备扩充。同时,可以选用节能芯片低能耗IT设备,达到节能降碳的目标;
◆对于IT系统,通过调研阿里云飞天智能运维平台以及华为云NetEco智能运维管理软件,使我们了解通过建立一体化、智能化的IT统一监控平台和IT智能管理系统,使用人工智能应用、机器学习的方式建立模型来预测推演,能够实现数据中心基础设施的自我发现、自我管理,优化IT系统能耗问题。
2)供配电系统能耗改进措施
传统的高低压配电柜、UPS电池、UPS输出柜、机房内精密配电柜的供电模式在空间使用上存在浪费,而且变电效率损耗、电功率损耗也随之增加。目前数据中心机房内精密配电柜的供配电模式具有线路路由复杂、分期实施困难、不可重复利用等缺点,并且机房内精密配电柜占用了机柜使用空间。
◆对于新建及改建数据中心机房建议采用直流供电系统,采用模块化配电模式:减少了配电工程部件、配电产品占地,降低设备成本,提高电能转换效率;
◆使用智能母线技术取代传统配电柜的方式,智能母线供配电系统是典型的树干式,不仅能够实现未来功率的灵活扩容,减少电能损耗,同时兼顾对电压、电流和温湿度的实时监控,大大增加了机房利用率和收益。
3. 制冷系统能耗改进措施
总台某数据中心B1托管机房承载了总台高端岛、常规岛、混合岛、音频岛、包装制作岛、新闻专题岛、超高清制作岛等各个制作岛的设备托管,目前广电制播主要采用制作岛的模式,而每个制作岛都有一套自己独立的标准,导致在B1托管机房中存在着大量的转码、制作工作站以及存储等老式非标设备,对机房内制冷气流、机柜的密闭性具有很大影响。
目前,机房环境还存在地板下铺设强弱电线槽,机房通道过长,影响空调下送风质量,导致沿途冷量损耗以及敞开式机柜布局等问题。
◆对机房现有环境进行优化,在条件允许的前提下,逐步减少机房地板下走线,增加机柜上走线,减少对机房空调地板下送风量的影响;使用软、硬盲板相结合的方式,对单个机柜的密闭性加强管理,将原有的敞开式布置机柜进行冷通道封闭,提高空调冷量利用率;
◆通过对机房内温度场和气流组织进行分析,合理规划冷通道封闭环境,逐步优化制冷环境。机房冷通道环境设计以及气流流线分析如图2和图3所示。
图2  冷通道机柜截面图
图3   机房内气流流线图
五、数据中心绿色低碳化技术探索
在绿色节能以及碳中和方面,包括数据中心在内的所有产业都需要符合“双碳”战略的需求。由于通过电力转换成算力是数据中心最重要的生产方式,使用清洁能源以及新型节能技术是数据中心实现碳中和最高效的方式之一。
1)智能锂电UPS
数据中心对电力供给稳定、安全的强需求,往往配备2N甚至更高标准的UPS以及电池室,以支撑在断电情况下,至少15分钟甚至更高的持续供电能力。相比目前主流数据中心采用铅酸电池,用锂离子电池作为替代储能将成为发展趋势。
当数据中心使用清洁能源,特别是就近使用风能、太阳能等具有波动性的绿色能源时,可以通过锂电池在电网供电能力强的时候存储电力,在供电能力下降时释放出来,供给数据中心使用,从而保证了清洁能源供给的稳定性。这一功能,在铅酸电池的体系下,几乎是不可能完成的任务。从能量密度与占地面积、使用寿命来看,锂电池显著高于铅酸电池;同时,能量密度大、循环次数多的特性,使得锂电池具备了常年“充电-放电”循环的可能性。
通过对乌兰察布华为云数据中心的调研发现:目前华为在国内的数据中心UPS业务中,客户选用智能锂电UPS的比例已经高达30%。在安全方面,华为智能锂电UPS在材料上采用最稳定、安全的磷酸铁锂电芯,确保热失控的情况下不起火,不产生氧气;并自带完整的三级iBMS管理单元和多重保护单元,电池模块冗余设计进一步提升可用性。在可用性方面,华为智能锂电UPS采用了锂电智能均压技术,新旧电池可以混用,支持分期部署,降低成本的同时增加了部署灵活性;同时在柜内实现N+1的可靠容错,增加了UPS整体的可靠性。
2)浸没式液冷技术
在能耗占比中,制冷系统是除IT系统外最大的一部分。在选址时,不少数据中心选择温度更低区域,但这些选址本身即受到严格限制,一般数据中心难以借鉴。从常规节能技术来看,空调机组逐渐由风冷型和水冷型向冷冻水型、双冷源型转化,从气流组织看,冷热通道分离已广为普及,并从机房级细化到机柜级。从长期看,最具有革命性的节能技术为液冷技术,其中最典型的分别是浸没式、冷板式以及喷淋式。不过无论是从当前需求还是从未来数据中心的技术演进来看,浸没式液冷相比于其他两种方式更被行业看好。
首先,和传统的风冷技术相比,液体导热能力是空气的25倍,同体积液体带走热量是同体积空气的近3000倍;其次,同等散热水平时,液冷噪音水平比风冷噪音降低20分贝到35分贝;另外,在耗电量方面,液冷系统约比风冷系统节省电量30%到50%;最后,液冷技术对比传统的风冷,完全不用考虑因为空气流动所引发的振动,大大提高了IT系统的稳定性和寿命,降低了数据中心IT设备的故障率。
通过对张北阿里云数据中心的调研发现:阿里云浸没式液冷机房可以减少投资和运营支出,不仅提高了计算密度,还实现更为灵活的布局,清除场地成本较高或区域空间受限等数据中心选址障碍。浸没式冷却服务器不需要传统空气冷却的基础设施,浸没式液冷的数据中心可以建立在楼板/ 硬地板上,这就降低了成本,以及消除了空气冷却系统的复杂性。此外进入阿里云浸没式液冷机房内,超低的噪音给我们留下了深刻的印象。
六、结语
本文仅从总台某数据中心的运行情况,简单介绍了IT设备、制冷系统以及配电系统的现状以及改进措施。同时,通过对智能锂电UPS以及浸没式液冷等新型技术的探索,推进数据中心节能降碳的实现,使数据中心朝着绿色高效、智能安全的方向发展。
来源:数据中心基础设施运营管理,作者:熊伟

关注我们获取更多精彩内容


往期推荐

● 数据中心标准大会主旨论坛:七大维度解读“AI之光,照耀未来”

● 探寻奇点:柴发机组的机遇和挑战

● 【直播预约】11月7日 CDCC直播间 再谈智算中心关键网络

● 4年后将成东盟第一!CDCC专家解读马来西亚数据中心热潮

CDCC
数据中心标准、技术沟通交流平台
 最新文章