去年以来,为了部署更多的AI应用和训练更大规模的模型,科技巨头们开始疯狂扩张数据中心规模,新一轮的竞赛已进入白热化阶段。
Meta计划耗资8亿美元在印第安纳州杰斐逊维尔建设一个数据中心园区,该设施将成为Facebook母公司在美国的第18个、全球第22个数据中心。同时,Meta重新设计了位于爱达荷州库纳和德克萨斯州坦普尔的数据中心,以满足AI业务的扩张需求。
微软宣布投资32亿欧元扩张在德国的人工智能基础设施和云计算能力。此次投资将重点关注法兰克福现有的云计算和北莱茵-威斯特法伦州新规划的数据设施。谷歌母公司Alphabet最近最引人注目的公告之一是投资位于英国伦敦北部沃尔瑟姆克罗斯的新数据中心。
还有Aligned Data Centers旗下的Odata公司也已宣布扩大其墨西哥数据中心的容量,并建设据称是该国最大的数据中心园区。
巨头们升级军备的同时,数据中心引发的环境与资源紧张也在加剧。各国政府越来越严格的环境政策以及公众舆论的关注,使得业界呼唤数据中心行业出现“革命”,通过采取各种新型规划方案和技术升级应对碳排放与能源消耗问题。
近期,欧美业界多家IT行业分析公司,如Gartner,GlobalData,The Futurum Group等就现阶段数据中心的能耗与环境问题密集发声,可以看作是数据中心领域新一轮“革命”的强烈信号。
综合这些业内分析,以美国为首的欧美市场,在数据中心竞赛潮中正面临以下几个日趋严重的问题:
首先是选址问题。巨头们对新数据中心的选址顾虑越来越多。除了传统的政策审批,人力和土地成本等障碍外,能源网络问题也越来越突出。以美国为例,美国70%以上电网已经陷入老化,很多地区电网无法支撑大规模训练集群所需要的稳定供能。这导致当下美国数据中心出现“离网潮”。
然后是生成式AI引发的革命正在加速硬件升级,未来新建的数据中心们必须能够支持更高服务器功率密度的部署,以及满足AI应用对硬件和软件的特殊配置的需求,获得更好的计算性能。其中图形处理单元 (GPU) 的大规模部署影响格外突出。耗电和发热量越来越高的GPU将为许多数据中心已经不堪重负的电源和冷却系统带来更大的挑战。
AI云服务化趋势也让更多超大型数据中心加速出现。从MidJourney,Chatgpt,Sora到最新的作曲AI Suno,大模型的突破性让我们无法预估未来还会出现多少杀手级的AI应用。正如The Futurum Group副总裁Steven Dickens所说:“到2024年,全球数据中心产业运营的方向将发生重大转变,更多的数据中心会将人工智能集成到数据中心运营功能中,并大规模战略部署GPU。,这些趋势强调了该行业对计算能力日益增长的需求以及可持续运营的必要性的反应。”
据Gartner分析师David Wright的相关评论,环境可持续性是美国超大规模数据中心企业2024年战略的重点。有影响力和远见的客户预料到美国和欧洲即将出台更严格的环境风险披露法律。这些受到监管压力的客户正在向超大规模数据中心运营方施压,要求其提高效率和能源透明度。
现阶段,所有主要的超大规模数据中心运营商都有某种形式的可持续发展承诺和方向。尽管算力需求十分迫切,但可持续性和环境友好也非常重要,平衡增长需求与可持续性仍是超大规模数据中心运营的首要考虑因素。大型科技公司迫切需要弄清楚,怎样才能最大限度使用可再生能源来运行数据中心。
然而,虽然巨头们纷纷就数据中心可持续运营进行表态承诺,但未来可见的很长一段时间内,全球数据中心军备竞赛的势头都不会减缓。推动本轮竞赛的因素主要有以下四点:
人工智能:对超大规模数据中心和人工智能算力的需求似乎没有尽头。新的数据中心需要从头开始建造(而不是改造),满足高标准的冷却和电力要求才能为人工智能做好准备。
冗余和弹性:服务提供商总是在尝试建设新的数据中心以满足冗余和弹性和弹性需求,原因包括:1) 在服务区域中添加更多冗余以最大限度地减少停机时间。2) 根据利用率指标添加新容量。3) 数据中心的使用寿命通常为 15 年。鉴于云计算大约2010-2015年才开始出现,现在是时候进行更新了。
边缘服务:服务提供商期望推出更多基于边缘的服务,以支持围绕物联网、智能制造、自动驾驶和智能零售的用例。更小、数量更多的数据中心需要分布在相关机器和传感器所在的边缘附近。
数据主权:对于性能和数据主权要求来说,让数据靠近用户非常重要。虽然北美和欧洲的服务覆盖范围相当饱和,但亚太地区和拉丁美洲存在大量新兴机会。
尽管AI算力需求的高速增长不可或缺,但由此引发的气候风险也影响深远。如果不能从化石燃料电力大幅转向清洁能源,并同时对数据中心进行节能改造,这种风险带来的危害将会进一步恶化。
英伟达公司首席执行官黄仁勋表示,人工智能已经达到了“临界点”。他还表示,数据中心的成本将在五年内翻一番,以推动新型AI软件的兴起。
根据国际能源署的数据,数据中心和传输网络的消耗量已分别占全球消耗量的1.5%和3%,它们每年排放的二氧化碳总量相当于巴西全年的二氧化碳排放量。
为了降低数据中心的二氧化碳排放,巨头们和其他数据中心提供商为大量太阳能或风电场提供了资金,并使用碳积分来抵消排放。但仅靠这一点还不够,尤其是随着人工智能的需求不断高涨。微软与Constellation Energy Corp签署了一项协议,保证其区域数据中心90% 以上的电力将是无碳电力。不过,对于它和其他超大规模企业来说,达到100%仍然是一个艰巨的目标。
谷歌无碳能源战略负责人迈克尔·特雷尔表示,谷歌数据中心大约64%的时间使用无碳能源,其中13个区域站点达到了85%,全球7个站点的这一比例略高于90% 。但庞大的散热所导致的能源开销,迫使数据中心运营商不得不依旧保持对化石燃料的依赖。
“如果你不减少足够的化石消耗,那么你就很难完全实现你的气候目标。”特雷尔说。
但极高散热需求的AI数据中心,想要完全避免化石燃料的消耗又谈何容易呢?显然,那些能够更加高效环保的数据中心技术,将在未来获得极大的优势。
比如部署在我国海南的海底数据中心,可以配套消纳海上风电,并利用海水天然冷源进行散热,从高效散热与节能减排两方面满足未来AI算力需要的超大规模计算集群建设。这也是这种新形态基础设施在当下受到市场强烈关注的原因。未来,无论数据中心会发展进化至何种形态,高效散热与绿色环保两个指标都会是基础中的基础。
供稿 | 李浪平
责编 | 唐菲
审核 | 赵喜春