人工智能(Artificial Intelligence)正在逐渐走入人们的日常生活,并改变着我们的工作方式和生活习惯。从清晨一声“小爱同学,打开窗帘”,到通勤路上高德地图的智能导航;从抖音精准推荐的短视频,到支付宝的刷脸支付便捷结账,AI无时无刻不在为我们提供便利。除此之外,AI还助力智能家居、无人驾驶、智慧交通、智能客服等领域,为人们的生活带来便利与高效。这些例子充分表明,人工智能已经从技术概念变成了触手可及的现实。
而你知道吗?人工智能除了能够极大的改善人们现有的生活之外,同时也隐藏着一个巨大的社会环境问题:巨额的碳排放。AI模型的训练和运行需要大量的计算资源,而这些计算消耗的能源大多来自传统的化石燃料,这意味着每一个AI算法的运行都可能伴随着高额的碳排放。随着AI技术的普及,其能耗与碳足迹正在快速增加。如何在享受AI便利的同时降低其环境成本,成为我们无法忽视的重要议题。
OpenAI公司旗下的各种产品,无论是文本生产工具ChatGPT、图像生成工具DALL·E还是视频生成工具Sora,均属于生成式人工智能(AIGC),而这种基于深度学习的人工智能技术能够快速发展依赖于数十亿到数千亿个参数构成的深度神经网络模型,简称“大模型”。
AI时代下的能源危机
大模型是一种基于Transformer 结构的神经网络模型;其构建过程就是使用训练数据对于模型参数的拟合过程,主要分为预训练、有监督微调、奖励建模和强化学习四个阶段。其中,预训练阶段需要数千亿的单词作为原始数据供模型训练,包含网页、书籍、论文、百科等等,需要上千个GPU训练数个月,其中消耗的能源是巨大的,最为显著的是电力以及水资源的消耗。
以MetaAI开源4050亿参数的大语言模型Llama 3.1为例,该模型使用了英伟达H100-80GB显卡在预训练阶段花费了共计3,930万个GPU小时数,在700W的训练功耗下共计排放了11,390吨二氧化碳当量,相当于近7,000辆小轿车绕地球赤道一周所产生的碳排放量!
据估计,世界数据中心消耗的能源产生的温室气体排放量超过了航空业,占全球的2.5%至3.7%。AI大模型依赖于数据中心服务器基础设施,需要耗用大量能源和水资源用于数据处理与存储。根据国际能源署IEA的公开电力数据显示,2022年全球数据中心、人工智能、加密货币消耗了460太瓦时,预计在2026年这个数字会扩大至1,000太瓦时以上。这些能源供应中相当一部分源自于以化石燃料为首的不可再生资源,这种能源消费方式导致了大量的温室气体排放,成为全球温室气体排放的主要来源之一。
如何降低AI行业碳排放
鉴于AI模型的碳排放量如此巨大,如何降低AI系统自身的碳足迹来减缓全球气候变化显得尤为重要。
1. 利用AI调节优化技术降低数据中心的PUE
数据中心的PUE(Power Usage Effectiveness)是指数据中心总能耗(PDC)与IT设备能耗(PIT)之间的比例。这个比值越接近1,意味着数据中心的能效和绿色化程度越高。其中,温控冷却系统作为数据中心能耗最大的辅助设备,其电费支出在运营过程中通常占总成本的30%至40%。
降低数据中心PUE的难点在于服务器会产生大量热量,数据中心会使用泵、冷水机组和冷却塔等大型工业设备来调节温度,以保持设备在安全的温度范围内。然而,在复杂的数据中心环境中运行这些冷却系统时,还需要考虑天气等外部因素,人类的直觉或现有的操作系统公式往往难以达到最优的冷却效果。
Google的DeepMind团队利用所有现有数据中心传感器收集的数据,如温度、功率、泵速和设定点等,来训练一组深度神经网络。通过预测数据中心在未来一小时内的温度和压力变化,系统能够推荐一系列操作,从而实现能源的最佳利用。基于DeepMind的这一解决方案,数据中心的冷却能耗减少了40%,PUE降低了15%。因此,Google用于实验的数据中心也达到了历史最低的PUE水平。
在大模型的训练和应用过程中,由于大量计算和存储需求导致数据中心的能耗和碳排放通常较高。根据《中国区域电网二氧化碳排放因子研究(2023)》的数据显示,全国电网排放因子最高的省份为河北省,为1.092kgCO₂/kWh。相比之下,全国范围内电网碳排放因子较低的省份为青海省、四川省以及云南省,其中青海省的电网排放因子为全国最低,仅为0.095kgCO₂/kWh。这也意味着在河北省消耗1度电所产生的温室气体排放比在青海省消耗11度电所产生的温室气体排放更多!
将数据中心建设在区域电网中清洁能源占比更高的地区,数据中心能够依赖于低碳电力来源从而显著减少整体碳排放。此外,结合智能电网管理和绿色能源调度,能够进一步提升能源使用效率,推动大模型在减少环境影响方面的可持续发展。
3.使用预训练模型和轻量级微调方法
预训练模型(Pre-Training Model)是在大规模数据集上预先训练好的模型,开发者可以直接利用其权重和结构,而无需从头开始训练,关键优势在于通过减少计算需求来节约能源使用。从零开始训练一个大型模型需要大量的GPU计算时间和能源,尤其是在多次迭代过程中,会产生显著的碳排放。由于预训练已经完成,开发者只需在特定任务上进行微调,这大幅度降低了计算时间和资源消耗,不仅能提高开发效率,还能为环境可持续性作出贡献。
轻量级微调(Fine-Tuning)是指在预训练模型的基础上,仅对少量参数进行调整和优化,使其适应特定任务。预训练模型已经在大量通用语料库上学习到了丰富的语言特征,微调的过程主要是针对特定任务(如情感分析、命名实体识别等)进行定向优化,通常只需在少数几轮迭代内就能完成。由于计算资源(如GPU/TPU)的需求显著减少,轻量级微调不仅能够减少所需时间提高训练效率,也降低了能源消耗和碳排放。
AI赋能行业高效减排
随着人工智能的广泛应用,碳排放问题变得更加紧迫。然而,AI本身也具有帮助解决气候问题的潜力。通过优化算法、使用清洁能源和应用轻量级微调方法,我们可以减少AI技术的环境影响。关键在于找到创新与可持续之间的平衡,让AI在推动经济和社会发展的同时,也成为应对气候变化的重要力量。未来的AI不仅应关注技术突破,更应肩负起绿色发展的责任,助力全球实现低碳目标。