ChatGPT耗水费电,杨立昆痛批Sora注定失败,生成式成为原罪?

科技   2024-03-12 07:06   广东  
作者:南山南
编辑:苏子瞻
来源:科技最前线 (kejizqx)
    
以往,大家都在讨论生成式AI大模型哪家强,而近日画风突变。

大家开始关注AI大模型有多耗电了,尤其是生成式AI。(以前叫人家小甜甜,现在叫人家牛夫人)

3月10日,据《The New Yorker纽约客》杂志报道,OpenAI的热门生成式聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。


相比之下,美国家庭平均每天使用约29千瓦时电力,也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。


如果生成式AI被进一步采用,耗电量可能会更多。


消息一出,立马占据了热搜,甚至还隐约带动了A股相关产业大涨。


01

生成式AI有多耗电?

日耗电量≈1.7万个家庭


近年来,AI行业迅速崛起,其中生成式AI技术更是备受瞩目。然而,这一技术的潜在商机伴随着巨大的能源消耗问题,引发了对碳排放的严峻关注。


OpenAI推出的聊天机器人ChatGPT便是生成式AI的杰出代表之一。此前,仅仅两个月时间,ChatGPT就吸引了超过1亿活跃用户,而至今用户数量仍在不断增长。


然而,这一庞大的用户群体背后隐藏着令人震惊的能源消耗现实。据上述报道,ChatGPT每天可能消耗约50万千瓦时,才能回应用户约2亿个使用请求。这相当于超过1.7万个美国家庭的电力消耗量


与ChatGPT类似的生成式AI技术展示了巨大的商机,吸引了科技巨头们积极投入这一领域。然而,随着生成式AI技术的进一步应用,其能源消耗可能会进一步激增。


据荷兰央行数据科学家德弗里斯(Alex de Vries)估计,若将ChatGPT功能整合到谷歌的搜索引擎中,谷歌每年的耗电量将高达290亿千瓦时,超过了肯尼亚全国一年的用电量。


除了ChatGPT之外,整个AI产业的能源消耗问题也日益凸显。德弗里斯估计,到2027年,全年AI产业的总耗电量可能在850亿千瓦时到1,340亿千瓦时之间。以最高值计算,光AI一个产业就占全球总耗电量比率达0.5%


面对如此惊人的能源消耗,解决AI的碳排放已成为当务之急。若不能提供足够的清洁能源,去控制AI的碳排放,全球将付出巨大的环境污染代价。然而,目前生产清洁能源以供应AI的速度根本追不上AI的发展。


然而生成式AI不仅耗电,还很费水。


02

问ChatGPT五个问题,要耗500ml水


根据《美联社》报导,微软爱荷华州数据中心是支撑ChatGPT背后强大AI的所在地,很少人知道爱荷华州是OpenAI最先进的生成式AI大模型GPT-4的诞生地,而微软在支持OpenAI技术需耗费大量的水


生成式AI技术的高水资源消耗主要与其运行和训练过程中的大量计算需求有关。为了构建生成式大型语言模型,ChatGPT需要分析大量的人类书写文本,并且进行大规模的计算。


这些计算会消耗大量的电力,并且产生大量的热量,因此数据中心需要强大的冷却系统来保持设备的正常运行。若没有有效的冷却系统,高温可能导致设备故障,从而影响到用户对AI服务的体验和使用。


此外,生成式AI的高水资源消耗也与其训练和运行过程中使用的大量服务器有关。这些服务器通常以集群的方式部署在所谓的“数据中心”内,当它们一起工作时,会产生高度集中的热量,需要大量的水资源来进行冷却。


微软曾将其第一个水下数据中心送入苏格兰奥克尼群岛附近的海底

美国加州大学以及得克萨斯大学的研究人员,近期发表研究揭露OpenAI模型的「水足迹」。团队估计,每当用户向ChatGPT提出5至50个提示或问题时,ChatGPT需消耗500毫升的水,该范围会根据服务器所在位置与季节而有所不同。


微软在公司最新的环境报告中透露,从2021年至2022年,其全球用水量猛增34%,达到近17亿加仑,相当于2500多个奥运会规模的游泳池。谷歌的数据中心和办公室也用掉了总计56亿加仑的水,这一数字相当于8500个奥运会规模的游泳池。

此外,根据研究预测,现在AI所需要的算力预计每100天就会增加一倍,并且在未来五年内可能会增长超过一百万倍。随着AI需求的增长,到2027年,全球AI所需的水资源可能会达到惊人的66亿立方米,几乎相当于美国华盛顿州全年的取水量。


对此,大佬们倒是认知的很清楚。


03

黄仁勋、奥特曼:

未来的两大货币是算力和能源


早在今年1月,OpenAI的首席执行官奥特曼就强调未来的两大货币是算力和能源


当时奥尔特曼表示,未来的人工智能需要能源方面的突破,因为AI消耗的电力将远远超过人们的预期。


“不取得突破,就不可能达到这个目标。”奥特曼还补充道,“我们需要核聚变,更便宜的太阳能加储能,或者其他大规模的东西。”



据了解奥特曼旗下还有一家核聚变初创公司Helion Energy,据称是他生涯中最大的一笔个人投资。同时微软也押注了这家公司。



英伟达的创始人兼首席执行官黄仁勋在一次公开演讲中也指出,AI未来发展和能源紧密相连。他强调,不应仅仅关注计算力,而是需要更全面地考虑能源消耗问题。


他的原话是:“当我们替换通用计算的基础设施时,请记住架构的性能将不断提高。你不能只想着要购买更多的计算机,你还必须假设,计算机的速度会越来越快。因此,你所需要的总量就不会这么多了。如果你只是假设计算机的速度永远不会变快,你可能会得出一个结论——我们需要14个不同的行星、3个不同星系、4个太阳为这一切提供燃料。”



有意思的是,老黄的这段话被国内媒体翻译成“AI的尽头是光伏和储能”。让大洋彼岸的A股相关板块一顿暴涨。


事实上他并没有直接提及这两个板块。


在全球去碳化的大趋势下,要获取足够清洁能源去掌握生成式AI已成为科技业的重大挑战。生成式AI的发展带来的能源消耗问题已经迫在眉睫。


与此同时,图灵奖获得者、Meta首席科学家Yann LeCun(杨立昆)也公开炮轰生成式AI。


04

Sora不是世界模型,

生成式路线注定失败?


日前,Sora的发布引发了全球范围内的热议,但同时也撞车了谷歌与Meta等巨头的新产品。


在Sora 发布的同一天,谷歌发布了支持100万tokens上下文的大模型Gemini 1.5 Pro。Meta则发布了“能够以人类的理解方式看世界”的视频联合嵌入预测架构V-JEPA。


然而,Sora的耀眼光芒似乎让这两款产品黯然失色。


Sora被OpenAI定义为一个“世界模拟器”,OpenAI表示:“Sora是能够理解和模拟现实世界模型的基础,我们相信这种能力将成为实现AGI的重要里程碑。”这一表述引发了图灵奖获得者、Meta首席科学家杨立昆的强烈不满。



杨立昆一直对生成式AI持怀疑态度,他在社交平台上多次直言不讳地批评Sora的生成式技术路线注定失败。



Sora 采用了以 Transformer 为骨架的 Diffusion Model(扩散模型),其拔群的效果也验证了扩展法则(scaling law)与智能涌现(Emergent)依旧成立。


在他看来,想让AI像人类一样观察世界,还需要更多科学突破。仅仅依靠海量文本训练出来的大模型,远远达不到人类的智力水平。


他认为,文字只能承载一小部分人类知识,而绝大部分智慧来自人类与现实世界以及人类之间的互动。因此,将Sora定义为世界模拟器的行为在杨立昆看来是错误的。他觉得V-JEPA架构路线才是王道。


V-JEPA

此外,杨立昆强调了开源的重要性。他主张开源AI大模型,认为只有开源才能让技术更安全、更可定制,才能形成生态。他希望有一个自由且多样化的AI平台,就像现在自由且多样化的社交媒体平台一样。这种开源的模式能够促进技术的发展,使其更加透明、可信。


关于生成式AI的这些争论虽然还没有明确的答案,网友们却讨论的乐此不疲。


有网友表示,还是需要比较一下投入产出比,ChatGPT创造的价值其实远超它的能耗。也比某些耗电“挖矿”的产业更有意义。

也有网友表示,三峡水电站满发状态日均发电5.4亿千瓦时,生成式AI这点能耗可以再上点“强度”。


当然也有杨立昆的支持者,不看好生成式路线的。因为Meta 已经将V-JEPA代码开源,而走生成式路线的Sora仍然没有向普通用户开放。


但不得不说的是,无论生成式路线能否实现世界模型,它都是当前AI领域最高的里程碑。


科技最前线
在这里看见未来!科技互联网头部帐号,深度解读科技产业。
 最新文章