英伟达股价大幅回升 卡帕西:AI对计算需求传奇般贪婪

文摘   2025-01-29 14:12   辽宁  

1月27日周一,deepseek-R1的发布持续发酵。

有人欣喜若狂,认为R1的创新会大大降低AI训练和推理的计算成本。

也有人忧心忡忡,担心这意味着AI对算力的需求可能触顶——股市里的恐慌因子就这样被点燃。

英伟达股价在当日深度跳水,跌幅一度接近18%。

市场弥漫着不安,有人甚至断言:“也许GPU时代辉煌不再,AI算力要少了,英伟达高估值的故事讲到头了。”

然而就在1月28日,戏剧性的转折出现了。

英伟达股价大幅回升,收盘涨近9%,一天市值飙升2550亿美元,创下历史第三大单日市值涨幅。

这波迅猛反弹到底为什么?

R1:降低成本≠不需要算力

让我们先回到“deepseek-R1”。

它之所以备受关注,正是因为其创新性架构带来了训练效率和推理效率的双重提升。

依靠新的算法优化和并行化策略,R1在更低算力投入下能展现出更高的模型性能。

R1看似降低了训练和推理的单位成本,却不会因此让对算力的需求曲线走平——因为一旦有了更高的效率,AI研究者们势必会想要在更短时间内进行更多实验、调优更大规模的模型,从而进一步推动算力的使用。

换句话说,R1的强大性能本身或许就因为算力不足而“被限制”了。

无论是研究阶段还是应用阶段,深度学习一直有个朴素却真理般的规律——“算力×数据×算法=AI魔力”

而这三者中,算力往往被称为“最现实的天花板”。


推理消耗同样惊人

除了训练阶段,推理阶段对算力的需求也依旧庞大。

最近,OpenAI首席产品官Kevin Weil在接受访谈时直言,尽管Pro版定价达到200美元/月,但OpenAI目前仍在亏损,其主要原因就是推理阶段的海量计算消耗

首席产品官 Kevin Weil:OpenAI 不是傻子,o3 一个月后推出

大量用户的请求源源不断涌来,远远超出20美元档位所能覆盖的需求,显然这笔“算力账单”令他们倍感压力。

在推理环节,模型要在极短时间内做出实时响应,尤其在大模型的多轮对话、代码编写、场景生成等高度复杂任务中,后台所调用的GPU集群需提供持续、高速的计算支持,这使得计算资源的“烧钱”属性比训练过程更难预测,也更难压缩。

对那些拥抱大模型应用的公司而言,所有需求都离不开GPU集群的“猛干”。


卡帕西:AI对计算需求“传奇般贪婪”

“AI 对计算的需求是传奇般的贪婪”——Andrej Karpathy

他在1月28日的社交媒体上如此形容深度学习的发展趋势,并配合了一个细节颇为惊艳的长篇阐述:深度学习的两大核心学习方式——模仿学习(监督学习)和试错学习(强化学习),都需要海量的算力来支撑。

无论是以合成数据生成的方式扩大数据规模,还是在各种环境中进行强化学习,不断尝试、不断失败再不断修正,背后都依赖庞大的计算能力的推动。

他还强调了合成数据生成与强化学习之间的关系——二者在本质上是一种对照或者“等价”过程:不断试验、筛选、再验证,一步步累积微小的优势,直到出现“惊喜的突破”。

马斯克也对他的上述观点表示赞同。

有趣的是,有网友调侃卡帕西是不是囤积了英伟达的股票,又不想直接说出来。


结语


那些认为R1“革命”会颠覆算力需求的投资者很快发现:R1带来的只是效率的提升,而非对算力需求的削减。

随着更多大模型应用走向商用,人类对“智能”的贪婪,很难有天花板

哈佛大学心理学家史蒂文·平克在《心智探奇》里提到:“人类创新是不断自我扩展的过程,当你发明了一个新工具,它往往能为你打开更多通往未知的大门,而未知带来的魅力足以让你不惜一切代价去探索。”

AI时代最真实的写照或许就是对计算力的永恒渴望。当R1进一步证明了算法创新的可行性时,人们反而会不断加大对更大算力环境的追求。

深度学习的实验浪潮在短期内不会退却,企业对AI基础设施投入的热情仍在高涨。



推荐阅读:

新年 早起 目视东方升起的第一缕阳光

美国芯片禁运倒逼中国AI创新:当所有门都关闭时,总会有人打破天花板

DeepSeek风头正劲 但说超越OpenAI还为时尚早

首席产品官 Kevin Weil:OpenAI 不是傻子,o3 一个月后推出

“穷人思维”正在阻止你享受智能时代的红利

职业教育、中高考改革与终身学习:重点解读《教育强国建设规划纲要(2024-2035年)》

辛顿敲响警钟:AI已学会撒谎,人类或将沦为“无用阶层”?

李飞飞:AI 以人为本!
14B参数打败 Gemini?微软 Phi-4 凭什么这么牛?

宁犀牛
人工智能|教育|数学|Python
 最新文章