干掉英伟达的中国大模型!

财富   财经   2025-01-26 14:58   辽宁  



周末被幻方量化公司的大模型DeepSeek刷屏了。

此前就知道,这家量化基金公司在12月发布了DeepSeek V3版本的大模型,当时效果就很惊艳,更惊艳的是他的算力成本非常低,只有美国那些科技巨头的几分之一。

当时就曾引发讨论,未来算力投资的需求是不是被高估了?


120日,幻方量化又发布了新版本DeepSeek R1,这次效果更惊艳:在数学推理等核心领域的准确率高达92.7%,超过了目前主流大语言模型的平均水平;解决复杂数学问题的准确率比GPT-4高出15.3个百分点。

而且成本更低:模型训练成本约为同类产品的二十分之一,运营成本和输出成本更是只有OpenAI的近三十分之一。

就在120日,幻方量化的创始人还受邀出席了GWY组织的座谈会,并在会上发言,足见高层对DeepSeek大模型的重视。

种种利好堆积在一起,终于在这个周末,引爆了美国各大主流媒体和社交网站的热议。

华尔街顶级风投大佬Andreesen发推称赞:“DeepSeek大模型是我见过的最令人惊叹、最令人印象深刻的突破之一,并且是开源的,是对全世界的大礼!”

《纽约时报》发文指出:DeepSeek大模型的成功源于中国工程师在美国芯片限制下的创新突破,这种模式不仅揭示美国技术封锁的意外反效果,更预示中国可能通过开源主导权重构全球AI竞争格局。


与此同时,算力巨头英伟达周五晚上大跌,更增加了DeepSeek大模型的话题性。

因为他的成功可能预示人们不需要购买那么多英伟达的算力芯片。

幻方量化这款大模型,真的会降低算力需求吗?

从美国科技巨头的反馈来看,并非如此:周末META宣布,今年原定500亿美元的算力支出,现在提升到600-650亿美元,大约购买130万张算力芯片。

有媒体指出,DeepSeek只是说明大模型单次训练的算力成本下降了,不代表整体训练成本会下降。现在训练的效率提高了,各家巨头一定会继续维持高投入,把算力榨干用尽。


更确定的影响是,他将带来各类AI应用的繁荣

DeepSeek大模型使得上游算力成本降低,必然会促使各类AI应用百花齐放。

包括周五启动的AI智能体,本质上也是一类AI应用,也将极大受益于上游算力成本降低。

而且这款大模型是中国的,我们国内AI应用衔接的会更快速更紧密,效果也会更好。


基于上述分析,我的小伙伴梳理了一份DeepSeek大模型的受益公司名单,今天分享给大家。

在公众号后台私信输入“大模型”几个字,就能看到这份名单,希望输入之前帮我点个“在看”,多谢!










公众号后台私信输入关键字:热点


即可查看每天最新的


热点评分和热点数量指标

喜欢的话就加个“星标,点个“在看”吧~

多谢!




一谈策略
把天书一般的机构研报翻译成人话,让普通人更懂投资
 最新文章