周末被幻方量化公司的大模型DeepSeek刷屏了。
此前就知道,这家量化基金公司在12月发布了DeepSeek V3版本的大模型,当时效果就很惊艳,更惊艳的是他的算力成本非常低,只有美国那些科技巨头的几分之一。
当时就曾引发讨论,未来算力投资的需求是不是被高估了?
1月20日,幻方量化又发布了新版本DeepSeek R1,这次效果更惊艳:在数学推理等核心领域的准确率高达92.7%,超过了目前主流大语言模型的平均水平;解决复杂数学问题的准确率比GPT-4高出15.3个百分点。
而且成本更低:模型训练成本约为同类产品的二十分之一,运营成本和输出成本更是只有OpenAI的近三十分之一。
就在1月20日,幻方量化的创始人还受邀出席了GWY组织的座谈会,并在会上发言,足见高层对DeepSeek大模型的重视。
种种利好堆积在一起,终于在这个周末,引爆了美国各大主流媒体和社交网站的热议。
华尔街顶级风投大佬Andreesen发推称赞:“DeepSeek大模型是我见过的最令人惊叹、最令人印象深刻的突破之一,并且是开源的,是对全世界的大礼!”
《纽约时报》发文指出:DeepSeek大模型的成功源于中国工程师在美国芯片限制下的创新突破,这种模式不仅揭示美国技术封锁的意外反效果,更预示中国可能通过开源主导权重构全球AI竞争格局。
与此同时,算力巨头英伟达周五晚上大跌,更增加了DeepSeek大模型的话题性。
因为他的成功可能预示人们不需要购买那么多英伟达的算力芯片。
幻方量化这款大模型,真的会降低算力需求吗?
从美国科技巨头的反馈来看,并非如此:周末META宣布,今年原定500亿美元的算力支出,现在提升到600-650亿美元,大约购买130万张算力芯片。
有媒体指出,DeepSeek只是说明大模型单次训练的算力成本下降了,不代表整体训练成本会下降。现在训练的效率提高了,各家巨头一定会继续维持高投入,把算力榨干用尽。
更确定的影响是,他将带来各类AI应用的繁荣。
DeepSeek大模型使得上游算力成本降低,必然会促使各类AI应用百花齐放。
包括周五启动的AI智能体,本质上也是一类AI应用,也将极大受益于上游算力成本降低。
而且这款大模型是中国的,我们国内AI应用衔接的会更快速更紧密,效果也会更好。
基于上述分析,我的小伙伴梳理了一份DeepSeek大模型的受益公司名单,今天分享给大家。
在公众号后台私信输入“大模型”几个字,就能看到这份名单,希望输入之前帮我点个“在看”,多谢!
公众号后台私信输入关键字:热点
即可查看每天最新的
热点评分和热点数量指标
喜欢的话就加个“星标”,点个“在看”吧~
多谢!