深夜巨震!暴跌

时事   2025-01-28 07:30   山东  

1月27日,被称为“东方神秘力量”的DeepSeek,在资本市场掀起了滔天巨浪。

由于DeepSeek通过结构化稀疏注意力、混合专家系统、动态计算路由等技术,显著降低了模型训练和推理的算力消耗,由此引发了市场关于算力需求下降的担忧。

受此影响,当地时间1月27日,美股三大股指低开,道指跌0.8%,标普500指数跌2.2%,纳指跌3.6%。DeepSeek引发芯片股估值担忧,半导体股大幅下挫,英伟达跌超11%,台积电跌超9%,博通跌超11%,阿斯麦跌超8%,美光跌超8%。美股大型科技股走低,微软跌超3%,亚马逊、Meta、特斯拉跌超2%。


有机构分析称,由于美股整体估值还存在进一步消化空间,预计未来一段时间美股大盘将出现震荡。


纳指跌超3%


截至北京时间1月27日22:38,道指跌0.24%,纳指跌3.15%,标普500指数跌1.76%。



美股大型科技股盘前走低,开盘后,截至北京时间1月27日22:40,甲骨文跌逾8%,微软、谷歌-A跌逾3%,亚马逊、特斯拉跌逾2%。



美国钢铁盘前跌超2%,截至北京时间1月27日22:43,小幅上涨。此前有报道称激进投资者ANCORA控股公司推动终止与日本钢铁公司的合并。


德邦证券认为,尽管前期财报利好居多,但市场对后续科技板块的季报业绩仍有担忧。未来一周,投资者应重点关注重要经济数据发布,如美国2024年12月新屋销售总数、1月谘商会消费者信心指数等,以评估经济景气度。


半导体股大幅下挫


1月27日,美股半导体股盘前持续下挫,英伟达、博通跌逾11%,台积电、ARM跌逾10%,美光科技跌逾7%,阿斯麦跌近7%。其中,英伟达盘前市值蒸发预计超3000亿美元,超过AMD和英特尔的市值总和。目前AMD市值不到2000亿美元,英特尔市值约900亿美元。


截至北京时间1月27日22:43,英伟达、博通跌超11%,台积电、ARM跌逾9%,美光科技跌逾8%。



消息面上,中国AI大模型DeepSeek成功出圈让行业产生了对于大规模AI算力投资逻辑的怀疑。

IG的市场策略师Junrong Yeap在报告中表示:“虽然从长远来看,DeepSeek是否会被证明是一个更便宜的选择还有待观察,但市场担忧美国科技巨头的定价权是否受到威胁,以及它们的大规模人工智能支出是否需要重新评估。”

盛宝银行首席投资策略师Charu Chanana表示:“DeepSeek的出现表明AI竞争正在加剧,未来的竞争对手将不断出现,并更快地挑战现有公司。”

不过DeepSeek自己对此却有不同看法,其表示英伟达股价暴跌与它无关。


AMD火速站台
DeepSeek威胁到英伟达?

消息面上,1月27日,DeepSeek应用登顶苹果美国地区应用商店免费APP下载排行榜,在美区下载榜上超越了ChatGPT。同日,苹果中国区应用商店免费榜显示,DeepSeek成为中国区第一。

此外,1月27日,据外媒报道,Meta成立了四个专门研究小组来研究量化巨头幻方量化旗下的国产大模型DeepSeek的工作原理,并基于此来改进旗下大模型Llama。 其中两个小组正在试图了解幻方量化如何降低训练和运行DeepSeek的成本;第三个研究小组则正在研究幻方量化可能使用了哪些数据来训练其模型;第四个小组正在考虑基于DeepSeek模型属性重构Meta模型的新技术。

据广州日报,“DeepSeek爆火的原因主要可以归结为两点:性能和成本。”萨摩耶云科技集团首席经济学家郑磊告诉记者。DeepSeek解释称,R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。这种卓越的性能不仅吸引了科技界的广泛关注,也让投资界看到了其巨大的商业潜力。

最受各界关注的是,DeepSeek R1真正与众不同之处在于它的成本——或者说成本很低。DeepSeek的R1的预训练费用只有557.6万美元,仅是OpenAI GPT-4o模型训练成本的不到十分之一。同时,DeepSeek公布了API的定价,每百万输入tokens 1元(缓存命中)/4元(缓存未命中),每百万输出tokens 16元。这个收费大约是OpenAI o1运行成本的三十分之一。

OpenAI的成功来自“大力出奇迹”路线,以规模作为大模型的制胜法宝。但这也让AI大模型的发展陷入了一个怪圈:为追求更高的性能,模型体积不断膨胀,参数数量呈现指数级增长。这种“军备竞赛”型开发模式,带来了惊人的能源消耗和训练成本,难以为继。受大模型训练的高昂成本拖累,OpenAI在2024年的亏损额可能达到50亿美元,业内专家预计到2026年其亏损将进一步攀升至140亿美元。

DeepSeek的低成本意味着,大模型对算力投入的需求可能会从训练侧向推理侧倾斜,即未来对推理算力的需求将成为主要驱动力。而英伟达等硬件商的传统优势更多集中在训练侧,这可能会对其市场地位和战略布局产生影响。

DeepSeek-V3在仅使用2048块H800 GPU的情况下,完成了6710亿参数模型的训练,成本仅为557.6万美元,远低于其他顶级模型的训练成本(如GPT-4的10亿美元)。因此,一些人认为,DeepSeek可能会颠覆英伟达在AI硬件领域的主导地位。

而就在1月25日,英伟达的“老对手”AMD还火速为DeepSeek“站台”,宣布全新的DeepSeek-V3模型已集成至AMD InstinctGPU上。美国私人投资基金Noah's Arc Capital Management认为,DeepSeek-V3模型的突破显著降低了AI培训成本,使AMD GPU成为比英伟达更具有成本效益的替代品,增强了AMD的市场地位。

DeepSeek是啥?


DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,成立于2023年7月17日,是一家创新型科技公司,专注于开发先进的大语言模型(LLM)和相关技术。

去年12月DeepSeek-V3发布后,AI数据服务公司Scale AI创始人Alexander Wang就发贴称,DeepSeek-V3是中国科技界带给美国的苦涩教训。“当美国休息时,中国(科技界)在工作,以更低的成本、更快的速度和更强的实力赶上。”

不到一个月之后,今年1月20日,DeepSeek正式开源R1推理模型。



据DeepSeek介绍,其最新发布的模型DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAI o1正式版


这一模型发布后,引发了海外AI圈众多科技大佬的讨论。例如,英伟达高级研究科学家Jim Fan就在个人社交平台上公开发表推文表示:“我们正身处这样一个历史时刻:一家非美国公司正在延续OpenAI最初的使命——通过真正开放的前沿研究赋能全人类。看似不合常理,但最有趣的结局往往最可能成真。”


图源:证券时报


DeepSeek之所以能取得这些创新并非一日之功,而是“孵化”数年之久,长期谋划后的结果。DeepSeek创始人梁文锋也是头部量化私募幻方量化的创始人。Deepseek充分利用了其幻方量化积累的资金、数据和卡。

梁文锋本科、研究生毕业于浙江大学,拥有信息与电子工程学系本科和硕士学位。2008年起,他开始带领团队使用机器学习等技术探索全自动量化交易。2023年7月,DeepSeek正式成立,进军通用人工智能领域,至今从未对外融资


此前,OpenAI前政策主管、Anthropic联合创始人Jack Clark认为DeepSeek雇用了“一批高深莫测的奇才”,对此,梁文峰在接受自媒体采访时曾透露过,并没有什么高深莫测的奇才,都是来自Top高校的毕业生、没毕业的博四、博五实习生,还有一些毕业才几年的年轻人

从目前已有的媒体公开报道中可以看出,DeepSeek团队最大的特点是名校、年轻,即使是团队Leader级别,年纪也多在35岁以下。不到140人的团队,工程师和研发人员几乎都来自清华大学、北京大学、中山大学、北京邮电大学等国内顶尖高校,工作时间都不长。


记者在某招聘网站上看到,DeepSeek目前在北京、杭州两地均有办公地点,在团队研发人员方面设置大量岗位,包括深度学习研究员、核心系统研发工程师以及客户端工程师、资深ui设计师等,月薪均在两万元以上。核心系统研发工程师月薪6万—9万元,深度学习研究员-AGI月薪甚至达到了8万—11万元,且均为14薪。不仅如此,DeepSeek对于实习生也开出诱人薪资:AGI大模型实习生岗位的工资为500元/天—1000元/天,深度学习-AGI实习生500/天-510元/天。

点击下方名片

关注我们





来源:中国证券报、中国新闻网、现代快报、每经网、广州日报

责任编辑:于晓璇  一级审核:唐青
二级审核:赵志斌  三级审核:郝峰
晨报热线:0533-3585000(线索一经采用,最低奖励50元,上不封顶)
商务合作:0533-2270969


鲁中晨报
《鲁中晨报》由大众报业集团主办,1999年7月1日创刊。现拥有报、网、端、微等9大平台70+发布端口,用户覆盖山东淄博、滨州、东营等地1000多万人口,具有较强舆论引导力,是党政机关、企事业单位、商家宣传报道和形象推广的优选媒体。
 最新文章