A股策略:科技或引领中国资产重估
港股策略:DeepSeek或催化科技股价值重估
全球科技:DeepSeek十问十答
海外科技:浅谈 DeepSeek的创新性,对比科技巨头和 OpenAI
计算机/电子:OpenAI有望重拾开源
传媒:DeepSeek推进模型平权,加速AI应用繁荣
核心观点节选自研报《DeepSeek是否会撼动星际之门的投资逻辑?》2025年2月3日
胡李鹏 分析师 S0570122120062
易峘 分析师 S0570520100005 | AMH263
春节期间,Deepseek重塑全球AI格局、特朗普关税政策升级、美国经济类滞胀风险是三大核心主线,全球资本市场经历了波澜起伏的一周,对节后国内市场开盘也将产生重要影响。
主线一:Deepseek重塑全球AI格局
1月26日,DeepSeek在美国苹果应用商店免费应用排名第一。
1月28日,DeepSeek发布开源多模态人工智能模型Janus-Pro。其中Janus-Pro-7B在GenEval和DPG-Bench基准测试中击败了OpenAI的DALL-E 3和Stable Diffusion。
1月28日,德意志银行表示,DeepSeek的崛起可能会使美国科技公司的“天文估值”受到质疑。
1月28日,摩根士丹利表示,DeepSeek的成功可能会挑战现状,并促使人们重新评估已有的AI模型开发方法。
1月31日,亚马逊(AMZN.O)称,Bedrock人工智能模型市场纳入DeepSeek-R1模型。
1月31日,英伟达(NVDA.O)称,DeepSeek-R1是一个具有最先进推理能力的开放模型。DeepSeek R1正式上线英伟达NIM平台。
2月1日,OpenAI CEO表示,DeepSeek削弱了OpenAI的领先地位。
技术层面,DeepSeek推出的R1模型凭借极低开发成本、卓越的性能及其开源的特性,在AI推理领域一石激起千层浪。DeepSeek发布R1模型及相关应用,以较低的训练成本达到与现有前沿模型相当的效果,引发市场对算力投资的担忧。其模型在NVIDIA HGX H200系统上实现每秒3872 Tokens的处理速度,性能接近美国顶尖模型,但成本优势显著。
市场层面,Deepseek效应正在重塑AI全球竞争格局,引发投资人对美国科技股估值的担忧,美股顺周期和科技板块呈现一定的“跷跷板”效应,中美科技公司估值或将收敛。1月27日,Deepseek技术突破触发美股科技股“拥挤性抛售”,投资者开始质疑美国科技巨头高成本AI研发模式的可持续性。英伟达、ARM、博通单日分别暴跌17.0%、10.2%、17.4%,纳斯达克指数一度下挫4.3%。科技股回调→风险偏好回落带动美债利率下行→利好顺周期板块的逻辑在近期上演。结构来看,软件/应用端明显受益,硬件/基础设施短期承压。此外,市场重新审视中国科技公司价值,有望推动中美科技股估值收敛。
战略层面,Deepseek的发展催化中美科技股价值重估,进一步AI发展已上升到国家战略层面。自2023年以来,中美科技股估值显著分化,或源于投资者对AI发展水平和远期盈利预期的差异。DeepSeek这次的成功显示,在Scaling Law放缓的大背景下,中美在大模型技术上的差距有望缩小,进而催化中美科技股价值重估。
AI产业链层面,Deepseek冲击或导致上游公司短期承压但长期仍有支撑,中游闭源公司面临竞争压力,而下游应用则可能迎来新的发展机遇。具体来看:
Deepseek对上游公司(如Nvidia、云计算公司)的影响尚不明朗。短期来看,市场情绪对Nvidia等上游公司形成了显著利空,主要原因在于Deepseek可能通过降低AI模型训练成本、优化算力需求等方式削弱对高端GPU的依赖。长期来看,英伟达的行情由AI行业本身的增长潜力和英伟达在行业中的市场占比两方面共同决定,当前Deepseek冲击对英伟达的长期影响仍较难判断。从行业增长潜力来看,AI产业的长期增长趋势仍然明确,随着AI技术的普及和应用场景的不断扩大,行业空间预计将持续扩张。特别是生成式AI的快速发展对算力需求的拉动效应依然强劲,这为英伟达等上游硬件供应商提供了长期支撑。不过从市场占比来看,英伟达可能面临一定的挑战。Deepseek可能促使更多企业探索开源模型或自研解决方案,从而削弱对英伟达高端GPU的依赖。此外,随着AI行业竞争加剧,其他硬件供应商如AMD等,可能通过价格战或技术创新抢占市场份额,进一步压缩英伟达的市场占比。
对中游公司(如OpenAI、Anthropic等闭源公司),Deepseek可能对其形成较大打击。这些公司原本凭借技术壁垒和闭源模式在AI领域占据优势,但Deepseek的开源模式和低成本可能降低行业进入门槛,削弱其技术垄断地位。特别是对于依赖高额算力投入和专有模型训练的闭源公司而言,Deepseek的低成本、高效率特性可能导致部分市场份额的流失,或迫使其调整商业模式,增加这些公司的运营压力。
对下游AI产品应用而言,Deepseek的发展或形成明显利好。Deepseek的开源模式和潜在的成本优势将加速AI技术的普及,尤其是在原本因算力成本高昂而难以大规模应用AI技术的中小型企业和新兴市场中。随着AI技术门槛的降低,能够快速适应市场需求、提供创新解决方案的公司或将受益。此外,Deepseek也将推动AI技术在传统行业中的应用深化,制造业、零售业和医疗行业等领域的企业将能够以更低的成本部署AI解决方案,从而提升效率和竞争力。
风险提示
1)美国通胀重新超预期。若美国通胀迟迟不见明显缓解,可能导致美联储加息幅度超预期,引发全球风险资产回调;
2)地缘关系持续紧张。地缘冲突应归于“影响重大但难于预判”一类,地缘局势与外交斡旋瞬息万变,只能做持续跟踪和预案,而不能跟随情绪做投资决策。
核心观点节选自研报:《长假三大焦点:DeepSeek、关税和美国经济数据》2025年2月3日
张继强 S0570518110002 研究员
何颖雯 S0570522090002 研究员
杨婧溪 S0570123070295 联系人
王建刚 S0570124070098 联系人
A股策略:科技或引领中国资产重估
Deepseek的成功引发全球科技市场热论,也成为了假期期间最热门的投资主题,我们关注:1)DeepSeek主要创新是通过在预训练阶段加入强化学习,显著降低了当时代AI大模型的训练和推理成本,ASIC芯片、AI应用、端侧等方向受益,降本增效成为A股/港股科技公司估值修复的主要推力,关注A股AI应用、港股恒生科技等方向;2)目前北美四大AI公司主要通过扩大GPU集群规模的方式探索下一代大模型,Deepseek能否在下一代模型研发中生效有待观察,Deepseek的出现不会改变美股AI公司的中长期叙事逻辑,回调到位后有反弹机会;3)但Deepseek的推出显著缩小了投资者对中美科技的预期差,对于中美科技资产相对估值中枢需重新定价。
当前关注:1)春季消费持续复苏,其中旅游消费修复明显、院线票房创新高,但改善的外推性偏弱,节后步入两会焦点期,关注政策力度;2)美国加关税政策方向确定,但力度、节奏演绎预测难度高,仍是不可忽视的灰犀牛事件;3)Deepseek引起的中美科技预期差收敛,是当前A股/港股科技板块估值修复的最大α之一,科技成长或引领中国资产新一轮估值修复,继续看好AI+、机器人等主题板块,此外中期关注:1)产能周期视角下的电力设备;2)逢低可适当加仓的红利板块。
风险提示
1) 海外政策风险超预期:对海外政策风险的担忧下降是短期适度积极的前置条件,若海外政策风险超预期,则可能压制 A 股的风险偏好。
港股策略:DeepSeek或催化科技股价值重估
自2023年以来,中美科技股估值显著分化,或源于投资者对AI发展水平和远期盈利预期的差异。中美科技股在各自市场市值占比的差异,也反映出国内优质科技企业或尚待大规模涌现。此次DeepSeek凭借低成本、高性能优势引发市场波动,或推动投资者重新评估中国科技企业在AI赛道的技术潜力,中美科技股或迎来价值重估行情。据彭博一致预期,一月下旬海外中资股盈利预期广泛上修,结束了自11月以来的持续下修。其中直接受益于AI产业催化的互联网板块盈利预期在1月亦止跌回升,而科技硬件板块则持续上修。
展望后市,港股市场或维持震荡格局,建议投资者沿盈利预期变化调仓:1)增配互联网与科技硬件,把握科技股价值重估机会;2)适当增配受益于春节消费回暖的大众消费;3)盈利预期稳健的红利标的仍可作为底仓。
中美科技股在各自市场市值占比的差异,也反映出国内优质科技企业或尚待大规模涌现。
风险提示
政策落地及执行力度不及预期:若国内政策落地和执行力度最终不及市场预期,则或影响此后市场行情走势与我们的观点有所差异。
风险偏好下行幅度超预期:若由于市场短期情绪使得市场最终风险偏好超预期下行,则或影响此后市场行情走势与我们的观点有所差异。
核心观点节选自研报《DeepSeek 或催化科技股价值重估》2025年02月02日
DeepSeek通过算法层面的创新突破硬件层面的限制,引发资本市场震动,并引起中美各界的广泛讨论。2023年以来中美科技板块估值显著分化,当前纳指PE_TTM处于过去10年的89%分位数,为恒生科技指数PE_TTM的2.4倍,中美科技股价差有望收敛。可通过投资于港股和A股科技板块的ETF等指数产品,把握中国科技股价值重估的机遇。港股市场作为中国新经济企业国际化布局的重要平台,A股相对稀缺的科技龙头企业多在港股上市,可通过指数产品进行投资。恒生科技、中国互联网50、港股通互联网等指数挂钩产品规模较大。A股市场同样汇聚了一批优秀的高新技术企业,可通过ETF等指数产品高效配置。其中科创50指数挂钩产品规模居首,成分股中电子行业权重占比达65%;其他挂钩产品规模较大的指数以半导体芯片行业居多,成分股较为接近。
中美两国科技板块或面临价值重估,积极看多港股和A股科技板块
技术的扩散以及人类生产力的提升不以少数团体的意志为转移。DeepSeek通过算法层面的创新突破硬件层面的限制,引发资本市场震动,并引起中美各界的广泛讨论。我们认为,由于全球AI开源社区和市场经济体系的客观存在,政策制定者主观期待的技术封锁目标或难以实现。2023年以来中美科技板块估值显著分化,当前纳指PE_TTM处于过去10年的89%分位数,为恒生科技指数PE_TTM的2.4倍,中美科技股价差有望收敛。可通过投资于港股和A股科技板块的ETF等指数产品,把握中国科技股价值重估的机遇。建议关注挂钩恒生科技、港股通科技、科创50等指数的ETF产品。
人工智能领域竞争中,得益于开源社区和市场经济,真正的封锁或难实现
政策制定者期望通过技术封锁手段,形成并维持技术代差,这种封锁在特定时期针对特定对象可能有效。但我们认为,在人工智能领域的竞争中,真正的封锁或难以实现。一方面,AI开源社区的活跃使得知识、数据、模型在全球的开发者间充分流动,这种联结无法通过行政命令完全切断。另一方面,若低成本开源模型得到验证,其商业化潜力或被迅速挖掘,市场需求和资本驱动有望促使企业绕过封锁获取技术资源,加速技术迭代。中美人工智能领域技术差距的缩小,或将最终反映在两国科技股估值价差的收敛。
中国科技龙头企业多在港股上市,港股科技板块可通过指数产品进行投资
港股市场作为中国新经济企业国际化布局的重要平台,A股相对稀缺的科技龙头企业多在港股上市,可通过指数产品进行投资。恒生科技、中国互联网50、港股通互联网等指数挂钩产品规模较大。从投资范围看,中证海外系列指数投资于港股、美股等市场;恒生系列指数投资于港股;中证和国证港股通系列指数投资于港股通标的,范围较港股略窄,但挂钩产品不受QDII额度限制。从指数覆盖的行业板块看,科技板块较互联网行业更宽泛,如芯片行业属于恒生科技,不属于恒生互联网科技业。指数单只成分股权重上限是影响成分股集中度的主要因素。
恒生科技指数挂钩产品规模居首,产品呈现多样性
传统QDII ETF:如华夏恒生科技ETF和易方达恒生科技ETF等,主要以指数成分股为投资标的。互挂ETF:如华泰柏瑞南方东英恒生科技ETF,以南方东英恒生科技指数ETF为唯一投资标的,其优势之一是交易效率高,因此可以维持较高仓位,对投资人而言资金利用效率更高。南向通ETF:如iShares恒生科技ETF等,被纳入港股通标的,境内投资者可通过ETF通投资,部分产品费率相对较低。杠杆ETF:如南方东英2倍做多恒生科技ETF,境内投资者需要在中国香港开户投资,适合风险偏好较高并且具有明确短期观点的投资者。
A股科技板块相关指数及产品:科创50指数挂钩产品规模居首
随着科创板、北交所相继开市,以及创业板全面实施注册制,一批高新技术企业陆续登陆A股市场,可通过ETF等指数产品高效配置。其中科创50指数挂钩产品规模居首,成分股中电子行业权重占比达65%,相关ETF如南方上证科创板50成份ETF等,部分产品费率较低。其他挂钩产品规模较大的指数以半导体芯片行业居多,成分股较为接近。各指数单只成分股权重上限普遍不高,避免了权重过于集中的风险。除被动指数基金外,另有一批指数增强基金,如景顺长城科创50指数增强等,总体规模不大,窄基指数做增强有难度,需优选管理人。
林晓明 分析师 S0570516010001 | BPY421
何康 分析师 S0570520080004 | BRB318
浦彦恒 联系人 S0570124070069
孙浩然 联系人 S0570124070018
DS引发资本市场对算力增长展望的担忧,但或迎来杰文斯悖论
DeepSeek(DS)低开发成本引发全球投资者对美国科技巨头高成本投资的质疑,但其对算力的影响也许迎来杰文斯悖论(Jevons Paradox)。微软CEO Satya Nadella认为DS热潮或带来杰文斯悖论时刻,即通过降低成本推动需求增加,从而促进AI商业化趋势的加速。ASML CEO Christophe Fouquet也认同大模型训练成本降低可推动AI应用的发展,从而带动更多芯片需求。我们认为,不管DS或其他类似模型的冒起,在Test-time Scaling Law对算力需求的驱动下,推理芯片或存在较大增长潜力。相较于训练芯片,推理芯片的研发门槛较低,包括博通和Marvell等,以及台系ALChip、GlobalUni和联发科均涉足ASIC设计业务。TrendForce曾提及英伟达或将成立ASIC部门。我们认为英伟达或意识到来自科技巨头的自研芯片竞争,包括亚马逊Trainium、谷歌TPU、Meta MTIA以及微软Maia,特别在推理端。
DS较低的训练成本会否影响算力需求?
Meta Llama 3.1与DS V3技术报告显示,Llama 3.1 405B模型训练需30M H100小时和15T Tokens训练语料,成本超6000万美元,而DS V3(37B激活参数)只需2.8M H800小时,训练成本约600万美元。不过,该成本仅包括训练V3的GPU租赁成本(2048块H800训练一次的花销),并不包括人员薪酬、数据标注费用,以及训练失败产生的额外费用等。从推理API调用价格看,V3输入/输出价格分别为0.9/1.1美元每百万Token,仅为o1模型的2-3%,Llama 3.1 405B的30%。我们认为DS实现低成本的原因包括:1)采用FP8和FP32混合精度,FP8对算力需求更少;2)采用DualPipe双重流水线设计,减少数据传输和计算之间的等待时间,提高计算资源利用率;3)DS作为后发追赶者也可在现有玩家的算法上做深度优化。
FP8混合精度训练如何提升DS V3的计算效率?
FP8混合精度训练是DS V3提高计算效率的核心。此前,行业已从FP32(全浮点)转向FP16(半浮点)训练,而FP8能进一步把算力需求减半。在V3中,前向传播、激活反向传播以及权重反向传播模块均采用FP8计算,速度相较FP16提高100%。为保证精度,敏感算子如MoE门控模块、注意力算子等,仍保留FP16或FP32格式,使精度损失控制在0.25%以内。目前,使用FP8进行大模型训练的案例较少,微软曾于2023年做过相关研究,特斯拉也采用FP8训练其自动驾驶模型,均认为低精度训练是降本的重要路径。且英伟达Hopper和Ada Lovelace架构均增加对FP8的硬件支持。本次,FP8的推出或促进更多优化技巧和混合精度训练流程绑定,且英伟达Blackwell架构更进一步拓展低精度范围,支持FP6和FP4格式。
R1模型对于大模型技术发展、算力需求和行业格局有何影响?
1)从技术发展看:R1证明无需大量人工标注的强化学习的潜力,有望突破传统大模型依赖监督数据微调的限制;2)从算力需求看:R1推动AI训练与推理进入低成本、高效学习的新模式,有望加速ASIC在推理端落地。我们预计GPU与ASIC两种芯片不是零和博弈,并将长期共存,为终端应用场景提供兼具两者优势的解决方案;3)从行业格局看:R1的发布或较大影响以博通、Marvell为代表的ASIC设计公司,其将或面临英伟达的跨赛道竞争;液冷、光模块和铜缆需求或因训练效率提升受短期影响,但在杰文斯悖论推动下,AI应用与推理的增长潜力将驱动其长期发展。但我们认为,台积电受此影响较小,主要系其先进制程GPU和ASIC的领先地位;此外,随着ASIC的升级,HBM的规格和需求也将保持增长。
同等英伟达H800数量与算力下,GPT-4的成本为多少?
根据DeepSeek 2024年12月公布的V3模型技术报告,其每万亿tokens(trillion T)需要18万(180K)H800 GPU小时进行训练。DeepSeek采用14.8 trillion tokens训练语料,因此总预训练计算量约为266.4万(2664K)H800 GPU小时(180K × 14.8 trillion)。如果使用2048块H800 GPU组成集群进行训练,每块GPU需要约1301小时(2664K GPU小时÷2048块GPU),即大约54天完成训练。
我们也参考了英伟达在2021年发表的论文《Efficient Large-Scale Language Model Training on GPU Clusters Using Megatron-LM》,计算不同参数的GPU在结合数据并行、流水线模型并行、张量模型并行及服务器通信优化等多种加速方式下的有效算力。根据公式X=8TP/Nt(X是单块GPU的有效算力,T为模型训练数据Token总数,P是模型参数量(每次激活的参数量),N是所使用GPU数量,t训练时间),得出DeepSeek单块GPU的有效算力约为458 TeraFLOPs。我们也尝试假设GPT-4采用DeepSeek-V3相同的浮点精度(FP8)和有效算力,在同样采用2048个GPU集群的情况下,训练时间将拓展至142天,约合6980K H800 GPU小时(142 × 24 × 2048),若以 2美元每GPU小时计算,即1396万美元。在假设相同的浮点精度(FP8)和有效算力,若GPT-4需在54天内完成训练,需要约5300块H800 GPU,约6980K H800 GPU小时,约1396万美元训练成本。对比GPT-4原训练方式,采用A100 GPU,FP16浮点精度,共耗时570000K A100 GPU小时,若以 1.3美元每GPU小时计算约7350万美元,成本降幅明显。
我们发现,市场对模型训练所需GPU数量的需求存在较大分歧。我们认为影响GPU使用数量的核心在于:1)模型参数数量与每次激活参数数量;2)GPU型号与峰值算力;3)浮点计算精度。我们认为,1)DeepSeek-V3采用MoE结构,拥有总计6710亿参数,每个Token上激活370亿参数。此外,The Decoder报道,GPT-4的MoE模型预计拥有1.75万亿参数,由16个专家组成,每个专家对应1110亿参数。2)A100的单卡FP16 TensorCore峰值算力较低,为624 TFLOP/s,H100的单卡FP16算力可提升至1979 TFLOP/s,但A100并没有FP8部署。3)浮点精度方面,理论上精度越高,计算的准确度也应提升,但使用更高精度,如FP16和FP32,会对算力要求有显著增加,从而增加所需的GPU资源。在模型训练中,我们需要权衡精度与准确度(precision vs. accuracy tradeoff)。如果提高精度带来的准确度提升微乎其微,那么提升精度反而会造成算力和能源的浪费,得不偿失。此外,训练过程中可通过数据并行、流水线模型并行、张量模型并行以及服务器通信优化等方式进行全面优化,提升训练效率并缩短训练时间。
风险提示
大模型技术研发进展不及市场预期:大模型研发具有较高的不确定性,可能因技术突破受阻、算法优化困难、计算资源不足等因素导致进展缓慢不及市场预期。
贸易科技摩擦风险:若中美贸易与科技摩擦风险加剧,或将导致DeepSeek数据使用遭受审查,对于公司产品迭代造成潜在负面影响。
本研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。
研报《浅谈DeepSeek的成本和跟行业对比》2025年2月4日
何翩翩 分析师 S0570523020002 | ASI353
易楚妍 联系人 S0570124070123
DeepSeek十问十答
DeepSeek的横空出世引发了AI产业的深刻讨论。本文就DeepSeek对算力需求、芯片市场、技术创新、端侧智能、出口管制、投资逻辑、软件生态、开源生态以及中国科技资产估值等十个关键问题进行了深入分析。
问题#1:DeepSeek是否会抑制算力增长?
据DeepSeek V3技术报告,V3模型的训练总计只需要278.8万 GPU小时,相当于在2048卡的H800GPU集群上训练约2个月,合计成本约557.6万美金,相较而言,Llama 3系列模型的计算预算则多达 3930万 H100 GPU小时,DeepSeek训练成本约相当于Llama 3系列模型的7%。
我们认为,DeepSeek对算力需求的影响呈现出短期抑制、长期增长的复杂趋势。短期内,DeepSeek的低成本高效训练方法可能导致训练需求下降。然而,从长远来看,随着模型的普及和应用场景的扩展,推理需求将显著增长。这种趋势类似于"蒸汽机降低煤耗但提升煤炭总用量"的历史现象。
随着AI技术成本的下降,其应用范围将大幅扩展,最终可能导致算力需求的大幅增长。微软CEO纳德拉认为AI效率提升将激发指数级需求。
问题#2:DeepSeek是否会改变AI算力的增长范式
AI算力大致分为1)用于研发通向通用人工智能(AGI)的前沿模型相关的探索性算力(AGI方向),2)面向一般消费者的应用性算力(现有模型推理)。过去两年,推动算力增长的主要动力是,探索性算力增速(25x/2年)远高于摩尔定律(2倍/年),导致GPU需求激增。只要这个探索工作还在继续产生正向回报, AI算力的增长范式短期或不会发生变化。
在通用人工智能(AGI)愿景的驱动下,我们看到,主要科技巨头仍然在加大投入,例如:
1)1/24, Meta宣布计划2025年资本支出达600-650亿美元,主要用于AI基础设施(训练集群和数据中心建设)。
2)1/21,OpenAI宣布和软银、Oracle启动的“Project Stargate”计划投资超1000亿美元建设AI基础设施,显示资本仍集中流向需要海量算力的前沿探索。
根据Factset一致预期,微软、谷歌、亚马逊、Meta、苹果等北美五大科技公司合计资本开支2025年有望继续增长19.6%。其中很大部分投入是用在包括GPT-5、Llama4等在内下一代模型的算力投资。另一方面,Agent等应用目前仍处于探索的初期阶段,大规模商用的时间点仍存在不确定性,所以我们认为目前AI算力的增长范式没有变化。
问题#3:DeepSeek会改变市场投资逻辑吗?
DeepSeek这次的“惊喜”让我们认识到,
1) 未来大模型公司之间的竞争中,"算法效率"的重要性可能上升, 投资重点可能从"算力军备"转向"算法效率"。AI竞赛正从"算力军备"转向"算法效率"。未来的竞争重点或将更多地集中在算法优化和生态活力上。
2) 开源协议能使中小开发者基于前沿模型二次开发,推动大模型创新从少数科技巨头向分布式社区转移,为中小软件企业创造更多创新机会。从投资角度,我们认为2025年是AI发展进入商业化落地的一年。以Agent AI为代表的企业软件有望迅速落地,提升企业工作效率,带动美股软件板块表现或好于硬件。
问题#4:DeepSeek是否会改变芯片市场格局?
根据Jon Peddie Research,3Q24英伟达在全球GPU市场份额达到90%。其中,H100等高端GPU是主要产品之一。DeepSeek的成果显示,在面向一般消费者的大模型市场,企业可以通过使用A100、H800等相对低端的芯片实现类似性能。这可能会影响英伟达2025年以后,B200等最先进GPU在云计算、主权AI等领域的普及。Blackwell/Rubin等最先进的GPU的用途,初期可能会被局限在探索下一代超大规模模型(Frontier Model)上。
问题#5:DeepSeek真的那么便宜吗?
据DeepSeek V3技术报告,V3模型的训练总计只需要278.8万 GPU小时,相当于在2048卡的H800GPU集群上训练约2个月,合计成本约557.6万美金,相较而言,Llama 3系列模型的计算预算则多达 3930万 H100 GPU小时,DeepSeek训练成本约相当于Llama 3系列模型的7%。
但是,SemiAnalysis在报告中指出,557.6万美金这个数字主要指的是模型预训练的GPU成本,并不包括研发、数据收集、清理等其他重要成本。实际上,DeepSeek的总体投资规模相当可观。据SemiAnalysis估计,其GPU投资就超过5亿美元。考虑到服务器资本支出、运营成本等因素,DeepSeek的总拥有成本(TCO)在4年内可能达到25.73亿美元。DeepSeek的成本优势主要体现在其高效的训练方法和创新的模型架构上。例如,其推理成本降至OpenAI的1/50,这在实际应用中可以带来显著的成本节约。然而,这种成本优势并不意味着整体AI开发和运营成本的大幅降低。
问题#6:DeepSeek到底有哪些创新?
DeepSeek在多个方面展现出技术创新,主要包括模型架构创新、训练方法突破、蒸馏优化、推理效率提升等。其中,混合专家(MoE)架构和多头潜在注意力(MLA)的引入显著提升了模型性能和效率。R1-zero模型采用纯强化学习(RL)训练,跳过监督微调,验证了RL在AI训练中的优先级和有效性。这些创新使DeepSeek在性能、效率和成本方面都取得了显著进展,为AI技术的发展提供了新的方向。特别是在解决复杂数学、物理和推理问题时,其速度是ChatGPT的两倍,且在编程问题上提供了迅速而全面的答案。
1)采用混合专家(MoE)架构,动态调用子模型降低计算量;
2)引入多头潜在注意力(MLA)压缩内存,支持长文本处理;
3)强化学习(RL):R1-zero模型跳过监督微调,通过纯RL直接训练,验证了RL的优先级和有效性;
4)蒸馏优化:利用R1生成数据微调小模型,提升特定场景性能(如数学、代码任务)
模型架构创新、训练方法突破、蒸馏优化、推理效率提升等。
问题#7:DeepSeek会带动中国科技资产价值重估吗?
目前(2025/2/3),恒生科技指数12月前向PE 20.0倍,远低于纳斯达克的35.4倍。DeepSeek的成功可能提高投资者对中国AI公司产业链的估值预期,吸引更多资本投资中国AI领域。
问题#8:DeepSeek会推动端侧智能发展吗?
DeepSeek很可能会显著推动端侧智能的发展,其高性价比模型使得更多企业可能考虑在端侧设备上部署AI应用,推动智能设备的智能化进程。微软推出的专为NPU设计的DeepSeek-R1模型,支持Copilot+PC等设备,实现半连续运行的主动智能体验,为智能手机、汽车等端侧设备提供了高效本地化部署方案。DeepSeek的技术进步可能加速端侧智能的普及和发展,推动AI技术向更广泛的终端设备渗透,从而改变现有的计算范式和用户交互方式。这不仅提升了端侧AI性能,还有助于保护用户隐私,降低了AI应用部署的技术门槛。
但是,从Apple Intelligence过去一年的发展历程中,我们看到,智能硬件的迭代是循序渐进过程,不会一蹴而就。模型能力提升只是其中一环,还存在生态链协调等很多挑战,对2025年AI手机等端侧智能的发展不应抱过高预期。
问题#9:DeepSeek会导致美国提升出口管制压力吗?
DeepSeek发布后,美国媒体进一步限制中国发展AI声音抬头。我们看到以下几个风险:
1) 芯片出口管制收紧:美国可能会加强对高端AI芯片的出口管制;
2)开源限制:美国政府可能会限制科技公司开源大模型,以防止技术扩散;
3)模型回传限制:在2024年年底发布的出口管制政策中,美国政府已经限制在新加坡等第三国训练好的模型回传中国,阻止技术转移;
4)数据获取限制:美国可能会限制用于AI训练的大规模数据集的获取;
5)算力资源限制:除了芯片管制,还可能限制美国云服务提供商的高性能计算资源的使用。
问题#10:DeepSeek会改变开源软件生态吗?
全球主要大模型公司中,OpenAI、Google、Anthropic、字节、百度等采用闭源模式,Meta、阿里等采用开源模式。如下图所示,闭源模型一直保持对开源模型的性能优势。
这次DeepSeek通过开源接近最先进的闭源的高性能模型,可能降低AI技术的使用门槛。开源模式带来边际成本持续下降的技术红利,为AI技术的真正普及奠定了基础。此外,DeepSeek的做法也可能推动其它AI公司重新思考其商业模式。
风险提示
1)中美贸易摩擦升级,影响产品供需与公司海外布局风险;
2)宏观经济下行风险;
3)创新品渗透不及预期,导致公司增长不及预期。
4)本研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。
黄乐平 分析师 S0570521050001 | AUZ066
陈旭东 分析师 S0570521070004 | BPH392
2025年北美科技板块投资框架和8个预测
展望2025年,我们提出预测:
1) 科技板块有望跑赢美股大盘(QQQ > SPY)
2) 软件有望跑赢硬件 (IGV > SOX)
3) ASIC有望跑赢GPU (AVGO vs NVDA)
4) 台积电在先进工艺领域领先优势或持续 (TSM vs SOX)
5) 2025年或为iPhone销售小年
6) 美国或把比特币纳入战略储备 (IBIT > GLD)
7) 设备板块有望实现反转 (ASML/AMAT/TEL vs SOX)
8) 模拟等底部板块,下半年存在周期上行机会 (STM vs SOX)
预测#1:科技板块或继续跑赢美股大盘
回顾2024年,纳斯达克涨29%,S&P500涨23%,费城半导体指数涨19%,科技股跑赢大盘。复盘2015-2024年,纳斯达克指数在2015、2017、2019、2020、2023、2024这6年跑赢S&P500。其中过去两年,以微软、英伟达、谷歌、Meta等为代表的七大科技巨头的强劲业绩增长带动纳斯达克指数产生19%/6%超额收益。展望2025,我们认为AI应用落地是行业主线,头部科技公司2025E EPS增速一致预期高于S&P500,科技股有望继续跑赢美股大盘。
预测#2:软件有望跑赢硬件
回顾2024年,美股硬件板块上半年表现较好,下半年开始硬件股价有所回落。从2024年三季度开始,美国企业的软件开支出现复苏迹象,生成式AI展现出贡献收入增长,驱动利润率改善的效果。全年来看,美股软件板块涨幅超过硬件板块。
展望2025年,软件方面,随着选举结束和利率降低,宏观环境相较2024年转好,公司软件领域投资意愿边际提升。我们看好AI持续改善软件厂商利润率。但与此同时,建议关注AI驱动SaaS企业竞争格局的变化。
预测#3:ASIC有望跑赢GPU
回顾2024年,上半年英伟达股价持续上行,下半年经历震荡,市场担忧训练阶段Scaling law放缓。而ASIC相关公司股价下半年呈现上升趋势,从训练转向推理阶段演进过程中,ASIC芯片在推理应用中具有显著的性能和功耗优势。博通CEO认为未来50%的AI Flops将来自ASIC,而大规模云计算公司内部自用可能会100%采用ASIC,博通、Marvell股价在四季度大幅上涨。
展望2025年,我们看好ASIC市场扩容。英伟达凭借高性能的GPU产品和高粘性的CUDA生态在AI算力芯片市场占据主要份额。但伴随大型云服务商对AI计算需求日益增多,将更加追求AI加速芯片的成本效益,微软、谷歌、Meta、亚马逊等越来越多云服务商纷纷加速布局ASIC定制化加速卡。据Marvell,数据中心定制加速计算芯片市场规模有望从2023年66亿美元增长至2028年429亿美元,2024-2028年CAGR=45%。
预测#4:台积电在先进工艺领域有望继续领先
2024年,我们观察到三星、英特尔逐渐在先进工艺上掉队,台积电在先进工艺上一家独大。英特尔2024年8月开始了1.5万规模的裁员,12/2 CEO帕特·基辛格退休,三星2024年11月也宣布裁员。根据Trend Force,2024Q3,台积电市场占有率为 64.9%,而三星从第二季度的 11.5% 降到 9.3%,差距进一步扩大。2024年年初至2024年12月31日,台积电/三星/英特尔股价涨跌幅分别为81%、-32%、-60%。
预测#5:2025或为iPhone销售的小年
据Canalys,2024年中国大陆智能手机出货量同比温和增长4%,iPhone中国大陆出货量同比减少17%,份额从2023年的19%降至15%。回顾2024年,苹果在中国大陆通过季节性促销、旧换新计划、扩大免息分期覆盖等策略提升在中国市场竞争力,但仍面临本土厂商的竞争压力。AI方面,据CNET,Sell Cell调查表明,73%的iPhone用户和87%的三星用户表示,新的AI功能对他们的手机体验价值有限。
据Factset一致预期,iPhone 2025年出货量有望同比+3.8%至55mn。我们认为,iPhone16 SE机型和iPhone17 Air机型的发布对iPhone出货量有一定支撑作用,但受制于数据监管和合作伙伴等因素,AI功能在中国等国家和地区落地仍需要时间,且Apple Intelligence仍缺少杀手级应用,2025年苹果销量增速能否超市场预期仍需观察。
预测#6: 美国有可能建立数字资产战略储备
回顾2024年,比特币现货ETF上市、比特币减半事件、特朗普当选总统、联储降息预期等多重催化下,比特币价格全年大幅增长。1月,美国11支比特币ETF上市,带动资金流入,且Coinbase作为11家发行方中8家的托管人,托管业务受益;4月,比特币完成第四次减半,减半完成前在预期的催化下,市场情绪热烈;年底,特朗普表现出亲加密货币立场,并成功当选。与此同时,美联储持续降息,市场流动性较2022-2023年有所改善。
展望2025年,特朗普正式上台后的政策框架是市场关注重点。特朗普在竞选期间对加密货币做出了诸多政策承诺,他表示要将美国打造成“全球加密货币之都”和“比特币超级大国”。上任后,特朗普于1/23发布行政令,设立了数字资产市场总统工作组,行政令中表示,将评估建立和维护国家数字资产储备的可能性。此外,特朗普曾承诺上任后将解除对加密货币不友好的美国证券交易委员会(SEC)主席Gary Gensler的职务,目前Gary Gensler已于1/20离职。
预测#7: 半导体设备板块或存在反转机会
回顾2024年,东京电子、Lasertec等前道设备公司受英特尔、三星下调资本开支,以及中国设备投资转弱等影响,股价表现偏弱。展望2025年,我们认为管制政策升级、中国市场占比下滑、以及三星/英特尔的利空已经被市场充分认知,市场关注2025年日本潜在管制政策更新。估值方面,前道设备估值已大幅回调,截至2025/1/20,ASML、AMAT、TEL等全球主要前道设备公司2025E PE一致预期均值为21.7x。建议关注板块反转机会。
预测#8:模拟等底部板块下半年存在周期上行机会
2024年,市场对AI的关注度较高,同时,汽车、工控等领域处于竞争加剧及库存去化进程中。2024年下半年,英伟达等AI相关公司的涨势已经有所放缓,展望2025年,市场担心AI资本开支增速或逐步放缓。与此同时,非AI公司的估值相比AI相关公司存在一定差距,建议关注非AI领域困境反转的机会。展望2025年,模拟经过两年左右的库存调整,渠道库存处于正常水平,板块已经进入磨底阶段,关注下半年周期复苏的机会。
风险提示
1)中美贸易摩擦升级,影响产品供需与公司海外布局风险;
2)宏观经济下行风险;
3)创新品渗透不及预期,导致公司增长不及预期风险。
4)本研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。
核心观点节选自研报:《DeepSeek发布后,2025年美国科技投资八大预测》2025年2月3日
黄乐平 分析师 S0570521050001 | AUZ066
陈旭东 分析师 S0570521070004 | BPH392
低成本敲响美国科技界“警钟”,DS引发科技股抛售,掀起AI主导权之争
DeepSeek(DS)的低开发成本引发全球投资者对美国科技巨头高成本投资的质疑,以及对算力与相关产业的担忧,1月27日纳指出现拥挤性抛售。英伟达、ARM和博通股价下跌17.0/10.2/17.4%。知名科技投资人Marc Andreessen认为DS是一项重大突破,并引发各界对美国在AI领域主导地位的质疑。而特朗普更将DS描述为对美国科技产业敲响了“警钟”。从科技界看,Meta首席科学家Yann LeCun认为DS受益于开源生态,并认为开源模型正在赶超闭源模型,Meta的Llama同属开源。Scale AI CEO Alexandr Wang表示DS的模型“惊天动地”,性能高且大致与美国最好的模型相当,并认为中美之间的AI竞赛加剧。OpenAI CEO Sam Altman称赞R1的高性价比,但表示其将推出的改进模型或再次引领行业发展。不过,据彭博报道,微软和OpenAI正在调查DS是否以未经授权方式“蒸馏”了OpenAI的数据输出作为其训练依据。英伟达也于1月31日宣布DS-R1模型现已在NVIDIA NIM微服务预览版上提供。该微服务在单个HGX H200系统上每秒最多可提供3872个Tokens。
对比科技巨头和OpenAI的模型,DS是否真正创新?
我们认为DS的R1模型主要是在现有技术路线的基础上创新,并进行深度优化和改进。这是学术研究惯用的研究方法,也反映了AI发展中开源的趋势。Meta CEO扎克伯格在24Q4财报里表示,DS的崛起“只会加强我们对Meta AI战略和投资的信心”。他强调须建立美国AI技术标准,尤其在面对开源模型带来的全球竞争。他也承认DS采用的几种创新算法可更有效、更经济地训练模型,Meta目前正评估并考虑将一些算法整合到自己的模型中。DS于2024年推出V1-V3模型迭代,主要基于MOE(专家混合模型,Mixture of Experts)和MLA(多头潜在注意力,Multi-head Latent Attention)算法,以解决AI计算的两大瓶颈:内存与算力。
DeepSeek的MoE算法能如何降低算力需求?
MOE是神经网络之父Geoff Hinton于90年代提出,目前相关算法已被Mistral、谷歌、腾讯、OpenAI等广泛应用。MOE将大型模型划分为多个专门处理特定任务或数据的小型子模型。而每个子模型仅在其特定知识相关时才被激活。尽管DS的V3总共有6710亿个参数,但实际上一次只使用370 亿个参数。而R1是以V3基础,通过强化学习实现高效推理。传统MOE算法(如谷歌GShard)通过激活不同专家来处理任务,但较难确保专家获得的知识不重叠。而DS的MOE特点在于使用了:1)细粒度专家分割(Fine-grained Expert Segmentation)将专家划分为更小单元以更灵活激活专家组合;2)Shared Experts Isolation将部分专家设定为共享专家,以捕捉整合上下文的共同知识,降低其他专家中的参数冗余。相比之下,其他公司虽也有使用类似算法,但主要集中于提升单一专家能力。
DeepSeek的MLA算法如何降低所需内存?
MLA是对于谷歌GQA(分组查询注意力,Grouped Query Attention)方法的深度改进,通过数学变换优化计算和内存使用,关键在于合并和简化矩阵运算。谷歌算法的基本原理为共享KV矩阵,从而减少计算量和内存使用。而Meta算法在于探索稀疏KV缓存路线,以减少KV缓存的体积和计算复杂度。然而,MLA的特点在于不直接存储KV矩阵,而是仅存储经过合并吸收后的低秩压缩向量,从而减少内存占用。R1也采用的MTP(多标记预测,Multi-Token Prediction)可同时预测多个Token,减少KV缓存的访问次数,提高复杂任务的整体性能。
DS的MOE特点详解
1)细粒度专家分割(Fine-grained Expert Segmentation)将专家划分为更小单元以更灵活激活专家组合,实现更精细的任务分解和专业化。DS采用256个专家,而Mistral、腾讯和OpenAI分别采用8/16/16个,因此每次任务激活的相应参数减少。2)Shared Experts Isolation将部分专家设定为共享专家,以捕捉整合上下文的共同知识,降低其他专家中的参数冗余。相比之下,其他公司虽也有使用类似算法,但主要集中于提升单一专家能力,例如Mistral每次只激活两个专家,以增强该专家对特定问题的理解、腾讯则探索根据每个专家的能力,动态分配Token,赋予每个专家不同表达能力。R1是以V3模型为基础,通过强化学习实现高效推理。不同于传统方法依赖SFT(监督微调,Supervised Fine-tuning)与 PPO(近段策略优化,Proximal Policy Optimization,由OpenAI提出)以单个输出作为交互单位,DS的核心在于GRPO(群组相对策略优化,Group Relative Policy Optimization)对多个输出作为交互整体进行评分,优势包括:1)不依赖独立的价值函数模型,从而简化训练过程并降低内存消耗;2)以群体输出的平均奖励作为基准,更契合奖励模型的训练需求,从而减少对复杂价值模型的依赖,提高强化学习训练效率。DS还开发了一种独特的负载均衡策略(Load Bearing Strategy)通过使用更动态的调整,而不是用可导致性能下降的传统基于惩罚的方法,来确保没有任何一个专家工作过载或欠载。DS还使用了一种称为推理时计算缩放(Inference Time Compute Scaling)的技术,允许模型根据手头的任务向上或向下调整其计算工作量,而不是始终以全功率运行。
DS的MLA特点详解
传统Transformer中使用的MHA(多头注意力机制,Multi Head Attention),随着前置序列变长,需存储完整的Key-Value(KV)矩阵也将变长,内存占用大增。谷歌于2019年、2023年分别提出MQA(多查询注意力,Multi Query Attention)与GQA,基本原理均为共享KV矩阵,从而减少计算量和内存使用。然而,MLA的特点在于不直接存储KV矩阵,而是仅存储经过合并吸收后的低秩压缩向量,从而减少内存占用。除共享机制外,Meta联合 CMU探索稀疏KV缓存路线,核心思想在于仅储存关键KV矩阵,以减少KV缓存的体积和计算复杂度。R1模型采用的MTP(多标记预测,Multi-Token Prediction)可同时预测多个Token,减少KV缓存的访问次数,提高复杂任务的整体性能。主流大模型采用Decoder-Based结构,在训练和推理时均以Token-by-Token方式生成序列。每次生成新标记都需频繁访问KV缓存,并执行多层前向计算。而MTP通过同时预测多个Token,可提高信号密度,减少上下文漂移和重复内存读取与计算步骤,从而提升数学、代码生成和文本摘要等任务的效率。相较Meta于2024年4月提出的MTP方法,R1引入因果链(Causal Chain)的连接关系,并在Embedding层增加残差链接,从而提高信息流的传递效率。
风险提示
大模型技术研发进展不及市场预期:大模型研发具有较高的不确定性,可能因技术突破受阻、算法优化困难、计算资源不足等因素导致进展缓慢不及市场预期。
贸易科技摩擦风险:若中美贸易与科技摩擦风险加剧,或将导致DeepSeek数据使用遭受审查,对于公司产品迭代造成潜在负面影响。
本研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。
何翩翩 分析师 S0570523020002 | ASI353
易楚妍 联系人 S0570124070123
风险提示:
1)中美贸易摩擦升级,影响产品供需与公司海外布局风险。
黄乐平 分析师 S0570521050001 | AUZ066
陈旭东 分析师 S0570521070004 | BPH392
于可熠 联系人 S0570122120079 | BVF938
DeepSeek-R1引起海外关注,OpenAI或因此重拾开源路线
DeepSeek通过多代模型迭代,逐步实现成本降低和性能提升。DeepSeek的模型以文本模态为主。2024年5月发布V2版本,通过注意力机制的优化,提高了训练和推理效率,实现模型价格的下降。2024年12月V3发布,在V2基础上运用了更多的软硬件优化技术,并且在技术报告中指出V3模型单次成功训练成本(不含前期研究、消融实验、算法和数据准备成本)仅为558万美元,性能达到4o水平。2025年1月,R1正式版模型发布,成功大规模实践了强化学习,使得R1性能提升到o1水平。
DeepSeek-V3在V2的基础上,进一步优化软硬件算法,实现性能提升。DeepSeek V2主要的改进包括采用了MLA(多头隐注意力机制)和DeepSeekMoE架构,相比其前一代模型DeepSeek 67B(稠密架构),性能更强,训练成本节省42.5%,KV cache 降低了93.3%(以上数据来源为华泰计算机报告《国产大模型“凭”什么降价?》2024.06.10)。V3以V2为基础,增加了无辅助损失策略、多token预测(MTP)、计算通信重叠、内存占用优化等新的软硬件优化算法,使得模型性能再上台阶。
DeepSeek-R1采用多阶段训练流程。DeepSeek-R1-Zero将RL直接应用于基础模型,而不使用任何SFT数据。经过数千次RL步骤后,DeepSeek-R1-Zero在推理基准测试中表现出较强的性能。但是DeepSeek-R1-Zero存在可读性差、多语言混合问题等。因此,DeepSeek团队通过如下方法进行进一步优化:1)通过引入少量高质量数据作为冷启动,推理性能进一步改进或收敛加速。2)提出新的多阶段训练,穿插多次SFT和RL,最终基于DeepSeek-R1-Zero得到了DeepSeek-R1模型。DeepSeek-R1在工程相关任务、MMLU、MMLU-Pro、GPQA Diamond、长上下文等能力方面优于V3,达到o1级别水平。
DeepSeek-V3/R1由于低廉的推理价格和o1级别的推理性能,得到了市场的广泛关注。我们认为,o3-mini并非应对DeepSeek才发布,而是24年12月发布时即确定好了发布时间。但是,DeepSeek的模型能力已经引起了OpenAI在内的海外头部厂商的重视:微软、亚马逊、英伟达先后上线R1模型;OpenAI CEO Sam Altman在Blog表示R1“impressive”,并且OpenAI也将“提供更好的模型”以应对DeepSeek。我们看好2025年国内模型在算法和软硬件的持续优化,以及在开源领域的重大贡献。
DeepSeek开始引领开源潮流,OpenAI或将重拾开源。我们认为,开源模型的优势体现在社区共建和技术共享。以DeepSeek-R1为例,其开源仓库(包括模型权重)统一采用标准化、宽松的MIT License,完全开源,不限制商用,无需申请。因此,理论上所有的小参数模型均能够直接利用R1蒸馏出的标签数据,来增强推理性能。此外,DeepSeek-R1开源有望提振整个开源社区的共建氛围,使得更多开源模型能够“站在巨人肩膀上”加速迭代。在2月1日OpenAI在Reddit上举办的AKA活动上,Altman表示“闭源可能站在历史错误的一边”,后续可能找到不同的开源策略。我们认为,2025年或是开源模型快速进步的一年,开源闭源模型的差距有望进一步缩小,国产大模型进展值得关注。
风险提示
宏观经济波动。若宏观经济波动,产业变革及新技术的落地节奏或将受到影响,宏观经济波动还可能对AI投入产生负面影响,从而导致整体行业增长不及预期。
技术进步不及预期。若AI技术和大模型技术进步不及预期,或将对相关的行业落地情况产生不利影响。
本报告基于客观事实整理,不构成投资建议。
谢春生 分析师 S0570519080006 | BQZ938
袁泽世 分析师 S0570524090001
DeepSeek低成本+高性能,推动AI应用生态发展
DeepSeek最新大语言模型R1性能比肩GPT-o1;多模态模型Janus-Pro也正式发布。因其“低成本+高性能”的开源模式,DeepSeek成为全球增速最快的AI应用,并引发国内外产业圈和投资圈震动。我们认为,DeepSeek对下游应用生态来说,降低了开发者门槛,加速了AI技术的普惠;激发开源社区创新,有助于应用场景的扩展。我们看好:1)Agent类应用,可通过API集成来继承新一代LLM的能力,提升交互质量和效率;2)大模型能力向轻量化模型迁移,加速AI智能硬件渗透;3)利好下游传媒应用方向AI电商/AI玩具/AI情感陪伴/AI广告等的繁荣和商业化落地。
激发开源社区创新,扩大开源生态建设
DeepSeek在开源策略方面,采用“基础模型开源+高阶功能商业化”模式,将吸引开发者参与生态建设,激发社区创新。1月29日Hugging Face首席科学官表示DS-R1开源模型累计下载量超70万次,日增40%;用DS-R1搭建的衍生模型至少有670个,累计下载量超320万次,日增约30%。R1属于完全开源不限制商用,使用宽松的MIT License。我们认为,将利于更多开源模型利用R1蒸馏的标签数据增强推理加速迭代,开源项目可能成为行业事实标准,降低AI应用技术门槛。此外,采取闭源策略的大模型厂商也可能会考虑差异化开源策略,如OpenAI等。
模型推理能力提升,提升AI Agent交互质量和效率
DeepSeek R1大模型在推理、数学、代码等能力都有明显提升,使得RL算法平权。应用侧看,Agent通常依赖LLM来理解和生成自然语言,理解用户的需求并生成相应的响应,需求理解/挖掘能力的增强,便宜好用的长上下文,会提升Agent的落地效果。低成本开源大模型的持续迭代下,Agent可通过API集成来继承新一代LLM的能力实现进化,提升交互质量和效率。To B企业服务中,Agent正从任务执行变成决策支持伙伴;To C场景中,有助于提高生活场景的效率,并提供个性化服务。
大模型能力向轻量化模型迁移,加速AI智能硬件渗透
DeepSeek R1的出现将让产业界对基于CoT思路的优质合成推理数据的使用增加。DeepSeek通过知识蒸馏技术,实现大模型能力向轻量化模型的高效迁移,降低智能产品的AI功能集成门槛,开发者可快速将其AI能力部署至硬件设备并针对场景定制化。同时,凭借高效推理能力和低延迟响应的能力,DeepSeek能提升智能硬件交互的流畅度和场景理解的准确度,增强交互体验,助力AI智能硬件的普及渗透。我们预计,25年端侧小模型的技术迭代和降本增效将不断体现,未来免费端侧小模型可能百花齐放,助力端侧AI手机、AI可穿戴设备(眼镜/耳机等)、AI玩具、AI机器人等产品的发展。
DeepSeek影响下,利好下游AI应用繁荣和商业化落地
我们看好AI应用几大方向:1)AI电商:目前已提供智能图片生成、智能客服、客户分析等,提升产业链运营效率及优化用户体验。2)AI玩具/AI情感陪伴应用: AI情感陪伴类应用已在活跃用户层面脱颖而出,商业化模式逐步清晰。3)AI营销:关注AI赋能下广告ROI的潜在提升。关注AI视频/AI游戏产业链。产业链标的梳理,请见研报原文。
风险提示:大模型技术发展不及预期,AI监管政策影响,宏观经济波动等。
研报《DeepSeek推进模型平权,加速AI应用繁荣》2025年2月4日
朱珺 分析师 S0570520040004 | BPX711
吴珺 分析师 S0570523100001
Deepseek(DS)或预示模型平权趋势,看好苹果生态及其产业链
2025/1/27,DeepSeek应用登顶苹果美国地区、中国区应用商店免费APP下载排行榜。1/31,英伟达、微软、亚马逊同日接入DS。我们认为推理成本下降是AI进步过程中的一个符合科学规律、目前也逐渐明显的趋势,DS并非孤例,未来或能出现越来越多的便宜、低功耗,又可以快速准确响应的推理模型,垂类应用市场百花齐放,为AI端侧带来更多可能性。同时基础大模型能力差距的拉平下,2C领域流量入口成为重要因素,产品载体、用户群体、场景数据会更重要。我们看好1)短期DS有望助力苹果AI在中国区落地,2)长期看苹果生态价值更加显著,有望推动产业链公司受益。
DS或预示基础模型能力逐渐拉平,AI应用及终端或受益
我们认为推理范式与训练相比,迭代更快,类似于DS通过算法的改进,以更少的计算资源来实现相似甚至更好的效果可能性更大。这种模式可能反复出现(比如谷歌的Gemini Flash 2.0 Thinking,根据公司公布的3个基准测试结果不差于DS,且价格更低)。基础大模型能力差距可能会逐渐被拉平,面向C端的服务成本下降会加快AI落地,供给端有望实现多元化,即在各个行业形成一系列AI垂类解决方案。一方面,各种中、高、低端硬件上的AI普及成为可能,另一方面,2C领域流量入口成为AI产业价值分配的重要因素,硬件生态,即产品载体、用户群体、场景数据会更重要。
苹果:短期DS有望助力AI在中国区落地
根据MacRumers,此前考虑到本地化、合规方面的要求以及备案审批所需要等待的时间,国行版苹果设备在寻求与百度、阿里巴巴、腾讯、字节跳动、百川智能在大模型上合作的可能性。1月27日早间,DeepSeek应用登顶苹果中国地区和美国地区应用商店免费APP下载排行榜。在苹果1QFY25业绩会上,有投资人询问苹果CEO库克对DS的态度,库克也表示创新驱动效率是好事情,非常乐见这样的创新。我们认为DS的火热给了苹果在中国区AI合作伙伴更多的选择。
苹果:长期看生态价值更加显著
长期来看,随着大模型的平权以及各种垂类应用的多元化,我们认为苹果的生态价值可能凸显。一方面,在拥有相对来说比较完整的生态之后,公司利用在生态里收集的数据,能更好地满足消费者对智能产品的需求,吸引更多用户选择自己的产品和服务,进一步扩大市场份额,提升品牌在全球市场的影响力。另一方面,与现在手机厂商在互联网业务上收取抽成费用赚取利润相似,未来AI时代公司同样有望通过对应用收费增厚利润,且公司存量高端用户变现价值大。
对产业链影响:苹果硬件出货有望受益于AI布局,带动产业链公司业绩
我们看到苹果1H25催化较多。根据MacRumers,iOS18.4有望于2-3月份逐渐推出Beta版本,并于4月推出正式版本。在苹果1QFY25业绩会上库克表示这一版本会有简体中文版本,同时AI会加强Siri功能。我们认为DS趋势下若基础模型能力拉平,苹果生态优势可能更显著,帮助公司稳步扩大市场份额,同时未来几年机型创新仍将持续,产业链公司有望受益。
风险提示:AI进展不及预期,宏观环境不及预期,国际政治环境风险。
研报《电子: Deepseek端侧影响:苹果产业链》2025年2月5日
谢春生 分析师 S0570519080006 | BQZ938
黄礼悦 分析师 S0570523070007 | BRH099
关注我们
https://inst.htsc.com/research
访问权限:国内机构客户
https://intl.inst.htsc.com/research
免责声明