华泰 | 计算机深度研究:云厂AI算力自用需求或超预期

文摘   2024-08-27 11:02   广东  

得益于AI大模型推动,海外云厂商的基础设施进入新一轮建设周期。本文从“复盘”与“展望”两个角度,对海外云厂商资本开支支出进行了深度梳理。历史复盘看剔除结构性因素影响后,资本开支极少向下波动。云厂商资本开支主要服务自用和外供两大场景,我们认为自用场景下的推理需求,存在较大市场预期差,大模型在推荐/搜索等场景落地,或带来持续AI算力需求。首选关注海外算力产业链,其次关注国产算力产业链,最后关注 AI 应用的潜在变化。


核心观点

云厂对AI算力自我消化能力超市场预期

得益于AI大模型推动,海外云厂商的基础设施进入新一轮建设周期。本文从“复盘”与“展望”两个角度,对海外云厂商CapEx(资本开支)支出进行了深度梳理。2005-2023年,Amazon(亚马逊)、Microsoft(微软)、Google(谷歌)、Meta(脸书)的资本开支呈总体持续扩大趋势。其中,1)2005-2022年云计算(IaaS+PaaS+SaaS)贡献主要增长动力,2)2023年起生成式AI成为新增长引擎。云厂商CapEx主要服务自用和外供两大场景。自用场景下的推理需求,存在较大市场预期差,大模型在推荐/搜索等场景落地,或带来持续AI算力需求。


历史复盘:剔除结构性因素影响,资本开支极少向下波动

云资本开支整体保持扩大趋势,但仍存在少量同比下降的年份,我们针对波动原因进行回溯,发现CapEx支出同比下降主要受结构性调整、经营性平衡两类因素影响。1)结构性调整:包括用于房产购置、物流运输等方向的支出减少以及未考虑用于数据中心建设的融资租赁两类情况;2)经营性平衡:即公司为保证经营质量,在公司业绩承压的年份,有意控制资本开支规模。通过整理 Amazon、Microsoft、Google、Meta的情况,我们发现结构性调整在四家公司的占比较高(分别为3/3、1/3、5/7、1/1),说明过去近20年时间,云厂商用于数据中心建设的资本开支并未出现明显缩减。


需求展望之外供:MaaS服务带动云收入提速,云厂商竞争加剧

23H2海外云厂商加快针对AI大模型的云端算力建设,资本开支环比增长提速,24Q1 Microsoft、Google、Amazon的资本开支yoy分别为66%、91%、7%,均超越彭博一致预期;同时对于24年全年CapEx各家公司均给出积极指引,扩大资本开支成为企业共识。从外供需求角度看,得益于MaaS服务带动,Microsoft、Google、Amazon云收入增速自23Q3逐步企稳,24Q1三家公司云收入同比增速分别为31%、28%、17%,分别环比提升1、2、4pct,外部算力需求旺盛。同时,云厂商正加速完善MaaS服务布局,工具层软件能力正逐步趋同,算力、模型或是日后竞争关键。


需求展望之自用:大模型有望替代传统算法,推理需求或加速释放

云厂商自用推理需求值得高度关注。相较于训练需求,大模型的应用落地带来更大规模、更具持续性的推理需求。除Copilot等生成式AI应用外,大模型正加速向推荐/搜索/广告等传统互联网业务渗透。我们认为,若大模型实现在传统业务场景的算法替代,云厂商自用的AI推理需求将加速释放。以Meta为例,24年公司开创性提出生成式推荐大模型,并计划实现在Reels、Feed、Groups等推荐场景的跨产品线覆盖,用统一大模型代替原有的独立推荐模型。我们认为,后续自用推理算力仍有较大成长空间。


相关产业公司梳理

我们认为,AI 有望拉动全球算力继续向上,首选关注海外算力产业链,其次关注国产算力产业链,最后关注 AI 应用的潜在变化。1)海外算力产业链:包括光模块、AI 服务器;2)国产算力产业链;3)AI应用。相关公司梳理,请见研报原文


风险提示:模型迭代不及预期;AI商业化进展不及预期;本研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。



正文

核心观点

大模型时代,AI需求有望拉动厂商资本开支持续扩大,全球算力需求将持续向上。


复盘历史:2005-2023年云资本开支整体保持扩大趋势,2009、2015、2023年Amazon、Microsoft、Google、Meta合计支出规模出现小幅波动,剔除结构性调整因素影响,我们发现除2009年Google、Microsoft受经营压力影响有意缩小CapEx支出之外,过去近20年时间,云厂商用于数据中心建设的资本开支并未出现明显缩减。从历史复盘的视角看,CapEx支出扩大得益于自用/外供两方面因素影响。自用视角下云厂商核心业务完成SaaS转型,伴随用户规模扩大,自用算力需求稳定增长;外供视角下海外企业加速业务上云、数据上云,伴随云化比例提升,云托管需求带动外供算力需求稳步抬升。


需求展望大模型成为新一代技术变革关键,正全面重塑IT产业结构,同样从自用/外供两个维度展望,我们发现扩大AI算力建设已成为海外云厂商公司共识,新一轮云基础设施建设周期全面开启。对于外供视角下的需求增长,目前市场共识较高,受益于MaaS需求拉动,Microsoft、Google、Amazon的云收入增速自23Q3开始逐步企稳,各家MaaS布局竞争日趋激烈,算力规模和模型能力是后续的竞争关键。对于自用视角下的需求增长,仍存在较大的市场预期差,大模型正加速向推荐/搜索/广告等传统互联网业务渗透,我们认为,若大模型实现在传统业务场景的算法替代,云厂商自用的AI推理需求将加速释放。以Meta 10亿月活用户数应用为测算基准,若生成式推荐模型全面替换传统算法,对应A100等效GPU需求超52万张,远高于目前推荐场景的4,000 张GPU算力规模。



2005-2023年复盘:云资本开支持续扩大,AI贡献新动能

资本开支总体呈扩大趋势,AI成为新一轮云基础设施建设助推剂。回顾2005-2023年Amazon(亚马逊)、Microsoft(微软)、Google(谷歌)、Meta(脸书)的资本开支变化,海外云厂商资本开支呈现总体扩大趋势。四家企业合计资本开支在2010年(yoy+113.02%)、2016年(yoy+29.46%)、2020年(yoy+38.76%)等年份明显提速,主要得益于云计算业务在当年出现重要增长驱动。我们认为,2005-2022年海外云厂商资本开支的增长驱动是云计算业务的持续成长,进入2023年云计算+AI成为新的双轮引擎,头部云厂商资本开支有望持续扩大,进而带动全球算力需求持续增长。根据Visible Alpha一致预测,2026年四家合计资本支出将达2,399亿美元,2023-2026年CAGR为18.86%。



1萌芽期(2005-2009此阶段以IaaS(Infrastructure as a service,基础设施即服务)建设为主。2006年,Amazon率先推出Simple Storage Service(S3)与Elastic Compute Cloud(EC2),正式布局云计算服务,存算分离的核心理念确立。2005-2008年合计资本开支保持上涨,CAGR为45.63%。2009年合计资本开支同比下降44.46%,主要受Microsoft(平衡经营压力)、Google(2008年收购Double Click,快速扩大自用服务器建设)资本开支下降影响,2009年Amazon资本开支仍然维持上涨,同比增长11.68%。


2)发展期(2010-2015年):此阶段Microsoft、Google正式入局云计算市场,云服务建设开始从IaaS向PaaS(Platform as a Service,平台即服务)层逐步拓展,算力需求进一步增长。2009年Heroku 推出第一款公有云PaaS,2010年微软推出Windows Azure平台,2012年Google推出Google Compute Engine预览版,云计算正式进入稳步发展期。2010-2015年合计资本开支持续上涨,CAGR为25.71%。云计算在此阶段逐步实现技术沉淀与客户积累,海外企业逐步推进数据上云,软件公司开始尝试SaaS订阅转型。




3)成熟期(2016-2022年):此阶段云计算技术基本成熟,SaaS(Software as a Service,软件即服务)应用加速发展,各家云业务实现快速增长,据Gartner统计,全球公有云市场规模从2018年的1,824亿美元增长至2022年的4,910亿美元,CAGR为28%。2018-2022年Microsoft Azure、Google Cloud、Amazon AWS业务收入的同比增速分别保持在31%、37%、28%以上,高于行业平均水平。伴随云收入快速增长,企业资本开支规模持续扩大,2016到2019年期间合计资本开支CAGR为28.58%,19年合计资本支出达649亿美元;受益于线上办公需求增长及云厂商自研/投资的大模型训练需求,2020-2022年云厂商资本开支继续扩大, CAGR为27.34%,22年合计支出达1,460亿美元。


4)升级期(2023年至今):此阶段生成式AI成为重要增量需求,以AI为核心MaaS(Model as a service,模型即服务)服务成为新一轮算力建设重要推动。2023年(自然年)Microsoft资本支出为352亿美元,同比增长42.13%;Google资本支出为323亿美元,同比增长2.43%;Amazon资本支出为481亿美元,同比减少17.47%(主要由于仓储物流、履约支出相关支出减少);Meta资本支出为273亿美元,同比减少13.25%(主要由于非AI服务器支出减少)。根据Visible Alpha一致预测数据显示,2024-2026年四家合计资本开支将分别达到1,993、2,211、2,399亿美元,2024-2026年CAGR为18.86%。




波动溯源:结构性调整与经营性平衡是重要影响因素

资本开支扩大趋势持续,增速波动主要受结构性调整、经营性平衡两类因素影响。回顾资本开支的同比增速变化,我们对2005-2023年同比下降的年份进行了回溯归因,历史增速波动主要受资本开支结构性调整与公司经营性平衡两类因素影响。


1)结构性调整:资本开支主要包括购买新的机器、设备、房屋等长期资产,为了剔除购置房产等其他资本开支影响,我们整理了云厂商资产和设备科目下计算设备的资产净增值与同比增速,可以看到计算设备的资产净增值同比增长但总资本开支同比减少的年份,多受到资本开支结构性调整的影响;同时还包括未考虑用于数据中心的融资租赁成本的年份;


2)经营性平衡:为保证公司经营质量,维持良好的现金流水平,在公司经营承压的年份,公司多采取减少资本开支的经营举措,可以看到在总体营收增速放缓或同比减少的年份,总资本开支同比减少多受到公司经营性平衡的影响。



Amazon:资本开支三次波动向下,结构性调整回顾Amazon的资本开支同比增速,2013年、2015年、2023年分别同比减少9%、6%、17%。


12013主要由于结构性调整2013年资本开支为34.4亿美元(yoy -9%),13Q1-Q4资本开支分别为6.70、8.55、10.38、8.80亿美元(yoy +73.58%/+30.14%/+44.97%/-56.54%);13Q4资本开支同比大幅减少,主要由于12Q4公司以14亿美元购买了企业办公大楼,剔除相关影响,2013年资本支出同比增长43%;


22015主要由于未考虑AWS的融资租赁成本2015年资本开支为45.9亿美元(yoy -6%),15Q1-Q4资本开支分别为8.71、12.13、11.95、13.09亿美元(yoy -19.35%/-5.97%/-13.28%/+14.42%);2015年统计口径下资本开支不包含融资租赁(大部分用于支持AWS),实际上2015年Amazon增加AWS数据中心租赁;综合来看,2015年资本开支(含融资租赁)超90亿美元,相较于2014年的89亿美元略有增长。


32023年主要由于结构性调整:2023年资本开支为481.3亿美元(yoy -17%),23Q1-Q4资本开支分别为130.70、104.12、112.98、133.53亿美元(yoy -4.89%/-26.15%/-24.89%/-13.52%);2023年资本开支同比减少主要由于公司的仓储物流及履约开支减少。




Microsoft:资本开支次波动向下,经营性平衡次,结构性调整由于财年划分不同,我们以Microsoft财年为时间维度对其资本开支进行分析(FY2006对应CY05Q3、CY05Q4、CY06Q1、CY06Q2四个季度)。回顾Microsoft的资本开支同比增速,FY2009财年、FY2010财年、FY2012财年分别同比减少2%、37%、2%。


1FY2009主要由于经营性平衡FY2009资本开支为31.19亿美元(yoy -2%),FY09Q1-Q4 资本开支分别为7.78、8.42、6.32、8.67亿美元(yoy +52.55%/+21.15%/-16.73%/-28.82%);2009年资本开支同比减少,主要由于公司经营业绩承压,FY09Q3-Q4营收分别同比下降5.58%、17.29%,FY2009财年全年营收同比下降3.28%。


2FY2010主要由于未考虑融资租赁成本FY2010年资本开支为19.77亿美元(yoy -37%),FY10Q1-Q4资本开支分别为4.35、3.76、4.08、7.58亿美元(yoy -44.09%/-55.34%/-35.44%/-12.57%);FY2010财年资本开支同比大幅下降,主要由于未考虑云服务相关的融资租赁成本,FY2010财年包括融资租赁在内的资本开支为58亿美元,同比增长8%,主要用于支持云服务的使用和需求增长。


3FY2012财年主要由于经营性平衡FY2012财年资本开支为23.05亿美元(yoy -2%),FY12Q1-Q4资本开支分别为4.36、4.98、7.49、6.22亿美元(yoy -22.70%/+1.43% /+13.83%/-3.12%);FY2012财年资本开支同比略有下降主要出于提升经营质量考量,FY2012财年公司营收737亿美元,同比增长5.40%,相较于FY2011增速放缓。



Google:资本开支七次波动向下,经营性平衡次,结构性调整回顾Google的资本开支同比增速,2008年、2009年、2011年、2012年、2015年、2019年、2020年分别同比减少2%、66%、14%、5%、10%、6%、5%。


12008年主要由于结构性调整2008年资本开支为23.6亿美元(yoy -2%),08Q1-Q4资本开支分别为8.42、6.98、4.52、3.68亿美元(yoy +41.00%/+21.29%/-18.30%/-45.76%);2008年资本开支同比减少2%,云计算相关资产(Information technology assets)净增值同比增长8%,标志用于数据中心建设的资本开支并无明显缩减;


22009年主要由于经营性平衡:2009年资本开支为8.1亿美元(yoy -66%),09Q1-Q4资本开支分别为2.63、1.39、1.86、2.21亿美元(yoy -68.78%/-80.01%/-58.73%/-39.82%);2009年资本开支同比大幅减少,主要由于公司重视经营质量,谨慎选择资本开支的投入时机,2009年公司营收237亿美元,同比增长8.51%,相较于2008年增速明显放缓(2008年 yoy+31.35%)。


32011主要由于结构性调整2011资本开支为34.4亿美元(yoy -14%),11Q1-Q4资本开支分别为8.90、9.17、6.80、9.51亿美元(yoy +272.38%/+92.65%/-10.29%/-62.63%);2011Q4资本开支同比下降明显,主要由于2010Q4资本开支中包含购买纽约办公大楼的开支;同时从云计算相关资产净增值角度来看,2011年云计算相关资产净增值同比增长73%,标志用于数据中心建设的资本开支并无明显缩减。


42012年主要由于结构性调整2012资本开支为32.7亿美元(yoy -5%),12Q1-Q4资本开支分别为6.07、7.74、8.72、10.20亿美元(yoy -31.80%/-15.59%/+28.24%/ +7.26%);2012年资本开支同比小幅下降,2012年云计算相关资产净增值同比增长19%,标志用于数据中心建设的资本开支并无明显缩减。


52015主要由于结构性调整:2015资本开支为99.2亿美元(yoy -10%),15Q1-Q4资本开支分别为29.27、25.15、23.73、21.00亿美元(yoy +24.82%/-4.95%/-1.82%/-40.86%);2015Q4资本开支同比大幅下降,主要由于14Q4资本开支中包含房地产购买,同时从云计算相关资产净增值角度来看,2015年云计算相关资产净增值同比增长50%,标志用于数据中心建设的资本开支并无明显缩减。


62019主要由于经营性平衡2019资本开支为235.5亿美元(yoy -6%),19Q1-Q4资本开支分别为46.38、61.26、67.32、60.52亿美元(yoy -36.46%/+11.85%/+27.45%/-14.53%);2019年资本开支略有下降,一方面由于18Q1购买位于纽约的办公大楼,另一方面由于公司整体业务增速放缓,2019年公司营收1619亿美元,同比增长18.30%,相较于2018年增速有所放缓(2018年 yoy+23.42%)。


72020主要由于结构性调整2020资本开支为222.8亿美元(yoy -5%),20Q1-Q4资本开支分别为60.05、53.91、54.06、54.79亿美元(yoy +29.47%/-12.00%/-19.70%/-9.47%);2020年资本开支略有下降,云计算相关资产净增值同比增长35%,标志用于数据中心建设的资本开支并无明显缩减。



Meta:资本开支一次波动向下,主要由于结构性调整回顾Meta的资本开支同比增速,2023年资本支出为272.7亿美元,同比减少13.25%,23Q1-Q4资本开支分别为68.42、62.16、65.43、76.65亿美元(yoy +25.75%/-17.91%/-30.21%/-15.24%)。2023年含融资租赁资本开支为281亿美元,主要是由于对服务器、数据中心和网络基础设施的投资。从云计算相关资产净增值角度来看,2023年云计算相关资产(Servers and network assets)净增值同比增长43%,标志用于数据中心建设的资本开支并无明显缩减。



传统驱动:IaaS + PaaS + SaaS服务贡献早期动能

早期云厂商资本开支以云业务(IaaS + PaaS + SaaS)为核心驱动,资本开支显著扩大的年份与云业务增速较快的年份基本对应。回顾2008-2023年全球云计算市场发展历程,全球公有云服务市场规模增长在2010年、2016年、2020年出现显著提速,分别同比增长73.73%、32.21%、45.31%,为应对云服务需求的持续释放,公有云厂商强化算力基础设施建设,资本开支规模在对应年份显著扩大。2022年,在宏观经济下行和通胀压力的双重影响下,全球公有云服务市场增速明显下降。以Amazon、Microsoft、Google云业务为例,三家企业的云业务增速明显下滑,CY 2022Q4 Amazon、Microsoft、Google云业务同比增速分别为20%、31%、33%,增速同比下降20pct、15pct、12pct。伴随大语言模型开启生成式AI新周期,大模型训练、推理需求成为云资本开支增长的新兴动力。




新兴驱动:扩大资本开支成为共识,AI算力成为新一轮建设重点

云厂商积极布局MaaS服务,扩大资本开支成为企业共识。进入大模型时代,云服务增长呈现传统服务与大模型服务双轮驱动的新局面。1传统云服务稳步提升:根据Gartner预测,2025年在应用软件、基础设施软件、业务流程服务、系统基础设施等市场中将有51%的IT支出从传统解决方案转向公有云(2022年为41%),据IDC预测,2027年全球公有云IaaS + PaaS市场规模有望达6,198亿美元,2023-2027年CAGR为24.7%;2)模型服务快速增长:2023年云厂商加快针对AI大模型训练、推理的云端算力建设,23Q3开始Google、Amazon、Meta资本开支环比增长,微软23Q4资本开支环比下降主要受第三方合同交付影响,部分资本开支递延至24Q1,扩大资本开支成为企业共识。







24年资本开支规模有望快速增长,看好全球算力需求持续上涨。根据CY23Q4财报后的公开业绩说明会指引(具体表述详见图表20),Microsoft、Google、Meta、Amazon均明确表示24年将扩大资本开支规模。根据CY24Q1财报后的公开业绩说明会指引,各家公司态度更加明确,Microsoft表示预计2025财年资本开支将高于2024财年;Google表示24年季度资本开支将保持或超过24Q1水平(120亿美元),全年CapEx或超480亿美元(对应yoy+49%);Amazon表示24Q1(140亿美元)或为24年资本开支最低季度,全年CapEx支出或超560亿美元(对应yoy+16%);Meta再次上调全年CapEx指引至350-400亿美元(高于此前的300-370亿美元),按指引中值计算,预计同比增长37%。



AI需求1:云厂商加速MaaS布局,满足外供训练&推理

外供视角看,云厂商的AI算力建设主要通过满足企业的大模型训练及推理需求。23年开始,云厂商加速MaaS(Model as a Service,模型即服务)服务布局,构建大模型端到端服务体系。目前MaaS服务架构主要包括算力层、模型层、工具层、应用层。1算力层包括外购算力(英伟达、AMD等)与自研芯片(Microsoft Maia 100芯片、Google TPU芯片、Amazon Trainium芯片)两类方案;2)模型层:主要包括独家模型/自研模型、第三方模型两类方案,云厂商可提供百余种模型选择;3工具层:主要提供模型微调、数据接地、安全监测、Agent定制等模型训练、应用开发工具;4)应用层:主要提供代码助手、云助手、办公助手等云厂商AI服务,同时支持企业级的定制应用部署。


成熟大模型运营有望带来 3,169 亿美元的服务器增量市场,云托管仍是海外企业的主流选择方案。对比各家公司MaaS的最新进展,1)工具层:软件能力正逐步趋同,数据质量与数据规模的重要性日益凸显;2)应用层:主要与各家公司原有产品布局相关;3)模型层:独家供应的优质模型与自研小模型成为重要发力点;4)算力层:重点在可用算力规模及算力使用效率。总结来看,我们认为,算力规模与模型能力是后续的竞争重点。根据华泰研究预测,全球成熟大模型运营有望带来 3,169 亿美元的服务器增量市场,较2023年211亿美元的AI服务器市场而言,仍有较大成长空间(具体测算参考华泰计算机团队2024年4月12日专题报告《全球 AI 算力需求继续向上》)。根据a16z调查,海外企业的大模型部署中72%的企业选择使用模型API服务,其中52%来自云厂商托管。




Amazon:云计算先发者,23年加速AI追赶

Amazon re:Invent 2023大会展示AI布局。Amazon作为云计算服务的先发布局者,2017-2023年公有云服务市占率始终保持行业第一。2023年11月28日Amazon re:Invent 2023大会召开,针对Amazon MaaS服务布局展开全面介绍。1算力层发布自研AI芯片Trainium 2,提到Anthropic计划用Trainium 2芯片构建模型;宣布Amazon成为在云端配备英伟达GH200 Grace Hopper芯片的首家云大厂;2)模型层:宣布扩大与Anthropic(投资40亿美元)的合作;3)工具层:通过Amazon Bedrock提供模型微调、RAG、持续预训练、Agents开发、安全防护等能力;4)应用层:推出Amazon Q问答助手,定价20美元/人/月,可应用在企业云服务、代码开发、数据分析等场景,并支持Salesforce、Microsoft、Google、Slack等40多家公司的商业应用程序开箱即用。



立足云业务客户优势,B端业务拓展顺利。得益于云计算客户的多年合作积累,Amazon的MaaS服务尽管推出时间相对较晚,但仍然取得了较好的实质进展。根据公司2023年股东信内容,Amazon的MaaS服务已实现在Amgen(安进公司)、Merck(默克)、Salesforce(赛富时)、Accor(雅高酒店集团)、MUFG(三菱日联金融集团)、Axiata Group Berhad(亚通集团)等多行业企业客户的合作落地。根据Amazon re:Invent 2023大会介绍,Amazon MaaS服务已合作超10,000家成熟企业。2024年,Amazon的AI布局进一步推进,24Q1发布Rufus(AI购物助理)、Fit Insights Tool(个性化尺码推荐)等AI工具;2024年4月宣布吴恩达博士加入Amazon董事会,负责生成式AI相关技术落地。


Microsoft:MaaS转型顺利,商业化逐步落地

战略投资OpenAI掌握商业化先机,MaaS服务布局完善。微软成为生成式AI商业落地的先行者,原因有二:一是,凭借对 OpenAl 的投资,微软天然掌握先进模型的接触与应用机会,早在 2021 年微软就发布了初代版本的 Github Copilot 助手,开展了产品化试点;二是,作为以企业客户为核心客群的软件厂商,微软的 SaaS 应用全面覆盖了企业的业务管理流程,具备广泛的Al+产品整合触点,实现了商业化落地内部验证。2023年11月16日微软Ignite大会介绍了MaaS服务整体布局。1算力层发布自研AI芯片Maia 100;2)模型层:提供OpenAI模型的独家供应;3)工具层:提供完善的端到端工具,推出Copilot Studio允许客户自定义A I助手;4)应用层:进一步明确Copilot商业版图,分为Copilot(免费版)、Copilot Pro(个人版,20美元/人/月)、Copilot for Microsoft 365(企业版,30美元/人/月)、Copilot for Sales/Service(升级版,50美元/人/月)四类订阅方案。



商业化进展顺利,24Q1 AI贡献的Azure收入占比达7%根据公司业绩说明会,AI业务已在云收入中初步体现,FY23Q4(23Q2) AI占Azure收入比重为1%,FY24Q1(23Q3)提升至3%,FY24Q2(23Q4)提升至6%,FY24Q3(24Q1)提升至7%。根据23Q4业绩说明会,Azure AI客户数已从23Q3的18,000家提升至23Q4的53,000家。不同于Amazon、Google,Microsoft具有良好的B端 SaaS应用产品基础,自有应用的AI整合触点更加丰富。目前Microsoft 365全线产品基本实现Copilot升级。



Google:MaaS布局日趋完善,初创AI企业热门选择

应用+工具服务全面升级,Google MaaS能力提升。2024年4月9日,Google Cloud Next 2024大会举办“The new way to cloud”开幕演讲,对于Google MaaS服务布局进行更新。1算力层发布新一代AI芯片TPU v5p,计算能力相较上一代提升4倍,Character.AI开始使用TPU实现大模型的训练、推理;推出搭载NVIDIA H100芯片的全新A3 Mega VM虚拟机,预计将于24年5月上市;2)模型层:发布Gemini 1.5 Pro,上下文窗口从128K tokens提升到1M tokens(约等于70万个单词或3万行代码),是目前已发布的上下文窗口最大的闭源模型;3)工具层:强化工具层功能布局,推出Google Search Grounding(通过Google搜索实现联网数据接地)、AutoSxS(模型能力对比)、Prompt Management(提示此优化)、Agent Builder(智能体创建)等功能;4)应用层:全面升级Gemini for Google Cloud,实现AI助手与Workspace、Bigquery、数据库、云安全、代码开发等云服务的全面整合。




成为初创AI企业的热门选择,加速成熟B端客户拓展。根据Google Cloud Next 2024大会介绍,超多60%的Generative AI初创企业以及接近90%的GenAI独角兽企业都是 Google Cloud 客户。同时,Google MaaS服务已经在Bayer(拜耳)、Best Buy(百思买)、Discover Financial(发现金融服务公司)、IHG Hotels & Resorts(洲际酒店集团)、Mercedes-Benz(梅赛德斯-奔驰)、Covered California(加州全保)等各行业客户落地。



AI需求2:大模型渗透基础业务,大厂自用需求或放量

从自用视角看,大模型向搜索/推荐/广告等互联网传统业务渗透,或带动自用AI算力需求加速释放除提供MaaS服务外,海外科技厂商积极探索大模型在搜索/广告/推荐场景的技术落地,自用算力需求旺盛。从收入结构上看,搜索/广告/推荐相关业务在Meta、Google、Amazon收入占比均超过50%,算法效果提升对于企业经营来说意义重大;从技术迭代上看,相较于传统推荐模型,大模型具备更好的外部知识与泛化能力,可实现跨域个性化推荐,优化算法效果;从业务进展上看,23年5月Microsoft开放Bing Chat功能,23年10月Google推出生成搜索体验(Search Generative Experience,SGE),24年2月Amazon推出Rufus AI购物助手,24年3月Meta在电话会(Morgan Stanley 2024 Technology, Media & Telecom Conference)中介绍公司正在打造跨产品的AI推荐模型。



大模型发挥增强数据特征、强化语义理解、优化交互范式作用有助于算法效果提升搜索/广告/推荐算法存在需求共性(匹配用户的兴趣和需求)与技术共性(分为过滤候选、排序候选、个性化输出),大模型与搜索/广告/推荐等业务融合,具备较强的技术可行性。1增强数据特征大模型相较于传统推荐模型,具有更强的外部通用知识和逻辑推理能力,可以对用户画像、项目内容进行有效的特征补充;2)强化语义理解:在过滤候选阶段,大模型可发挥自然语言理解能力,可以更好地理解用户的查询/行为意图,实现更精准的内容筛选;3优化交互范式大模型可同时发挥多轮对话、情绪感知等能力,通过生成式方式,将传统的列表式输出转变为对话式输出,提供更具个性化、交互感的反馈结果。


本章节以推荐系统为例,针对大模型+推荐系统的理论、实践、潜在影响进行了深度分析。



理论:大模型落地推荐系统,具备技术可行性

大模型落地推荐系统具备技术可行性,拥有丰富的理论研究基础为了深入解答大模型如何实现在搜索/广告/推荐场景的技术落地,我们以推荐系统为例,详细总结了大模型在传统推荐系统的落地方向与研究进展。方向不改变推荐系统的分层推荐架构,实现LLM与传统CRM的单点/多点融合,强化推荐系统某项步骤的效果,2021-2023年期间的论文研究多为此类研究方向;方向二:从数据建模、模型结构等方向全面重塑推荐系统,打造生成式推荐系统,2024年多篇论文转向此类研究方向。总结来看,传统架构下LLM的融合作用仍存在局限性,新技术架构有望更好地释放大模型的技术潜能。



传统架构:大模型与CRM的单点/多点整合,效能优化是重点

传统架构下,大模型可实现与传统推荐模型优势互补。参考论文《How Can Recommender Systems Benefit from Large Language Models: A Survey》(JIANGHAO LIN,2024-02),传统推荐模型(Conventional Recommendation Model,CRM),只能利用数据集内的知识,缺乏对于语义信息及深度意图的推理能力,同时跨域推荐能力较弱;大语言模型通过大规模预训练语料和自监督训练,引入了外部世界知识,具备较强语义理解与泛化能力,可有效补充传统推荐模型的不足,有望提升推荐性能,优化用户体验。



传统推荐架构下,LLM可实现单点或多点整合。基于深度学习的推荐系统包括六个阶段。1)数据采集:主要通过线上收集用户行为和记录,得到原始数据(Raw data);2)特征工程:主要对原始数据进行筛选加工,将原始数据进一步处理为结构化数据(Structured data);3)特征编码:对结构化数据进行编码,得到对应的向量表示(Neural embeddings);4)打分排序:对候选物品进行打分排序,得到要呈现给用户的排序列表(Ranked items list);5)用户交互:向目标用户展示推荐项目的方式及用户向推荐系统提供反馈的方式;6)流程控制:作为中央控制器,把控推荐系统的整体流程。根据已有研究,LLM可实现以上阶段的单点或多点整合。伴随基础模型的能力提升,大模型+推荐系统呈现出从单点到多点、从辅助环节到核心环节、从浅层融合到深度应用的转变。




特征工程:利用LLM外部知识实现原始数据补充。在特征工程阶段,LLM可以将原始特征(如项目描述、用户画像、用户行为等)作为输入,生成辅助的文本特征,实现原始数据的特征增强,丰富模型的训练数据。此部分研究工作主要分为两类:1)用户user级和项目item级特征增强:利用LLM的外部知识完善用户画像、项目画像,更好地进行用户偏好建模及项目内容理解;2实例级训练样本生成:利用LLM的推理能力直接生成项目样本,丰富训练数据集。



特征编码:利用LLM作为文本编码器,为文本信息提供更好的语义理解。在特征编码阶段,LLM发挥强大的语义理解能力,实现用户表征、物品表征的文本特征增强。除此之外,LLM还可以以自然语言为桥梁,对齐不同领域的异构信息,实现模型的跨域推荐。传统的推荐模型多基于ID进行item的表征学习和推荐,大语言模型转而使用自然语言描述item,解决过去依赖ID的问题,可以更好地实现模型的跨域推荐,基于Item Sequence(将item所有相关内容,如标题、品牌、价格等属性拼接成句子)推荐即为典型代表。



打分排序:使用LLM作为打分/排序工具,得到相关性更好的输出列表。打分排序是推荐系统中较为关键的部分,LLM可作为项目的打分/排序工具,目前多通过在LLM训练中引入打分/排序等任务来实现。1)项目评分:利用LLM对候选项目进行逐一评分,最后根据分数排序得到最终的项目列表;2)项目生成:通过生成式的方式直接生成排序列表;3)混合任务:LLM天然适合多任务场景(包括评分任务、生成任务等),可以规范不同推荐场景的输入输出,并在跨域样本上进行预训练,使用者后续可通过Prompt执行对应任务。



用户交互:使用LLM提供多轮对话的交互体验,实现用户需求的深度挖掘。传统的推荐模式下,推荐多为单回合交互,仅对推荐后的单次用户行为(是否点击、是否购买)进行监控。基于LLM的推荐交互多以多轮对话的形式呈现,可以通过整合对话中的上下文并应用广泛的开放世界知识,丰富对于用户偏好、项目建议、定制化需求等内容的理解。根据用户交互模型不同,可分为任务导向型用户交互、开放式用户交互。1)任务导向型:假设用户具有明确的意图,而推荐系统需要支持用户的决策过程或协助用户找到相关的项目,LLM被集成为推荐系统的一个组件,专门用于分析用户的意图;2)开放式:假设用户的意图不明确,系统需要逐渐获取用户的兴趣或通过交互(包括主题对话、闲聊、问答等)引导用户最终实现推荐目标,LLM不局限于对话生成功能,而是兼具意图引导与获取功能。



流程控制:LLM不再仅应用于推荐系统中的某一部分,而是参与到推荐流程的整体控制。随着基础模型的参数量扩大,LLM开始表现出上下文学习、指令遵循、逐步推理、工具使用等能力,因此使用LLM作为推荐系统的流程控制器(可以看作是推荐场景下的Agent),可以使推荐过程更具交互性与可解释性。以Google发布的RecLLM为例,LLM实现在推荐系统的多点落地,并成为整体流程运行的决策单元,LLM能够管理对话、理解用户偏好、实现项目排名,甚至提供可控的基于LLM的用户模拟器生成合成对话。



LLM落地呈现出从单点到多点、从辅助环节核心环节演进趋势。从工程实践的角度来看,LLM+RS落地存在两类变量因素,一是大模型是否需要微调(Tune or Not tune LLM),二是推理阶段是否需要引入传统推荐模型(With or w/o CRM)。回顾学术研究发展趋势(从第一象限到第三象限到第二、四象限再到第一象限),我们得到两大结论,一是LLM推荐系统协同至关重要二是LLM基础能力决定其在推荐系统中的应用深度


1LLM与推荐系统协同至关重要伴随基础模型参数量扩大与通用能力提升,LLM+RS研究从“微调LLM +CRM参与”(第一象限)向“不微调LLM +CRM不参与”(第三象限)演进,但从实践结果看,第三象限模型效果普遍落后于其他象限结果,证明尽管大模型具备通用知识,但推荐系统域内专有知识仍然具有重要作用。因此后续延续研究向“不微调LLM +CRM参与”(第二象限,引入CRM进行协同),“微调LLM +CRM不参与”(第四象限,引入CRM数据进行协同)演进,通用能力+垂直数据的技术路径成为主流共识。


2LLM基础能力决定应用深度伴随基础模型的能力提升,LLM在推荐系统中的应用深度愈发深入;以第一象限为例(相同象限内对应相似的工程方案),早期使用规模较小的LLM时,LLM主要用在特征编码等辅助环节场景;后续随基础模型参数量及泛化能力变化,LLM开始应用于打分排序等核心环节,并逐步实现特征工程、特征编码、打分排序等多点融合,后续演进出将LLM作为流程控制器的全环节部署架构。



新兴架构:重塑范式,打造基于Transformer的第三代推荐系统

架构有助于充分释放LLM跨域推荐能力传统架构下,LLM被视为基于深度学习的推荐系统的赋能工具,核心在于发挥LLM的文本理解与生成能力,通过文本特征增强以提升推荐内容的相关性,本质上是在特定环节使用LLM替代传统深度学习模型。新兴架构下,生成式推荐模型全面参考大语言模型的训练方法与应用范式,用文本统一表示,用Prompt统一任务,构建全新的统一生成式推荐范式。1)用文本统一表示:将项目信息构造成序列(Sequence)形式,形成模型的训练语料,同时解决了传统推荐模型下数据异构问题,可以更好地实现跨域推荐;2)用Prompt统一任务:Prompt learning思想非常简单,即对每一个任务使用一个Prompt去进行描述,推荐模型经过大量语料训练同样具有较好的泛化能力,用户可以通过构造不同的Prompt描述,引导模型完成特定的工作。



生成式推荐模型有望成为基于深度学习推荐系统之后的第三代推荐系统。推荐系统的技术迭代受到数据体量、个性化需求、泛化能力要求等因素变化驱动。第一代推荐系统(以1992年提出协同过滤概念为重要标志)主要解决信息过载问题;第二代推荐系统(以2016年Google推出Wide & Deep推荐框架为重要标志)主要解决推荐的个性化问题;第三代推荐系统(以Meta提出Generative Recommendations为重要标志)旨在构建具备泛化能力的统一推荐模型,同时提升用户意图理解与项目推荐效果。



实践:Meta、Google加速探索大模型的推荐场景落地

Meta:“三步走”战略明确,统一推荐系统或将26年落地

Meta重视推荐系统AI升级,战略布局进入第三阶段根据Meta在Morgan Stanley 2024 Technology, Media & Telecom Conference的公开采访纪要,Meta正改变过去将为每个产品单独设计推荐模型的做法,转而构建跨产品线(Reels、Feed、Groups等)的统一AI推荐模型。全新的AI推荐系统已成为Meta 2026年技术路线图的重要组成部分,预计分为三个阶段逐步落地。阶段将现有推荐系统由CPU推理转向GPU推理,优化推荐系统性能与体验;阶段二:完成AI推荐模型在Facebook Reels的功能测试与技术验证,相较于传统推荐模型(同样运行在GPU上),新推荐模型下用户在Reels 的观看时长增加约 8-10%;阶段三:为AI推荐模型提供更多的学习数据,并将AI推荐系统推广至更多产品,正式完成生成式推荐大模型的跨产品线落地,用统一大模型代替原有的独立模型。



首个生成式推荐系统大模型有望带来新一轮技术革新。2024年4月,Meta发布首个生成式推荐系统论文《Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations》,开创性提出了基于Transformer的生成式推荐(Generative Recommenders , GRs)架构,并验证了Scaling Law同样适用。我们认为,Meta在推荐系统上的技术创新有望带动推荐系统向更通用、更个性、更安全的方向演进。1)更通用:GRs将异构特征统一编码为单一的时间序列,从特征建模的源头解决不同推荐场景下的特征异构问题,奠定了跨域推荐能力基础;2)更个性:GRs 将用户的长期行为序列作为新的生成建模模式,相较于传统序列推荐系统(仅考虑用户交互)可以更好地捕捉用户的兴趣和行为;3)更安全:通过减少对大量异构特征的依赖,GRs可以更好地保护用户隐私,同时有助于降低平台与用户价值观不一致的问题。



Meta生成式推荐系统突破三大技术问题,Scaling Law同样适用。1特征简化:GRs将异构特征(用户ID、历史行为、关注列表、地理位置等多类特征)统一编码为时间序列,相较于传统序列推荐,Meta构建的长序列具备更强的特征交叉能力,有效降低了信息损失,同时将后续的召回和排序统一定义为序列建模任务; 2)计算效率:Meta提出新的HSTU(Hierarchical Sequential Transduction Units)模型架构与M-FALCON算法;采用 HSTU结构,GRs处理长序列(8192长度)的速度相较传统深度学习模型提高5.3-15.2倍;采用 M-FALCON 算法,GRs能够在相同的推理成本下,服务于 285倍复杂的模型,并将吞吐量提升1.5倍;3)模型扩展性:验证了Scaling Law同样适用于大规模推荐模型,通过序列长度、embedding 维数的扩大,能够有效实现 GRs 模型的 Scaling。







生成式推荐系统实践面临计算+数据挑战,Meta算力建设有望持续扩大1计算能力推荐系统的应用场景是十亿级用户与十亿级内容的计算与匹配,以Meta为例,截至23年仅Facebook月活用户接近30亿,仅Instagram探索页面每秒需要完成9,000万次推理,推荐大模型单日的Token推理量大于普通语言模型1-2月的推理量,计算能力拓展是实践落地的重点;2训练数据传统推荐系统词汇表体量达数十亿级,如何构建更多、更长的序列是提升模型推荐效果的关键,同时根据Scaling Law定律,需要同步增加序列长度和计算资源,以此确保模型在更大规模数据下的性能和质量。综合来看,在计算与数据的双重挑战下,自用推理算力有望成为又一建设重点。根据Meta的电话会中表述,Meta正积极配置新数据中心以支持新的推荐模型,我们认为,自用AI算力规模有望加速扩大。



技术革新落地,AI推荐系统未来可期。根据论文可知,Meta已经实现生成式推荐大模型在自有产品(拥有数十亿用户的大型互联网平台)的技术落地,根据试验结果可知,相较于传统推荐模型,在线A/B测试中,GRs用户参与度(E-Task)提升12.4%,消费事件(C-Task)参与度提升4.4%。我们认为,GRs后续有望朝两大方向加速推进。1)更强的用户理解:通过增加序列长度、引入多模态信号,生成式推荐系统有望更加深入地挖掘和建模用户的行为模式,进一步强化推荐系统的个性化程度与用户满意度;2)更广泛的应用场景:统一的推荐模型可以有效提升跨产品线用户的使用体验,同时可以将所有项目纳入统一排名系统,实现推荐内容的快速扩充。Meta已布局AI视频推荐系统,成长可期。



Google:生成式大模型迭代搜索算法,SGE进展顺利

生成式大模型迭代Google搜索算法SGE塑造全新搜索体验。回顾Google搜索算法迭代历程,可以看到搜索场景是AI应用的重要领域。2001年起,AI模型开始逐步渗透搜索场景。2001年Google使用机器学习技术为网络搜索提供拼写建议;2015年Google推出搜索领域首个深度学习系统RankBrian,实现用户意图的深入理解;2018年Google将神经网络技术引入搜索场景,帮助理解用户查询和页面概念的模糊表示并完成相关性匹配;2019年Google将Bert模型应用于搜索的检索与排序;2022年Google发布搜索领域多任务统一模型MUM,MUM使用T5 text-to-text框架,拥有75种语言理解能力,可完成多模态信息理解;2023年Google发布生成式搜索体验(Search Generative Experience,SGE),旨在通过大模型重塑搜索体验,为用户提供更精准、更个性、更智能的搜索结果。



SGE以大模型为技术底座,提供更精准、更个性、更智能的搜索体验。根据Google I/O 2024大会介绍,SGE底层模型为定制版本Gemini模型,不同于Google Bard等对话工具,SGE将LLM与搜索的核心排名系统结合,提供更加可靠检索结果。SGE具备精准、个性、智能等三大特征。1)更精准:SGE既实现了用户意图的深度理解,又提供搜索结果的总结式回答(AI Overviews)与参考链接,实现搜索结果的精准展示;2)更个性:SGE基于用户搜索的语义深度理解,提供“提问跟进”选项,同时提供个性化广告推荐;3)更智能除检索任务外,SGE提供计划生成、图像生成等生成式功能,同时支持拍摄视频搜索等多模态检索能力。我们认为,伴随基础模型能力升级,SGE体验有望持续优化。



SGE测试范围逐步扩大,可靠性、安全性仍是产品的关注重点。2023年5月,Google在I/O大会上正式推出SGE,并通过搜索实验室项目(Search Labs)开启产品测试。一年时间里SGE的测试范围逐步扩大,产品功能得到同步优化。1地理范围拓展SGE最早在美国、印度、日本等地测试,后续拓展至拉丁美洲、南美洲、撒哈拉以南非洲、亚太地区等 120 多个国家和地区,目前AI Overviews功能已开放美国地区公测版本,据Google预计24年底SGE将覆盖超 10 亿人;2)语言拓展:最早提供英语、印度语、日语支持,后续增加西班牙语、葡萄牙语、韩语、印尼语等4种新语言;3)功能拓展:实现跟进问题、翻译功能、购物查询等功能的持续优化,同时Google在试验SGE的原生广告格式,出现在AI概述上方/下方的广告内容,具备较强的搜索相关性,用户反馈良好。面向未来,平衡响应流畅性与信息质量、确保中立客观、防止幻觉偏见仍是后续关注重点。



影响:模型变化影响算力要求,自用GPU需求或将放量

大模型对于传统算法的替代,带来更强的算力推理需求。基于Transformer的大模型通常有解码器模块堆叠形成,解码模块通过计算Token化的文本数据,实现大模型推理。推理过程实质上就是对大模型参数的再次遍历,输入向量经过注意力机制的计算转化为输出结果。推理过程所需要的算力可以由公式C≈2NBS来刻画(详细分析可参照华泰计算机团队2024年4月12日专题报告《全球 AI 算力需求继续向上》),即计算量=2 x 模型参数量 x 训练集大小。据我们测算,在ChatGPT同等访问量下,千亿参数模型推理所需算力需求超5000 PFlop/s,对应GPU需求 2.4万张。根据Meta论文,推荐系统每天需要处理的Token数量比语言模型在1-2个月内处理的Token数量多几个数量级。综合来看,我们认为,大模型在推荐系统的深度落地有望带来更大的推理算力需求。



若全面替换大模型推理,10亿月活应用A100等效GPU需求52万张,远高于Meta目前推荐场景下4,000GPU的算力规以Meta论文介绍的GRs为例,目前测试的生成式推荐模型参数量与GPT-3相近,估算模型参数量为2,000亿,训练数据量为1,000亿Token。按照10亿月活测算,假设每次用户访问会进行80次推荐(平均使用时长约40分钟,按每分钟推荐2次估算),每次推荐消耗的Token数量为2,000个(序列长度为1,024,单次推荐涉及召回、排序两次预测)。考虑到算力基础设施建设是按照峰值需求确定,因此我们进一步假设峰值Token需求为均值的5倍,则计算得每月消耗的Token数量峰值为3.1亿,对应推理算力需求 123,457 PFlop/s,对应A100等效GPU需超52万张。


根据Meta在2023 OCP Global Summit介绍,Meta目前排名推荐场景/模型训练场景AI算力规模分别为4,000/32,000个GPU,推理:训练约为1:8。若完成大模型对于底层算法(2023年Facebook family月活用户39.8亿)的全部替换,推荐场景下推理算力需求仍有较大的释放空间,预计需要200万张A100等效GPU



自用推理算力需求或超预期FY2024 NVIDIA(英伟达)数据中心业务营收为475亿美元,剔除Mellanox业务收入后,数据中心业务约为389亿美元,按照A100单价2万美元估算,FY2024等效A100出货量约为200万张。根据英伟达电话会,当前推理需求约占数据中心的40%。根据上文测算,仅Meta的全部社交APP(按Facebook family月活用户39.8亿测算)全面替换大模型作为底层算法,有望带来200万张等效A100增量需求,基本与NVIDIA FY24全年出货量相当。我们认为,云厂自用算力需求有望超预期释放。



相关产业公司梳理

综合来看,云厂商新一轮基础设施建设周期已全面开启,得益于外供、自用需求的双重拉动,云厂商CapEx支出有望持续扩大。我们认为,AI 有望拉动全球算力继续向上,首选关注海外算力产业链,其次关注国产算力产业链,最后关注 AI 应用的潜在变化。


产业链相关公司梳理,请见研报原文


风险提示

模型迭代不及预期。若基础模型能力迭代不及预期,AI应用功能迭代速度或将放缓,会对大模型训练算力需求造成不利影响。


AI商业化进展不及预期。目前大部分AI应用尚处于产品化阶段,若商业化进展不及预期,会对大模型推理算力需求造成不利影响。


报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖


相关研报

研报:《云厂AI算力自用需求或超预期》2024年5月23日

谢春生 分析师 S0570519080006 | BQZ938

岳铂雄 联系人  S0570122080138

林海亮 联系人 S0570122060076


关注我们


华泰证券研究所国内站(研究Portal)

https://inst.htsc.com/research

访问权限:国内机构客户


华泰证券研究所海外站

https://intl.inst.htsc.com/research 

访问权限:美国及香港金控机构客户
添加权限请联系您的华泰对口客户经理

免责声明

▲向上滑动阅览

本公众号不是华泰证券股份有限公司(以下简称“华泰证券”)研究报告的发布平台,本公众号仅供华泰证券中国内地研究服务客户参考使用。其他任何读者在订阅本公众号前,请自行评估接收相关推送内容的适当性,且若使用本公众号所载内容,务必寻求专业投资顾问的指导及解读。华泰证券不因任何订阅本公众号的行为而将订阅者视为华泰证券的客户。

本公众号转发、摘编华泰证券向其客户已发布研究报告的部分内容及观点,完整的投资意见分析应以报告发布当日的完整研究报告内容为准。订阅者仅使用本公众号内容,可能会因缺乏对完整报告的了解或缺乏相关的解读而产生理解上的歧义。如需了解完整内容,请具体参见华泰证券所发布的完整报告。

本公众号内容基于华泰证券认为可靠的信息编制,但华泰证券对该等信息的准确性、完整性及时效性不作任何保证,也不对证券价格的涨跌或市场走势作确定性判断。本公众号所载的意见、评估及预测仅反映发布当日的观点和判断。在不同时期,华泰证券可能会发出与本公众号所载意见、评估及预测不一致的研究报告。

在任何情况下,本公众号中的信息或所表述的意见均不构成对任何人的投资建议。订阅者不应单独依靠本订阅号中的内容而取代自身独立的判断,应自主做出投资决策并自行承担投资风险。订阅者若使用本资料,有可能会因缺乏解读服务而对内容产生理解上的歧义,进而造成投资损失。对依据或者使用本公众号内容所造成的一切后果,华泰证券及作者均不承担任何法律责任。

本公众号版权仅为华泰证券所有,未经华泰证券书面许可,任何机构或个人不得以翻版、复制、发表、引用或再次分发他人等任何形式侵犯本公众号发布的所有内容的版权。如因侵权行为给华泰证券造成任何直接或间接的损失,华泰证券保留追究一切法律责任的权利。华泰证券具有中国证监会核准的“证券投资咨询”业务资格,经营许可证编号为:91320000704041011J。

华泰证券科技研究
华泰证券TMT研究团队公众号。站在全球化视角,致力于为投资人提供及时有深度的TMT产业研究。
 最新文章