摘要
【从IDC到AIDC:投资回报周期有望缩短】
传统IDC针对“广覆盖”通用计算需求,AIDC则面向AI、大数据、高性能计算的“深计算”需求。传统IDC和AIDC的区别主要体现在终端客户、技术架构、运营模式、硬件资源要求等方面,其中最为核心的区别点在于,AIDC由于单机柜功率密度较高,投资回报周期有望较传统IDC更短:
硬件设施:IDC以通用服务器为主,功率密度较低(通常4-8kW/机柜),AIDC功率密度较高(20-100kW/机柜)。
散热要求:IDC主要采用风冷,结合机房环境控制;AIDC广泛采用液冷。
投资回报周期:IDC建设周期较长,以长期托管和租赁为主,收入模型稳定;AIDC初始建设成本(硬件、冷却系统)较高,但单位功率密度功率更高,回报期相对更短。
服务模式:IDC以通用托管服务为主;AIDC有望提供更加垂直化和专业化服务,如定制化机柜部署、专用冷却解决方案等。
【AI对数据中心需求量的拉动:先去库存,后涨价】
AI的快速发展将在消化存量资源后拉动AI数据中心的需求,推动价格和盈利能力的改善。与上一轮周期不同,这轮因计算功率密度提升,对用电量的需求将大于对IDC空间需求。因此我们认为,IDC行业在AI发展下的新逻辑将从能耗去库存开启,或许之前三层楼的用电量现在半层楼就能消化,IDC按功率计算的整体利用率提升,再在高端需求增加的背景下,通过机房改造,上架率逐步满载,核心城市和偏远城市资源在训练和推理中各取所需,有望逐步开始行业新一轮周期:
存量压力与去库存:上一波云计算浪潮带来的IDC建设高峰,留下了大量空置或低租金的存量资源,尤其是在核心城市和偏远市场,这些存量数据中心的利用率需要随着AI需求的增加而逐步提升,短期内去库存是市场的首要任务。
AI推动存量资源盘活:AI的高密度计算任务对现有数据中心资源进行再配置,例如,通过增加GPU服务器部署,改造机房电源供电系统,部分空置的传统IDC可以快速转型为满足AI需求的基础设施,从而提高资源利用率。
展望——价格提升逻辑:在存量资源得到有效利用后,新增AI数据中心的需求将推动市场供需平衡向紧张方向转变,高功率密度的AI专用数据中心租金有望提振。
【AIDC时代如何优选第三方托管公司】
在AIDC时代,第三方IDC公司的核心竞争力将围绕技术能力、客户资源和运营效率展开。首先,技术能力是关键,具备高密度计算支持能力(如GPU服务器部署)、先进散热方案(液冷)和高效网络架构的公司将具备长期竞争优势;其次客户资源决定成长性,拥有互联网巨头(字节、BAT等)、AI公司或科研机构等优质客户资源的公司,业务扩展更具稳定性和潜力;此外,运营效率提升盈利能力,通过低PUE值实现能效优化、借助模块化设计降低扩建成本的公司有望具备较为良好的盈利能力。
我们长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国内“四大四小”中兴、锐捷、寒武纪、光迅+美格、德科立、太辰光、东田微,并且建议关注AIDC后续发展及库存出清节奏,建议关注优质数据中心厂商如润泽科技、光环新网、奥飞数据、数据港等。
建议关注:
算力——
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪、海光信息。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、海格通信。
数据要素——
运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。
风险提示:AI发展不及预期,算力需求不及预期,市场竞争风险。
1. 投资策略:AI下数据中心的新逻辑
本周建议关注:
算力——
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。
铜链接:沃尔核材、精达股份。
算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。
液冷:英维克、申菱环境、高澜股份。
边缘算力承载平台:美格智能、广和通、移远通信。
卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。
数据要素——
运营商:中国电信、中国移动、中国联通。
数据可视化:浩瀚深度、恒为科技、中新赛克。
本周观点变化:
本周海外市场整体上升趋势较好,英伟达本周涨幅达5.44%,周五涨幅达4.45%,股价创四周新高。此轮上涨主要受2024年各个行业对AI芯片的强劲需求带动:据英国《金融时报》报道,英伟达公司在2024年向人工智能初创企业投入了10亿美元的资金,参与50轮初创企业融资和多笔企业交易。2025年初投资者仍普遍看好AI市场,周五美国科技股普遍走高,英伟达涨超4%,台积电涨3.49%,戴尔涨2.9%,亚马逊涨约1.8%。长期来看,应用领域的大幅拓展也将支持上游算力基础设施的进一步投入。
我们长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国内“四大四小”中兴、锐捷、寒武纪、光迅+美格、德科立、太辰光、东田微,并且建议关注AIDC后续发展及库存出清节奏,建议关注优质数据中心厂商如润泽科技、光环新闻、奥飞数据、数据港等。
2. 行情回顾:通信板块下跌,光通信表现最优
本周(2024年12月30日-2025年1月3日)上证综指收于3211.43点。各行情指标从好到坏依次为:沪深300>上证综指>万得全A >万得全A(除金融,石油石化)> 中小板综>创业板综。通信板块上涨,表现劣于上证综指。
从细分行业指数看,运营商、量子通信、物联网分别下跌0.9%、8.4%、11.1%,表现优于通信行业平均水平;光通信、移动互联、通信设备、卫星通信导航、云计算、区块链分别下跌11.9%、12.0%、12.1%、13.70%、13.71%、15.2%,表现劣于通信行业平均水平。
本周,受益于浪潮信息合作、债券兑付,ST鹏博上涨18.539%,领涨版块。受益于算力概念,爱施德上涨8.152%;受益于AI眼镜概念,润欣科技上涨7.190%;受益于车载TDDI芯片量产交付,英唐智控上涨6.351%;受益液冷概念,共进股份上涨6.215%。
3.周专题:AI下数据中心的新逻辑
【从IDC到AIDC:投资回报周期有望缩短】
传统IDC针对“广覆盖”通用计算需求,AIDC则面向AI、大数据、高性能计算的“深计算”需求。传统IDC和AIDC的区别主要体现在终端客户、技术架构、运营模式、硬件资源要求等方面,其中最为核心的区别点在于,AIDC由于单机柜功率密度较高,投资回报周期有望较传统IDC更短:
硬件设施:IDC以通用服务器为主,功率密度较低(通常4-8kW/机柜),AIDC功率密度较高(20-100kW/机柜)。
散热要求:IDC主要采用风冷,结合机房环境控制;AIDC广泛采用液冷。
投资回报周期:IDC建设周期较长,以长期托管和租赁为主,收入模型稳定;AIDC初始建设成本(硬件、冷却系统)较高,但单位功率密度功率更高,回报期相对更短。
服务模式:IDC以通用托管服务为主;AIDC有望提供更加垂直化和专业化服务,如定制化机柜部署、专用冷却解决方案等。
【AI对数据中心需求量的拉动:先去库存,后涨价】
AI的快速发展将在消化存量资源后拉动AI数据中心的需求,推动价格和盈利能力的改善。与上一轮周期不同,这轮因计算功率密度提升,对用电量的需求将大于对IDC空间需求。因此我们认为,IDC行业在AI发展下的新逻辑将从能耗去库存开启,或许之前三层楼的用电量现在半层楼就能消化,IDC按功率计算的整体利用率提升,再在高端需求增加的背景下,通过机房改造,上架率逐步满载,核心城市和偏远城市资源在训练和推理中各取所需,有望逐步开始行业新一轮周期:
存量压力与去库存:上一波云计算浪潮带来的IDC建设高峰,留下了大量空置或低租金的存量资源,尤其是在核心城市和偏远市场,这些存量数据中心的利用率需要随着AI需求的增加而逐步提升,短期内去库存是市场的首要任务。
AI推动存量资源盘活:AI的高密度计算任务对现有数据中心资源进行再配置,例如,通过增加GPU服务器部署,改造机房电源供电系统,部分空置的传统IDC可以快速转型为满足AI需求的基础设施,从而提高资源利用率。
展望——价格提升逻辑:在存量资源得到有效利用后,新增AI数据中心的需求将推动市场供需平衡向紧张方向转变,高功率密度的AI专用数据中心租金有望涨价。
【AIDC时代如何优选第三方托管公司】
在AIDC时代,第三方IDC公司的核心竞争力将围绕技术能力、客户资源和运营效率展开。首先,技术能力是关键,具备高密度计算支持能力(如GPU服务器部署)、先进散热方案(液冷)和高效网络架构的公司将具备长期竞争优势;其次客户资源决定成长性,拥有互联网巨头(字节、BAT等)、AI公司或科研机构等优质客户资源的公司,业务扩展更具稳定性和潜力;此外,运营效率提升盈利能力,通过低PUE值实现能效优化、借助模块化设计降低扩建成本的公司有望具备较为良好的盈利能力。
我们长期看好算力板块,当下时点重点建议关注国产算力以及相关产业链的进展,重点推荐在光通信龙头中际旭创、新易盛、天孚通信等,同时建议关注国内“四大四小”中兴、锐捷、寒武纪、光迅+美格、德科立、太辰光、东田微,并且建议关注AIDC后续发展及库存出清节奏,建议关注优质数据中心厂商如润泽科技、光环新网、奥飞数据、数据港等。
4. IDC:GPU算力需求出现缺口,ASIC市场高速增长
据C114报道,国际数据公司(IDC)发布了最新的加速计算服务器市场预测数据。IDC预测,2024年中国加速服务器市场规模将达到190亿美元,同比2023年增长87%。其中GPU服务器依然是主导地位,占据74%的市场份额。
IDC预计,到2028年,中国加速计算服务器市场规模将超过550亿美元,其中ASIC加速服务器市场占比将接近40%。
GPU服务器依然是最终用户的首要选择,但由于部分GPU产品受供应的限制,导致出现了算力缺口。
另外,很多头部的互联网企业,为了降低成本以及更好地适配自身业务场景,也增大了自研ASIC芯片服务器的部署数量。综合两方面因素,也使得ASIC人工智能服务器有的大幅度增长。
随着人工智能技术在自动驾驶、智能医疗、智慧城市等多个领域的广泛应用,对AI服务器的需求不断增加。此外,AI大模型的深入研发和应用加速落地,对算力提出了更高的要求,从而推动了AI服务器市场的增长。
未来,更多的企业将成为智能计算中心的建设者和运营者。计算能力将成为数字经济的核心生产力。通过智能计算中心建设,推动各行业向智能化转型,实现智能经济。在这些因素的共同作用,预计人工智能服务器市场将在未来几年内保持强劲的增长势头。
5. Meta AI推出LIGER混合检索AI模型,计算效率与推荐精度兼得
据C114报道,Meta AI 的研究人员提出了一种名为 LIGER 的新型 AI 模型,巧妙地结合密集检索和生成检索的优势,显著提升了生成式推荐系统的性能。
LIGER 有效地解决了传统推荐系统在计算资源、存储需求和冷启动项目处理上的难题,为构建更高效、更精准的推荐系统提供了新的思路。
想要把用户与相关内容、产品或服务联系起来,推荐系统是其中重要一环。该领域的常规方法是密集检索(Dense retrieval),利用序列建模来计算项目和用户表示。但这种方法由于要嵌入每个项目,因此需要大量的计算资源和存储。随着数据集的增长,这些要求变得越来越繁重,限制了它们的可扩展性。而另一种新兴的方法叫做生成检索(Generative retrieval),通过生成模型预测项目索引来减少存储需求,但该方式存在性能问题,在冷启动项目(用户交互有限的新项目)中表现尤为明显。
Meta AI 公司联合威斯康星大学麦迪逊分校、ELLIS Unit、LIT AI Lab、机器学习研究所、JKU Linz 等机构,混合密集检索和生成检索,推出了 LIGER(LeveragIng dense retrieval for GEnerative Retrieval)模型。该模型混合了生成检索的计算效率和密集检索的精度,利用生成检索生成候选集、语义 ID 和文本属性的项目表示,再通过密集检索技术进行精练,平衡了效率和准确性。LIGER 采用双向 Transformer 编码器和生成解码器。密集检索部分整合了项目文本表示、语义 ID 和位置嵌入,并使用余弦相似度损失进行优化。生成部分使用波束搜索根据用户交互历史预测后续项目的语义 ID。通过这种混合推理过程,LIGER 降低了计算需求,同时保持了推荐质量。LIGER 还能很好地泛化到未见过的项目,解决了先前生成模型的关键限制。
在 Amazon Beauty、Sports、Toys 和 Steam 等基准数据集上的评估显示,LIGER 的性能持续优于 TIGER 和 UniSRec 等现有最先进模型。例如,在 Amazon Beauty 数据集上,LIGER 对冷启动项目的 Recall@10 得分为 0.1008,而 TIGER 为 0.0。在 Steam 数据集上,LIGER 的 Recall@10 达到了 0.0147,同样优于 TIGER 的 0.0。
6. 花旗分析师:英伟达今年将成台积电最大客户,为其贡献二成营收
据台媒《经济日报》1月2日报道,花旗分析师看好英伟达推动台积电 AI 相关营收增长,有望超越苹果成为最大客户。花旗分析师预计,在英伟达的推动下,台积电的人工智能相关营收将在 2025 年显著增长。英伟达甚至有望超越苹果,成为台积电的最大客户,预计对台积电的营收贡献将翻倍至 20%。
供应链数据显示,目前台积电最大客户苹果占其营收约 25.2%,而英伟达占比约为 10.1%。
除了英伟达之外,花旗分析师指出,未来两到三年内,专为 AI 设计的特殊应用集成电路(ASIC)需求将强劲增长,并进一步支撑台积电的业绩表现。花旗还提到,大部分 AI 芯片将在 2025 年底开始采用 3 纳米制程工艺。随着技术升级带来的更高平均售价,台积电的盈利增长有望持续至 2026 年。
花旗预测,台积电将在 2025 年公布营收增长 20% 至 25%,毛利率则有望维持在 50% 以上。此外,2025 年的资本支出预计将在 350 亿至 380 亿美元。
7. 英伟达2024年豪掷10亿美元,为AI初创公司提供资金支持
据英国《金融时报》1月1 日报道,英伟达在刚刚过去的 2024 年向人工智能初创企业投入了 10 亿美元资金,成为推动 AI 革命的重要支持者,而这场革命正是由其芯片技术驱动的。
凭借市场对英伟达高性能 GPU 的旺盛需求,这家半导体巨头的市值在去年 6 月突破 3 万亿美元,此后该公司持续向 AI 领域的部分客户注入大量资金。根据公司文件和 Dealroom 数据,英伟达在 2024 年参与了 50 轮融资和多笔交易,总金额达 10 亿美元,比 2023 年的 39 轮融资和 8.72 亿美元(当前约 63.79 亿元人民币)有所增加。
大部分投资流向对计算能力需求较高的“核心 AI”企业,这些公司中亦有部分还是英伟达芯片的客户。自 ChatGPT 推出引发 AI 投资热潮以来,科技公司过去一年在英伟达芯片上的支出已达数百亿美元。英伟达在资金储备充足、GPU 需求飙升的背景下加大交易力度,其股价 2024 年上涨超过 170%,带动标普 500 指数创下近年来最佳表现。
尽管微软、亚马逊和谷歌等大客户正研发自有芯片以减少依赖,英伟达依然通过扶持初创企业拓展市场,并强调其投资决策不会附带技术使用要求。“我们在竞争中凭借实力取胜,这与我们做出的任何投资无关。”
公司近期的交易包括对马斯克旗下 xAI 的投资,以及支持 OpenAI、Cohere、Mistral、Perplexity 等行业领先企业。它还通过 Inception 孵化器计划帮助初创企业成长,并收购了多家 AI 软件公司和技术平台。
英伟达在 AI 领域全面布局,涉足医疗、交通、数据处理和人形机器人等领域,进一步巩固其市场地位和技术生态。但与此同时,其同时也面临反垄断监管机构的密切审查和竞争压力。
8. 美国四大科技巨头疯狂建设AI数据中心,2024年总投资约2180亿美元
据C114报道,2024年1-8月,微软、Meta、谷歌、亚马逊总计向AI数据中心投入1250亿美元,包括AI资本支出、总数据中心运营成本,现金运营费用、软件、折旧和电费也纳入统计。
在固定AI资产投资方面,微软花钱最多,比如采购GPU及其它芯片,维护AI数据中心。
亚马逊的AI资本支出约为160亿美元,它花了80亿美元购买GPU和其它数据中心芯片,在其它AI开支方向投入80亿美元。总数据中心运营成本约为30亿美元,其中20亿美元用于训练、研发,10亿美元用于推理。
Meta总的AI资本支出为230亿美元,它将110亿美元用于购买GPU或者其它数据中心芯片,120亿美元为“其它AI开支”。总的数据中心运营成本为40亿美元,20亿美元用于训练和研发,20亿用于推理。
报告认为,谷歌总的AI资本支出为290亿美元。在GPU及其它数据中心芯片上,谷歌投入140亿美元,另外150亿美元属于其它AI开支。总的数据中心运营成本为40亿美元,30亿用于训练、研发,10亿用于推理。
微软总的AI资本支出为400亿美元,它是OpenAI的主要投资者。在统计期内,微软花费200亿美元购买GPU及其它数据中心芯片,其它AI开支约为200亿美元。微软总的数据中心运营成本约为60亿美元,30亿用于训练和研发,30亿用于推理。
按照戴尔Oro Group的估计,今年三季度亚马逊、谷歌、Meta、微软在基础设施方面的投资同比增长81%,增长主要是因为AI大模型训练带来的,企业拼命建设数据中心。
在三季度支出中,AWS、Azure、谷歌云占了开支的80%。截至10月27日的三个月里,英伟达营收增加约一倍,CPU、内存、存储供应商的营收增加了90%。今年二季度,数据中心组件产业的营收增长127%,达到540亿美元。Hyperscaler不断采购GPU,加上CPU服务器需求增加,导致整个行业的营收增速达到历史最高。
为了保障AI运行,企业需要投入巨资建设基础设施,采购设备,还需要消耗大量电力,所有这些都为不动产、建筑材料、半导体、能源等行业带来巨大需求。其中,能源需求的增长极为明显,因为一座数据中心消耗的电力相当于一座小城市。高盛并购联合主管Stephan Feldgoise说:“纵观工业史,总是会出现一些历史性的突变,所以你会不断看到科技、半导体、数据中心、Hyperscaler与电力生产商的融合。”有些企业渴望在新生市场快速成长,所以它们会积极并购。整体来看,目前AI军备竞赛的增长主要来是来自于资本支出。
9. 谷歌云发布2025年AI商业趋势报告:锚定多模态AI等五个关键领域
据C114报道,谷歌云(Google Cloud)发布了《2025年AI商业趋势》报告,预测了AI在未来一年将如何重塑商业格局。报告中,谷歌云锚定了企业AI将发挥重要作用的五个关键领域:多模态AI、AI代理、辅助搜索、AI驱动的客户体验,以及AI增强的安全性。
多模态AI
多模态AI模型能够像人类大脑一样处理来自文本、图像、音频和视频的信息。谷歌云在报告中指出,这可以实现更直观的交互,并提高AI输出的准确性。
谷歌云预测,2025年将成为企业采用AI技术的关键一年,这一趋势主要由多模态学习及其实现的情境感知所驱动的,并预计2025年全球多模态AI市场规模将达到24亿美元。报告强调,多模态AI模型需要大量数据才能有效地训练,但企业可以通过优先考虑以其高质量、富含长情境信息且专为大规模生产部署而精心设计的AI模型来应对这一挑战。
AI代理
报告称,AI应用已经从聊天机器人发展成为能够处理复杂工作流程的复杂AI代理。该公司预测,它们将有助于简化内部流程,提供跨渠道支持,并大幅提升设计与生产效率。
谷歌云全球零售战略与解决方案总监Paul Tepfenhart在报告中指出:“我们预计,零售商将致力部署富有创意的AI代理,能够为营销团队提供帮助,例如生成以客户为中心的营销活动、文案和产品描述,并为活动策划与版面编辑定制图像和创意内容。”
AI辅助搜索
报告中提到的第三个趋势是辅助搜索。新的AI系统将允许使用图像、音频、视频和对话提示来搜索内部数据,而不是使用关键字来驱动企业搜索。谷歌云表示,这一深远的变革将得益于GenAI的日益普及和多模式搜索功能快速发展的推动,这些进步使用户能够以一种反映他们自然感知世界的方式检索信息。
该报告发现,以网站搜索、产品搜索和客户支持自助服务搜索形式出现的AI搜索技术,已经在提高转化率并优化产品数据目录,因为它提供了更快的数据访问、更先进、更直观的搜索以及更深入的见解。谷歌云全球医疗战略与解决方案总监Aashima Gupta表示:“我们期待看到更多直观、情境化的搜索方式涌现,这些方式能够深入理解医学术语、复杂词汇及缩写,从而有效减轻医疗专业人员的管理负担,并同步提升患者教育与研究的质量。”
AI驱动的客户体验
报告提出的第四个趋势是AI驱动的客户体验技术。谷歌云表示,这些解决方案将预测客户需求,并促进企业与客户之间的联系。通过了解客户意图,个性化推荐和搜索功能将在多个购物渠道中创建个性化的客户支持。
谷歌云制造业全球总监Praveen Rao进一步指出,“甚至像制造业这样的行业也将使用AI来改进生产和客户服务。我们预计将从传统的库存销售模式转变为复杂的按订单销售模式。为了推动这一转变,制造商需要有一个强大且实时的运营视图,实现IT与OT数据的无缝整合,并优化产品设计、生产、营销和客户服务。”
AI增强的安全功能
报告提出的最后一个趋势是AI增强的安全功能。谷歌云指出,到2025年,AI将有助于加强防御、识别和打击威胁,实现安全任务的自动化处理,并加快响应时间。
10. 六部门:2029年数据产业规模年均复合增长超15%,支持企业面向人工智能应用创新
据C114报道,12月30日,国家发展改革委、国家数据局、教育部、财政部、金融监管总局、中国证监会共六部门联合印发的《关于促进数据产业高质量发展的指导意见》正式对外公布。
“意见”指出,数据产业是利用现代信息技术对数据资源进行产品或服务开发,并推动其流通应用所形成的新兴产业,包括数据采集汇聚、计算存储、流通交易、开发利用、安全治理和数据基础设施建设等。发展数据产业是深化数据要素市场化配置改革、构建以数据为关键要素的数字经济的重要举措,是推进国家大数据战略、加快建设数字中国的重要支撑。
总体要求提到,到2029年,数据产业规模年均复合增长率超过15%,数据产业结构明显优化,数据技术创新能力跻身世界先进行列,数据产品和服务供给能力大幅提升,催生一批数智应用新产品新服务新业态,涌现一批具有国际竞争力的数据企业,数据产业综合实力显著增强,区域聚集和协同发展格局基本形成。
11. CAICT:我国已开始400G光模块批量部署,800G应用尚处探索阶段
据C114报道,中国信息通信研究院发布《信息光子技术发展与应用研究报告(2024年)》。报告指出,“信息光子”是光子学与信息科学的交叉领域,将光子作为载体,通过操控光子实现信息的获取、传递、处理和呈现。
“信息光子”横向包含光采集、光连接、光算存和光呈现四大细分领域;纵向包含核心光子芯片器件和材料、模块级产品、系统级产品,并进一步赋能上层各类业务及应用,价值链不断延伸。其中在光连接方面,持续向高速率、大容量、多场景等方向演进。
高速率方面,早期由城域和干线电信网络引领驱动,迭代速度较慢,约10年更新一代。当前,在人工智能的驱动下,数据/智算中心互联成为最主要应用场景,市场规模约为电信网络的1.5-2倍,早期为3-4年更新一代,也是在AI影响下,迭代周期将进一步缩短。目前,直调直检光连接当前处于800Gb/s速率,其中基于单通道100Gb/s的800Gb/s光模块基本成熟,基于单通道200Gb/s的800Gb/s、1.6Tb/s光模块加速研发,预计未来1-2年进入1.6Tb/s速率,2030年3.2Tb/s将走向规模应用。干线网络相干光连接当前处于单波400Gb/s,预计2030年主流应用将达到单波800Gb/s,2035年后进一步向单波T+b/s挺进。同时,相干技术由干线/城域向百km及以内中短距应用下沉,预计2030年将达单波T+b/s。另外从基础光电芯片的角度,业界将始终瞄准最少通道的技术方向,已开始向100GBd及以上光电芯片平台演进升级。同时在材料方面,III-V族、硅基光电子、薄膜铌酸锂等竞相发展,光子集成、先进封装技术也在加速演进。
大容量方面,频谱扩展是短期内提升系统容量的有效方式,在干线和城域网络中,随着单通道速率由100Gb/s提升至400Gb/s,12THz C+L即将迈入规模部署。未来5-10年将进一步通过更宽频谱拓展、空分复用系统和空芯光纤等方式实现传输容量提升。
另外,波长选择开关(WSS)、阵列光开关(OCS)等全光交换技术以大颗粒交换提升系统容量。未来2-3年,WSS将实现32维C+L波段一体化、OCS将实现300-500端口;未来5年,WSS将实现48/64维、OCS将实现1000端口。
应用场景方面,陆地光通信由电信网络、行业专网和数据中心互联等传统领域向智算/超算互联、算间互联、工业互联网等领域扩展,并进一步由陆地向空间、水下、车内、以及芯片级等范围延伸,助力构建空天地海一体化协同网络,应用领域和连接范围不断扩展。具体而言,在空间,激光通信可为星-星、星-地之间提供高指向性、高带宽连接手段;在水下,可见光通信将成为继声波、射频之后的又一重要水下连接技术;在车内,车载光总线将成为车辆电子化、智能化连接技术极具竞争力的选择。报告还指出,随着数据/智算中心的快速发展以及5G-A/6G持续推进,光连接需求不断增长,并逐步由模块或板卡极光互连向片间/片上光互连演进。
片间光互连以光电合封(CPO)和光输入输出(OIO)为研究热点。CPO低功耗的特性有助于数据中心绿色升级,根据博通数据CPO系统功耗相较可插拔光模块可降低50%以上,另外硅基光电子集成方案成为CPO主流路线,目前CPO产业链由交换机巨头牵引,国内外标准体系也已经初步建立。
OIO是算存架构中的重要互连方案,产业链由计算巨头牵引,标准研制尚处初期。片上光互连方面,大规模集成电路需要高密度、长距离布线,引发带宽、能耗、时延等瓶颈问题,片上光互连可支撑实现大量长距通道,若扩展至整个晶圆,则可实现晶圆级光互连网络。其研究重点包括光子器件、交换机制、拓扑结构和路由算法等,目前处于发展早期阶段。技术演进趋势之外,
报告指出,Omdia数据显示,2023年全球光连接用光器件(包含光模块及芯片)市场规模约124.07亿美元,在数据/智算中心互联等需求驱动下,2024年市场规模将显著增长。
从区域分布来看,市场增长动力主要来源于北美,谷歌、英伟达在人工智能集群中已规模部署800Gb/s光模块、即将迈入1.6Tb/s时代;亚马逊、Meta即将部署800Gb/s光模块。我国已开始400Gb/s光模块批量部署,800Gb/s应用尚处探索阶段。在全球光模块器件企业市场份额方面,我国企业与美国平分秋色,多家企业位列全球TOP10。
12. 风险提示
AI发展不及预期,算力需求不及预期,市场竞争风险。
本文节选自国盛证券研究所已于2025年1月4日发布的报告《国盛通信丨AI下数据中心的新逻辑》,具体内容请详见相关报告。