1.1 通信行业行情回顾
1.1.1 行情回顾:通信板块涨幅居前,估值接近历史中位数
截至 2024 年 12 月 11 日,沪深 300 指数年涨幅 16.25%,深证成指年涨幅 13.90%,上 证指数年涨幅 15.38%,通信(申万)指数年涨幅 27.70%,通信板块整体跑赢大盘。在申 万行业分类 31 个行业板块中,通信板块年涨幅排名第 4。

2013 年初以来通信板块 PE(TTM,整体法,剔除负值)最高值为 108.1 倍,最低值为 23.2 倍,中值为 37.2 倍;PB(整体法,MRQ,剔除负值)最高值为 9.4 倍,最低值为 2.2 倍,中值为 3.7 倍。2024 年以来,通信板块受数字经济和 AI 催化,估值整体呈上升 趋势。截至 2024 年 12 月 11 日,根据我们梳理的西部通信股票池(包含 226 只股票), 剔除三大运营商后,行业 PE(TTM,整体法,剔除负值)为 33.0 倍,低于历史中值;PB (整体法,MRQ,剔除负值)为 3.7 倍,接近历史中值。 近一年来,通信板块估值从 2023 年底开始下调,从 2024 年 2 月 8 日到 2024 年 3 月 22 日开启新一波上涨,之后虽有小幅度波动但保持稳定,2024 年 7 月 11 日之后通信估值有 所回落,2023 年 9 月底板块估值迅速回升。
1.1.2 分板块行情:量子通信、光器件光模块、连接器及线缆领涨
通信行业深度参与数字中国的数字底座建设,在算力、网络基础设施建设和数据资源体系 建设中都扮演重要角色。通信行业的传统驱动力主要来自运营商和云厂商的资本开支投资, 伴随数字基础设施的完善和下游新兴应用的兴起,通信行业需求驱动力逐步转向商业、工 业、政府、军工等垂直领域;同时通信技术与人工智能、云计算、大数据等新技术相融合 赋能于各行各业,衍生出越来越多新兴产业数字化成长赛道,包括物联网、工业互联网、 军工通信、AIGC、企业通信、通信+汽车、通信+新能源、卫星应用等。立足当下展望, 通信行业需求端迎来三大增量变化,受数字中国建设、AIGC 和出海的同步拉动,供给端 受产业升级和大国博弈共振,呈现技术升级和国产替代两大趋势。
截至 2024 年 12 月 11 日,我们构建的西部通信股票池中 226 家公司整体年平均涨幅 19.94%,其中,涨幅居前的细分板块包括量子通信、光器件光模块、连接器及线缆和专 网通信,板块涨幅均在 30%以上,剩余其他细分板块除电力载波通信和通信终端设备外均 呈现不同程度的涨幅。
根据西部通信股票池,截至 2024 年 12 月 11 日,涨幅居前五的个股分别是神宇股份 (+248.2%)、罗博特科(+224.1%)、乐鑫科技(+190.8%)、海能达(+185.4%)和国 盾量子(+174.4%)。
2.1 AI算力:训练需求叠加推理需求,关注结构性新变化
训练和推理需求推动 AI 算力总量有望持续提升,空间足够大。AI 大模型让自然语言成为 有效的人机交互范式,并在知识归纳和处理以及 AIGC 领域呈现出较大的商用价值和社会 价值。训练端,在生成式 AI 技术快速发展和 Scaling Law 奏效背景下,随着大模型参数 量提升,大模型训练需要大量 AI 算力支撑;推理端,伴随模型的成熟和应用的落地,算 力需求的重心向推理转移,未来推理成本的降低有望进一步吸引开发者加入促进生态的繁 荣,继续促进大模型推理侧的算力需求。
交互式人工智能分阶段对数据通信网络产生不同影响。算力的提升从简单的硬件扩展发展 为涵盖算法优化、系统设计、资源调度和网络通信等多个层面的系统优化,数据通信网络 是算力提升的重要支撑。在 AI 大模型训练阶段,包括前向传播过程和反向传播过程,网 络流量主要分为两类:1)GPU 之间同步梯度和中间激活的网络流量,发生于所有 GPU 之间,主要因为当模型的参数规模超过单个 GPU 的内存,采用 GPU 集群协同计算时,需要 GPU 之间相互通信以交换信息,这类信息包括参数/梯度、中间激活值等;2)GPU 和存储服务器之间的流量,主要因为当庞大的数据集被所有 GPU 共享时需要集中存放到 远端的存储服务器中通过网络调用,以及定期保存的参数和优化器状态也需要通过存储服 务器共享。在 AI 推理阶段,只有前向传播过程,网络流量主要分别两类:1)每次推理在 Prefill (预填充)GPU 和 Decode(解码) GPU 之间传递 KV 缓存,因为预填充阶段和 解码阶段对 GPU 需求不同,可以用 Prefill-Decode 解耦的方式,由两个不同类型的 GPU 分别承担两个阶段的计算任务,因此就需要在两个阶段间传输 KV 缓存;2)Prefill GPU 集群和 Decode GPU 集群分别实施张量并行,产生的中间激活的传递,因为大模型推理 时虽然模型经过了压缩,但模型尺寸仍可能超过单个 GPU 的内存,因此需要张量并行加 速推理过程。
根据《交互式人工智能对广域网流量及智算网络技术的影响分析》,交互式人工智能在不 同阶段对广域网的网络建设提出不同的需求,伴随 AI 用户数增长而提升部署需求。交互 式人工智能的广域网东西向流量发生在两个环节,分别为训练侧训练样本的生成以及训练 完成后的推理侧同步;广域网南北向流量主要为用户对应用的访问流量,包括输入过程和 输出过程。
AI 算力需求短期仍在高成长期,未来短期增速波动的不确定性不改长期增长趋势。2025 年重点关注结构性变化: 1)变化一:大模型突破“慢思考”能力,预训练之外,后训练和推理算力需求增加。受限于高质量数据瓶颈和高昂的算力成本,大模型预训练的性能提升边际收益递减。O1 大模型的推出提升了大模型“慢思考”的能力,对算力的需求结构上体现为对后训练阶段 (Post-training)和推理阶段(Inference)的需求不断提升。在后训练阶段,大模型经 过微调或强化学习等进一步优化在特定任务或领域的表现,通过提升 RL 训练的探索时间 来提升性能。在推理阶段,o1 模型需要增加对推理任务的思考时间,需要消耗更多的计 算资源,主要由于采用了更复杂的推理机制,如内部思维链推理等。
RFT 技术有助于降低模型微调的门槛和成本。2024 年 12 月 6 日,OpenAI 在官网发布 Reinforcement Fine-Tuning(RFT)研究计划的内容以及申请要求的总结与说明。大模型 在学习了公开的互联网数据之后,还需要更多的垂直行业的特定真实世界数据来提升模型 的推理能力。OpenAI 的强化微调旨在让开发者和 ML 工程师能够基于少量到数千个高质 量的任务数据,对模型进行微调,使其在特定领域的复杂、高度专业化任务中达到专家水 准。相较于传统的 Fine-tune 范式需要大量的数据标注工作,RFT 通过“奖励函数”或“奖 励模型”直接进行简单“打分”和反馈引导模型朝特定目标优化,降低数据体量和标注成 本需求。RFT 的推出有利于降低使用者训练或微调模型的门槛和成本,也有助于弥补 openAI 难以获取“特定领域高质量数据”和相关专家经验的局限。从适用领域来看,RFT 适用于有客观正确标准的领域,如法律、保险、医疗保健、金融和工程,这些领域的特征 是专家们在结果判断上有较高的共识性,具备相当的专家领域知识和相关数据集。RFT 项 目推出之初主要面向研究机构、大学、企业等开放测试和微调能力。
2)变化二:伴随应用逐步繁荣,多样化推理需求增加。 随着 AI 进入大规模落地应用的关键时期,边缘计算和云计算的协同共生是大势所趋。云 端可进行复杂的全局分析,边缘端可负责实时数据的处理和推理。云端部署算力中推理算 力占比有望持续提升,根据 IDC 数据,预计到 2026 年,推理占到 62.2%,训练占 37.8%。 边缘端 AI 以推理任务为主,边缘 AI 芯片就近为终端设备提供 AI 算力。例如,智能家居、 自动驾驶、工业 4.0 等领域正在逐步从传统的云端计算转向边缘计算,而推理算力的加入, 为边缘计算提供了更强的数据处理能力和实时决策能力。模型剪枝、量化、知识蒸馏等技 术可在保证模型精度的前提下,减少模型体积和计算需求,从而使得模型可适配边缘设备 的计算能力。
训练和推理对算力和显存的需求逻辑不同,通信效率核心服务于整体算力效率的发挥。在 大模型训练阶段,计算需求与模型参数量和数据量直接相关,显存需求与模型参数、模型 梯度和优化器有关。例如,以 175B 模型为例,以 FP16 精度计算,模型参数需要 350GB 显存,模型梯度需要 350GB 显存,优化器需要 2100GB 显存,合计约 2800GB 的显存规 模,超出单卡显存极限,硬件集群分布式训练是必然选择。在大模型推理阶段,推理计算 需求与模型参数量和数据量直接相关,相较训练阶段不需要反向计算过程,计算需求比训 练阶段少。推理显存需求主要受模型参数量大小和推理过程中的 KV 缓存影响。推理过程 中需要频繁访问显存,通信带宽规格是影响推理速度的核心因素。在推理时可以选择多卡 推理,做张量并行切分时,训练卡可以用于推理业务。推理阶段的通信更多指单机内部的 多卡通信。
3)变化三:英伟达通用 GPU 之外, ASIC AI 芯片供给增加。 超大规模厂商(AWS、谷歌、Meta 和微软)已经在投资自研 AI ASIC 芯片,比如,谷 歌的 TPU、Meta 的 MTIA、微软的 Maia、亚马逊 Trainium2 等。虽然芯片开发成本高昂, 但使用定制的芯片可以提高运营效率,减少向用户提供 AI 服务的成本,并降低用户使用 新 AI 应用的成本。随着 AI 市场从开发转向部署,大厂自研 AI 芯片的趋势将会持续。博 通和Marvell是ASIC 芯片市场的领导者。根据博通公开的业绩交流会信息,博通预计2024 年 AI 收入将达到 110 亿美元以上,定制化 XPU 约占三分之二,主要来自与 Google 和 Meta 的合作,其他客户群体还包括苹果、思科、富士康、爱立信、诺基亚、HPE、NEC、 瞻博网络、Ciena 等各行业的客户;Marvell 预计 2024 年 AI 收入为 16-18 亿美元,2025 年将增长至28-30亿美元,2028年AI ASIC收入将达到70-80亿美元,主要来自与Amazon 和 Google 的合作。Marvell 正在加速其首批两个 AI ASIC 项目的生产,为 Amazon 的 5nm Tranium 芯片和 Google 的 5nm Axion ARM CPU 芯片。还有几个更大的项目在进行,包 括 Amazon Inferentia ASIC(预计在 2025 年启动)和 Microsoft Maia(预计在 2026 年启 动)。 大厂积极参与自研 AI 基础设施,或推动数据通信网络的技术创新。如 AWS 设计的 Trainium2 集群是一个训推一体的集群,在 scale up 设计中充分考虑到实例要拆散了卖的 需求,一个64卡的Trn2-ultra服务器也可以拆成4个16卡机器或单卡进行售卖。如Google 的 TPUv4 集群基于 OCS 光交换机的可重构能力,根据售卖实例和线上故障来构建 TPU拓扑。
2.2 北美算力供应链:光模块是核心,同步关注液冷供应壁垒突破
2.2.1 北美算力市场:巨头建设十万卡集群,云厂商资本开支延续高增长趋势
美国 AI 巨头积极布局 10 万卡乃至更大规模的智算集群。其中,Meta 宣布将投资 100 亿 美金在美国路易斯安那州建设全球最大的 AI 数据中心。亚马逊计划在未来 10 年投资超过 1000 亿美元建设数据中心。谷歌宣布将投资 30 亿美元在印第安纳州建设新的数据中心园 区。微软计划投资 1100 亿美元与 openAI 联合定制一个超大规模的数据中心项目。xAI 仅 用 122 天在孟菲斯建成了 10 万块 NVIDIA H100 GPU 的集群。Anthropic 宣布与 AWS 共 同构建面向机器学习训练的世界最大计算集群,其下一代 Claude 大模型将在拥有数十万 颗 Trainium2 芯片的集群上进行训练。 24Q3 北美四大云大厂资本开支合计 636 亿美金,同比增速 70%,延续高成长趋势。北美 四大云厂商微软、谷歌、亚马逊、Meta 在 2024Q3 的 Capex 如下: 1)微软:24Q3 微软 CapEx(包括融资租赁的本金支付)为 200 亿美元,环比+5%,同 比+79%; 2)谷歌:24Q3 谷歌 CapEx 为 131 亿美元,环比-1%,同比+62%,公司指引 Q4 环比持 平;预计 2025 年进行更高的资本开支。 3)亚马逊:24Q3 亚马逊 CapEx(含融资租赁的本金支付)为 213 亿美元,环比+30%, 同比+89%;预计 2024 年全年资本开支为 750 亿美元,预计 2025 年会在 2024 年的基础 上继续增加。 4)Meta:24Q3 Meta CapEx(包括融资租赁的本金支付)为 92 亿美元,环比+9%,同 比+36%。2024 全年 Capex 预计在 380-400 亿美元,指引下限再次上调,此前预计为 370-400 亿美元。

24Q3 三大云厂商 24Q3 云收入合计 629 亿美元,同比+13%,环比-3%。谷歌云收入同比 增长超 30%,微软云、亚马逊云环比增长承压。24Q3 谷歌云实现营收 114 亿美元,同比 +35%,环比+10%;亚马逊 AWS 云服务实现营收 275 亿美元,同比+19%,环比+4%; 微软智能云实现营收 241 亿美元,同比-1%,环比-16%。
2.2.2 光模块:关注AI基础设施投资节奏和新技术迭代
光模块所需用量与 GPU 数量呈正相关关系,也受网络架构设计、交换机上行下收敛比、 网络层数的影响。在 AI 智算集群中,光模块主要用于服务器和交换机之间、交换机和交 换机之间的连接。在无收敛的胖树架构设计中,假设 GPU 端口速率与光模块端口速率、 交换机端口速率均一致,且交换机的上、下行端口全插满,且只考虑 GPU 服务器与交换 机之间的连接需求,则计算得两层胖树架构下 GPU 端口数:交换机端口数:光模块端口 数=1:3:4,三层胖树架构下 GPU 端口数:交换机端口数:光模块端口数=1:5:6。
光模块行业目前景气度仍然较高,明年总体需求将进一步增长,后续行业需求增长弹性仍 存在不确定性,主要取决于 AI 大厂对 AI 基础设施投资的节奏。2024Q3 相关公司天孚通 信、新易盛、中际旭创的单季度收入仍保持较高增速。根据中际旭创电话会交流信息,明 年以太网 800G 需求旺盛,加上 1.6T 光模块的逐步上量,行业总体需求有望进一步增长。
AI 算力投资驱动光模块行业技术迭代加速,在技术趋势下占领领先地位的公司有望更充分 享受行业红利。2025 年重点关注光模块速率向 1.6T 升级、硅光、CPO、OCS 等新技术 趋势带来的新机会,关注分布式训练需求下的 DCI 增量需求。 1.6T 光模块:2025 年进入批量化生产交付阶段,节奏取决于英伟达 GB200 及下一代芯 片的推进速度。2024 年,北美市场 400G 和 800G 光模块需求旺盛,行业加速从 400G 向 800G 升级。以中际旭创为代表的公司已为 1.6T 产品上量做好准备,并正在预研 3.2T 光模块。 硅光:硅光光模块渗透率在 800G、1.6T 产品中有望加速渗透,缓解光模块上游物料供给 紧缺瓶颈。硅光模块是基于硅光子技术的光模块,其核心是运用硅和硅基衬底材料(如 SiGe/Si、SOI 等),借助现有 CMOS 工艺进行光器件的开发与集成。光模块上游 EML、 VCSEL 光芯片等物料供不应求,影响龙头公司的生产交付。硅光光模块作为材料端的替 代方案,可弥补行业供给产能的缺口。同时,硅光具备兼容性、集成度、性能等优势,在 高速传输、高功率处理、高温环境适应等方面,性能更优。重点关注在 CW 激光器、硅光 光模块环节的领先厂商。 CPO:Nvidia 预计 25Q3 推出 CPO 光引擎的 IB 交换机,有望加速 CPO 技术的应用,重点关注具备产业链卡位优势的厂商和新增环节。英伟达还计划于 2026 年推出 CPO 版 本的 Spectrum4 Ultra X800 以太网交换机,扩展其在 CPO 领域的产品线。以太网光模块 的功耗随着速率增长而增长,CPO(光电共封装)技术的出现主要目的是为了降低系统功 耗和能耗。CPO 作为新技术趋势,尚未发展成熟,英伟达的积极部署促使业界看到趋势 可能加速推动的可能性。根据英伟达 CPO 版本的 Quantum 3400 X800 IB 交换机内部结 构设计,涉及的组成部分包括激光器、FAU、光引擎、芯片层面的基板和封装供应商等, 相较传统可插拔光模块的使用,光纤分纤盒(shuffle box)是新增环节。 Q3400 X800 CPO 交换机内部结构拆解:1)里面有四颗 28.8T 的交换机芯片(总共 115.2T 的交换容量),采用多平面技术,即每一根交换机外面的光纤从 MPO 口连进来后,会用光 纤分纤盒(shuffle box)将其信号拆分为 4 路并分别连接到四个不同的交换机芯片,从而 将信号源切割成最小单元,不需要额外的统筹机制,每个数据子流都是独立处理并最终在 CX8 网卡端进行数据汇聚。2)可插拔光源模组里面的 CW 激光器通过无源透镜和薄膜滤 波器,将信号直接传输到光纤阵列(Fiber Array),再拉到交换机面板上的 MPO 接线口, 相当于在两个光纤之间进行中继。
OCS:谷歌之外的其他大厂开始考虑采用 OCS 方案,未来出货量有望高速增长。十多年 前谷歌就在其计算节点和 AI 集群中使用 OCS,Nvidia 和 Microsoft 等大型 AI 厂商也开始 使用 OCS。在谷歌的 TPU 集群架构中,每个 TPU 可以直接与其六个最近的 TPU 通信, OCS 可以扩展和重新配置互联网络。OCS 的结构较为简单,主要包含两套子系统:子系 统 1:主要用于检测控制。由 2 个 850nm 激光发射模组、3 个 850nm 激光可穿透的二向 色镜、2 个 MEMS 反射镜阵列、2 个摄像模组所组成,主要的功能是通过检测 850nm 激 光在光交互通道中的传输状态,调整 MEMS 反射镜的相关参数,从而实现路径上光信号 损耗最小。子系统 2:光交换的实际链路。由 2 个 136 通道的光纤准直器阵列、3 个二向 色镜、2 个 MEMS 反射镜阵列所组成,通过 MEMS 反射镜的调整控制,实现经过两个光 纤准直器所接入的光通路之间的互联互通。根据 LightCounting 预测,OCS 出货量 2023 年已达到 1 万台,预计 2029 年将突破 5 万台。
DCI:传统云数据中心对 DCI 的需求主要来自数据备份和容灾、虚拟化和资源池化以及虚 拟机跨数据中心迁移、资源整合,AI 数据中心在单一数据中心的占地和能源供应问题上 更为严峻,催化跨 DC 大模型训练的新需求。DCI 主要指跨数据中心之间的互联,在云计 算时代 DCI 的需求主要来自 1)单个数据中心的占地和能源供应限制,导致云厂商需要再 同城或异地建设多个数据中心;2)在不同数据中心之间部署数据备份和容灾方案需要先 完成数据中心的互联;3)数据中心的最小功能单元由物理主机转变为 VM(虚拟机),虚 拟机的资源占用可弹性伸缩,支持 VM 跨服务器、跨数据中心自由迁移和资源整合,而数 据中心之间的互联是实现 VM 跨数据中心迁移的前提,是实现数据中心虚拟化和资源池化 的重要环节。根据 CoherentFY25Q1 财报,公司的电信收入增长主要得益于新产品 100ZR 和 400G ZR/ZR+相干光模块的推出。根据 Lumen TechnologiesFY24Q3 财报,lumen 在 2024 年二季度签署了超过 50 亿美元的 PCF(私有连接结构)销售额,第三季度签署了 超过 30 亿美元的增量 PCF 销售额,主要用于 AI 光纤网络部署。

2.3 国内算力供应链:关注光模块、AIDC、液冷、交换机、运营商
2.3.1 国内算力市场:智算中心加码建设,互联网厂商、政府和运营商是投资主力
多地出台政策引导,各方玩家加码智算中心。国内智算中心的主要参与者包括政府、运营 商、云厂商、企业、院校及科研机构等多主体。其中,1)政府:主要通过制定相关政策、 提供资金支持、规划区域布局等方式提供基础保障。2)电信运营商:是数据中心建设主 力,依托既往布局和网络优势,并积极与政府及企业合作探索智算中心建设和运营的新模 式。3)原数据中心、云及用户企业:是智算中心的建设主力,包括万国数据、世纪互联 等第三方 IDC 服务商、BAT 等互联网巨头以及吉利、特斯拉等自建自用的企业。这些企 业在云计算、人工智能等领域拥有深厚的技术积淀和市场经验。4)央国企:有较强的资 金实力和资源整合能力,能够承担大型智算中心的建设和运营任务。2024 年 2 月,国资 委召开“AI 赋能产业焕新”中央企业人工智能专题推进会,强调央企要加快建设一批智算 中心。5)院校及科研机构:需要智算基础设施开展前沿技术研究,并将成果反馈给产业, 如湘潭大学智算中心。6)跨界企业:智算中心的火爆、算力缺口激增以及美国的科技制 裁吸引了众多跨界企业进入算力租赁领域,包括莲花健康、鸿博股份等。 地区分布上看,智算中心加速落地,主要集中于东部经济发达地区。截止 2024 年 3 月, 全国已投运、在建及规划的智算中心项目达到 196 个,其中京津冀、长三角及广东省智算 项目共 89 个,占比 45%。
国内互联网巨头加码智算投入。国内 BAT 三大云厂商 24Q3 资本开支合计 357.1 亿元, 同比增长 128.3%,呈现加速投资的态势,主要面向 AI 基础设施进行投资。其中,腾讯 24Q3 资本开支为 171 亿元,同比增长 114%;百度 24Q3 资本开支 16.4 亿元,同比下滑 54%;阿里巴巴 24Q3 资本开支 170 亿元,同比增长 313%。
三大运营商均大力投资建设 AI 算力。 1)中国移动 2024 年计划用于算力的资本开支 475 亿元,同比增长 21.5%,并计划到 2024 年底实现智算算力超过 17 EFLOPS。其不断完善的 “4+n+31+x” 数据中心布局, 构建了覆盖全国的 AI 推理算力网络 ,并计划在哈尔滨、呼和浩特、贵阳等地商用自主 可控万卡集群。中国移动 2024 年至 2025 年新型智算中心集采项目规模达 8054 台,其 中包括 7994 台人工智能服务器及配套产品、60 台白盒交换机。 2)中国电信 2024 年计划用于产业数字化资本开支 370 亿元,同比增长 4%,其中用 于云/算力投资 180 亿元,并在在上海临港、武汉、京津冀等地积极建设智算中心。其 “2+4+31+x+o” 天翼云布局,构建 “中心-省-边缘-端” 的四级算力体系,打造可满足 多个大模型同时训练的公共智算中心。中国电信启动了 2024 至 2025 年度的服务器集中 采购项目,共 13 个标包,预估采购量为 15.6 万台服务器,采购金额各标包的最高投标 报价总计达到约 177 亿元。 3)中国联通 2024 年总体资本开支为 650 亿元,重心投向算网数智业务。本年内,中国 联通公开集采 2503 台 AI 服务器和 688 台关键组网设备 RoCE 交换机。
国家持续支持 AI 算力发展,地方政府也积极响应。 1)政策出台与引导:中国 2024 年发布的《国家人工智能产业综合标准化体系建设指南 (2024 版)》等相关政策文件,为 AI 算力发展提供了良好政策环境。工信部等六部门联 合出台的《算力基础设施高质量发展行动计划》明确提出,到 2025 年底要建成 50 个智 算中心,为 AI 算力的布局和发展提供了清晰的方向指引。 2)项目支持与推动:2024 中国绿色算力 (人工智能) 大会上,举行了 “中国云谷”、国 家 “东数西算” 内蒙古和林格尔集群算力产业链主企业揭授牌仪式,启动了多项合作, 签约 13 个重点项目,总投资金额达 613.45 亿元人民币,本次项目覆盖了算力上游装备制 造、中游算力基础设施以及下游算力应用及运维服务等多个环节,有力推动了 AI 算力产 业的发展。 国内 AI 算力现状:2024 年智能算力和 AI 服务器高速增长。根据《中国综合算力指数(2024年)》数据显示,截至 2024 年 6 月,中国在用算力中心超过 830 万标准机架,算力规 模达 246EFLOPS,智算同比增速超过 65%。同时我国 AI 服务器行业高速发展,根据中 商产业研究院研究显示,2023 年国内 AI 服务器出货量约 35.4 万台,AI 服务器市场规模 为 490 亿元,2024 年预计 AI 服务器市场出货量同比增长 18.92% 至 42.1 万台,市场规 模将同比增长 14.29%至 560 亿元。 预计国内智能算力规模未来几年高速增长。根据 IDC 在 2023 年 12 月预估,2022 年-2027 年中国智能算力规模年复合增长率将达到 33.9%,同期通用算力规模年复合增长率为 16.6%;在智能算力中,2023 年中国 AI 服务器训练工作负载占比 58.7%,推理负载占比 41.3%,预计 2027 年中国 AI 服务器训练负载占比为 27.4%,推理负载占比 72.6%。
2.3.2 光模块第二梯队:交付仍是瓶颈,2025年持续受益于国内智算中心建设
中国的光模块市场受益于国内智算中心建设浪潮,国内光模块头部厂商光迅科技、华工科 技等公司积极扩充产能,并在 24Q3 表现出数通光模块收入的环比改善,光模块行业供应 紧张,交付仍是主要瓶颈。根据华工科技 11 月 8 日和 10 月 25 日投资者交流会议纪要, 华工科技 400G 及以下全系列光模块实现规模化交付,800G 光模块实现小批量交付。2024 年前三季度公司的光联接业务收入同比增长 52%,第三季度收入和毛利水平明显提升。公 司预计 24Q4 公司的高速率光模块交付进一步增多,400G 和 800G 单模将持续上量,国 内的数通光模块市场明年还将实现明显增长。根据光迅科技 8 月 26 日投资者交流会议纪 要,国内互联网厂商的需求受 AI 驱动,增长较大,光迅科技上半年的物料和产能相对紧 缺,下半年会逐步好转,公司 Q2-Q4 的产能持续明显提升,2024 年交付仍是主要瓶颈。 国内的数通光模块市场对光模块速率的需求迭代慢于北美市场,市场竞争环境也比北美市 场更为激烈。国内智算中心建设和大模型训练相较北美处于追赶地位,带动上游产业链的 需求释放节奏迟缓于北美市场。24Q3 相关光模块厂商已经进入业绩兑现期,后期伴随产 能爬坡有望加速成长。
2.3.3 AIDC:优质客户资源是核心,AI对技术、运维管理能力提出更高要求
技术驱动引领 IDC 市场规模不断扩张,预计 2025 年末,数据中心机架超过 1000 万架, 24-25 两年的增量投资 1500 亿元。IDC 作为支撑信息技术产业发展的核心基础设施,受 益新基建、数字经济等系列政策,以及新一代技术的驱动,我国 IDC 市场持续保持高速增 长。根据 IDC 数据,2023 年中国 IDC 市场规模 1456.4 亿元,同比增长 6.4%,伴随经济企稳,数字经济进一步推进,2028 年中国 IDC 市场有望突破 2500 亿元。算力规模数据 中心机架数量稳步增长,按照标准机架 2.5KW 统计,2023 年标准机架数量超过 810 万架, 算力规模 230EFLOPS。据 2023 年 10 月发布的《算力基础设施高质量发展行动计划》, 到 2025 年,算力规模超过 300 EFLOPS,智能算力占比达到 35%,预计未来两年年均 复合增长率 15%,则 2025 年机架数超过 1000 万架,根据单机架投资成本 7.5 万(含土 建)计算,未来两年的增量投资超过 1500 亿元。
相较于 IDC 业务,AIDC 的主要区别在于,1)服务对象:传统 IDC 业务的对象是通用服 务器,即传统 X86CPU 服务器;AIDC 业务的主要服务对象是高性能 GPU 服务器。服务 对象的改变带动了单机柜功率的提升和散热方式的改变。机柜功率的提升加速了散热方式 从风冷向液冷的转变。2)业务出发点:传统 IDC 业务主要从自身资源出发,即公司拥有 的土地能耗等基础资源量、能够建设的机柜数,以及能够承载的服务器数;而 AIDC 业务 主要从客户角度出发,需要根据客户对算力密度、规模的需求针对性地进行设计组网。3) 技术:AIDC 的大集群交付需求,在对机柜侧提出更高要求的同时,还需要具备组网、服 务器侧调优等能力。
2.3.4 液冷:智算中心催化液冷渗透率提升,国产厂商迎来出海机遇
随着算力密度的提高,算力设备、数据中心机柜的热密度都已显著提高,加快了液冷技术 的导入。冷板式较浸没式在液冷工质与系统等方面的成熟度更高, CPU/GPU 等算力芯 片厂商也通过直接配套散热模组或发布 Design Guide 等方式完善液冷算力的生态匹配, 主流的服务器制造商大多已建成冷板式液冷服务器的标准化规模生产线,通信运营商与头 部互联网公司均积极尝试液冷技术的部署应用。冷板式液冷数据中心已开始规模部署,在 产业链成熟度和生态匹配方面均已取得实质性进展。字节、华为、电信运营商是国内推动 液冷系统在数据中心应用的主力。2023 年 6 月三家通信运营商联合发布了《电信运营商 液冷技术白皮书》,提出未来三年液冷应用的愿景:2023 年技术验证,2024 年新建项目 10%规模测试,2025 年以后新建项目 50%以上规模应用。 冷板式液冷系统的设计主要包括一次侧和二次侧的相关设备。一次侧设备主要由室外机等 组成,负责通过冷却液体与发热部件的热量进行相互交换,降低冷却液的温度。二次侧设 备组成部分主要包括冷却液分配单元(CDU)、manifold、二次侧管道、快插接头、冷却 工质/冷媒等,负责完成发热部件与冷却液体热量的交换,液体升温带走部件热量。通过一次侧和二次侧的结合,实现了冷板式液冷系统的整机液体循环,进而达到 IT 设备散热的 目标。
冷板式液冷系统的国内需求主要来自国内新建液冷数据中心和存量数据中心机房温控系 统改造需求,冷板式液冷系统的需求跟液冷服务器的需求紧密联系,未来两年需求端有望 保持高速增长。根据中商产业研究院,2023 年中国液冷服务器市场规模约为 109 亿元, 同比增长 49.3%,预计 2024 年液冷服务器市场规模将达到 201 亿元,到 2027 年市场规 模超过 680 亿元。英维克 2024 年前三季度收入高速增长,主要受益于数据中心机房温控 节能产品收入增长,验证了产业的高景气度。

中国厂商积极前往东南亚布局算力,有望带动国内算力产业链上的设计、施工、温控设备 厂商顺势出海。根据科智咨询,全球算力产业的发展重心正在发生转移,新兴区域如东南 亚、中东及非洲等地,呈现强劲的增长势头。2023 年东南亚数据中心 IT 容量已达到 1716 兆瓦,年度同比增长 8.2%,科智咨询预测从 2023 年到 2028 年,东南亚数据中心市场将 维持年复合增速 17.1%的高速增长态势。2024 年以来,谷歌、甲骨文、Equinix、Etix Everywhere 等产业巨头均在马来、泰国等地进行了少则数亿美元,多则数十亿美元的数 据中心建设投资。国内厂商中,字节将投入 21.3 亿美元,在马来西亚建设人工智能中心;中国港湾成功中标马来西亚秦淮数据柔佛总部大楼项目;万国数据与安美德春武里工业园 正式签约,将建设价值 10 亿美元的数据中心;中国数据中心开发商和运营商上海数据科 技有限公司正寻求 6 亿至 7 亿美元的私募债务融资,用于在马来西亚柔佛州的数据中心项 目。
2.3.5 交换机:关注数据中心交换机的速率升级、白盒化趋势
在 AI 需求驱动下,数据中心交换机技术升级加速,高速率数据中心交换机占比有望提升。 根据 IDC,全球以太网交换机收入在 2024 年第二季度同比下降 14.1%,达到 102 亿美元, 但与 2024 年第一季度相比增长了 15.4%。其中,数据中心(DC)市场的收入同比增长 7.6%,环比增长 15.8%。2024Q2 200/400 GbE 交换机的总市场收入同比增长 104.3%, 环比增长 35.7%,表明市场对用于数据中心的高速以太网交换机有着浓厚的兴趣。从地域 的角度来看,美国和中国市场较为亮眼。以太网交换机市场总量同比下降 16.3%,但美国 同比增长 12.3%。西欧市场同比下降 24.2%,但较第一季度增长 4.3%。中欧和东欧市场 同比下降 27.7%,环比增长 11.0%。在亚太地区(不包括日本和中国),市场同比下降 14.8%, 但环比增长 10.0%。中国市场同比增长 8.7%,环比增长 49.9%。
根据 Dell’Oro,2024 年将是 800GbE 以太网部署的重要一年,预计到 2027 年 400Gbps/800Gbps 的端口数量渗透率将达到 40%以上。我们认为,高速率以太网交换机 需求将随着 AI 的迭代发展而增长,从而拉动以太网交换机市场规模增长。
白盒交换机厂商抢占品牌厂商份额趋势明显。随着云数据中心的兴起,云网络需要具备敏 捷、灵活、可扩展、低成本等特点。传统的网络基础设施是软硬件一体化,成本普遍较高, 但缺乏敏捷性,难以适应云网络未来的发展需求,网络基础设施正在向具有白盒交换机的 开放网络演进。根据锐捷网络公开交流记录,2024 年锐捷网络先后以较大份额中标多家 头部互联网厂商智算中心建设,包括字节、阿里、腾讯登 Tier1 客户,互联网市场业务保 持快速增长。Arista 在高速率数据中心交换机市场弯道超车,市占率不断提升。根据 Arista 24Q3 推介资料,在高速数据中心交换机市场,2012-2024H1 Arista 的市场份额呈提升趋 势,Cisco 的市场份额呈下降趋势。以销售额计,Arsita 的市占率于 2024H1 超过 Cisco, 达到 33.2%(Cisco 为 28.9%);以端口数计,Arista 的市占率于 2023 年超过 Cisco,在 2024H1 达到 30.9%(Cisco 为 21.2%)。
相较于黑盒交换机,白盒交换机有诸多优势:
灵活、高效、可编程,降低购置成本及开发成本。白盒交换机采用开放的设备架构和 软硬件解耦思想,可以根据业务需求,按需定制底层硬件和上层软件,相比传统交换 机软硬件捆绑购买、垄断使用,能够显著降低交换机购置成本。另外,在软件功能方 面,白盒交换机可以基于开源软件进行二次开发,降低开发周期和成本。
优化网络性能,降低运维成本。白盒交换机支持硬件数据面可编程和软件容器化部署, 通过软件定义的方式定制数据面的转发逻辑,还充分利用现代云计算技术,对网络功 能进行快速升级迭代,提升网络的灵活性、敏捷性、确定性,优化网络性能,满足复 杂的业务务求。此外,白盒交换机通过容器化部署,能统一简化管理运维,降低网络 的运维成本。
产业链上下游认可度高。根据《未来网络白皮书——白盒交换机技术白皮书》,交换 机白盒化已得到芯片厂商、设备提供商、云服务商、电信运营商等交换机上下游企业 的一致认同,能联动白盒开源生态和产业生态的发展。例如,阿里 2018 年开始白盒 交换机的研发;字节在 2019 年启动自研交换机的研发经过数年的人员扩张和技术积 累,2023 年已全面上线自研白盒交换机;美国运营商 AT&T 早在 2017 年 4 月即开 启运营商白盒化之路、完成白盒交换机试验,2018 年 3 月宣布将在基站内部署 6 万 个白盒路由器,2022 年 8 月表示计划到 2022 年底将其 50%的核心骨干网流量运行 在白盒交换机和开放硬件上、从而推进其在 SDN 和虚拟化方面的目标。
全球卫星互联网行业加速发展。根据《通信世界》,截至 2023 年 12 月,全球在轨运行卫 星共计 9691 颗,比 2013 年增长了 8 倍之多;2024 年 1—9 月新增 800 多颗,总量达到 10505 颗,并且这一数字几乎每天都在更新,彰显了卫星互联网加速发展的态势。 2024 年国内低轨卫星互联网产业进入批量化发射阶段,产业链各个环节持续取得进展。 在高轨方面,我国已发射了天通一号、中星、亚太等系列卫星,但卫星制造成本较高;在 低轨方面,我国在卫星运载能力、在轨处理能力等方面存在短板,限制了卫星的发射以及 对卫星互联网的整体布局。截至 2024 年 9 月 30 日,国际领先者 SpaceX 共进行了 194 批星链卫星发射,总发射数量达到 7062 颗,在轨卫星 7010 颗,在役 4727 颗,已在 100 个国家拥有超过 400 万用户。 卫星发射环节,近半年长征系列、谷神星、捷龙等火箭陆续发射。2024 年 11 月 30 日, 国内首个商业航天发射场——海南商业航天发射场成功发射首枚长征十二号火箭,正式实 现国内商业航天的商业化运营。根据《中国航天科技活动蓝皮书(2022)》,我国商业发射 主体以国家队为主,如中国航天科技集团、中国航天科工集团、中国长征火箭公司等,新 兴民营商业航天发射商中星河动力发射次数居前,其次还有星际荣耀、蓝箭航天、中科宇 航、天兵科技等。
卫星制造环节,国内商业航天企业持续推动卫星向低成本、小型化、多用途演进。1)垣 信卫星:打造“千帆”低轨卫星星座,投资设立卫星工厂,并于 2024 年具备批量生产能 力。2024 年千帆星座先后在 8 月 6 日、10 月 15 日和 12 月 5 日在太原进行三次卫星发射, 以“一箭 18 星”的方式发射入轨,均使用长征六号改运载火箭,目前已经累计发射 54 颗卫星。根据规划,垣信卫星将在 2025 年底前完成 648 颗 GEN1 卫星发射任务,实现区 域网络覆盖;在 2026-2027 年完成后续 648 颗 GEN2 卫星发射任务,实现全球网络覆盖。 到 2030 年底前,垣信卫星则计划通过 15000 颗卫星向全球用户提供低延时、高速率及高 可靠性的卫星(宽带)互联网服务。2)中国星网:国网(GW)星座共计规划发射 12992 颗卫星,GW-A59 星座 6080 颗,分布在 500km 以下的极低轨道。GW-A2 星座 6912 颗, 分布在 1145km 的近地轨道。根据《中国航天》杂志发表文章《巨型低轨星座发展现状及 启示》文中介绍,“国网”星座计划将在 2024 年下半年在海南商业航天发射场进行首次发射,在未来 5 年内发射约 10%的卫星,到 2035 年完成全部卫星的发射。3)其他商业卫 星制造企业:包括长光卫星、格思航天、工大卫星、时空道宇、微纳星座、银河航天、天 仪研究院、国星宇航、九天微星等。5 月,上海蓝箭鸿擎科技向 ITU 提交了包含 1 万颗卫 星的“鸿鹄三号”卫星星座申请备案;9 月,时空道宇“一箭 10 星”将吉利星座 03 组卫 星发射入轨。
终端应用环节:手机直连:华为、荣耀、中兴、小米等主流手机厂商纷纷发布带有手机直 连卫星功能的手机,并向千元机等市场渗透。国际巨头也积极布局“手机直连卫星”领域。 2024 年 5 月 15 日,AT&T 与 ASTSpaceMobile 宣布将为 AT&T 智能手机提供基于卫星的 宽带网络连接;8 月 28 日,Verizon 宣布将联合 skylo 推动终端直连卫星的短信息商业服 务。SpaceX 于 9 月 12 日为 ASTSpaceMobile 发射了 5 颗能够直接与普通手机通信的商 业卫星。其他应用场景如车机直连、低空经济、机上 Wi-Fi、机舱调度、车联网等均表现 出广阔的应用前景。 星地融合方面,地面运营商积极探索星地融合机空天地一体化的更多可能性。银河航天与 中国联通合作完成了国内运营商首个NRNTN低轨在轨试验,打通了在轨端到端数据业务, 实现了 VoNR 卫星通话;中国电信完成了 5GNTN 实验室测试认证,在基于天通一号高轨 卫星系统的 IoTNTN 真实网络环境下完成了试验;中国移动基于 5G 星地融合网关原型, 完成了业界首个真实低轨卫星与地面商用版本 5G 网络互通测试。中国星网、中国兵器工 业集团、中国移动合资成立中国时空信息集团有限公司,中国移动研究院设立星地融合技 术研究所,中国电信成立第二家卫星公司“天通卫星科技有限公司”,彰显出地面运营商 布局卫星领域的坚定决心。
国内商业航天出海打开市场空间。11 月 20 日,垣信卫星与巴西国有通信企业 TELEBRAS 正式签署合作备忘录,根据合作备忘录中的内容,垣信卫星将为巴西地区提供卫星通信服 务,并通过与 TELEBRAS 的合作率先实现对巴西偏远和网络不发达地区的宽带互联网接 入,推动巴西国家数字包容公共政策执行落地,向学校、医院及农村地区提供战略服务。 垣信卫星为巴西地区提供的卫星通信服务将基于千帆星座实现,千帆星座是采用全频段、 多层多轨道设计的巨型低轨卫星星座。千帆星座将于 2025 年开始在全球范围内提供卫星 互联网服务,为交通运输、新能源、智慧城市、智慧农业、应急救灾、低空经济等领域赋 能;将在 2026 年为巴西地区提供正式的商用服务。本次与 TELEBRAS 达成合作,也意 味着垣信卫星开启海外业务正式落地的序幕。目前,垣信卫星已经与 30 多个国家启动业 务洽谈,正积极推动千帆星座在全球范围内的商业应用服务推广。 5 月 21 日,银河航天 与合作伙伴泰国马汉科理工大学首次在泰国实现低轨卫星互联网宽带通信网络试验验证, 这是中国低轨宽带卫星互联网的首次海外应用探索实践。 总体来看,我国低轨卫星互联网进入实质性组网阶段,2025 年有望进入规模组网加速建 设阶段,有望进一步推动卫星发射和制造的降本和产业成熟。在这一阶段,产业链核心受益的环节主要集中在火箭发射和卫星制造环节。同时,垣信卫星和银河航天的出海实践也 为国内商业航天出海提供了示范案例,有助于加速产业出海步伐,进一步打开市场空间。
4.1 时间维度:产业升级、驱动力变化、海外经营能力提升
在中美科技摩擦背景下,通信企业出海阻碍和压力加强,但出海积极性不降反增。华为、 中兴通讯首当其冲,受制裁后仍积极出海。相较以往,通信企业出海的产品结构、驱动力、 经营能力均朝积极方向演变。
产业升级:从中低端往高端走,从追赶跟随到引领的转变。例如,在移动通信代际升 级的演变中,华为、中兴通讯在国际的市场地位和份额逐步提高,成为行业标准的制 定者。企业通信终端的亿联网络从中小企业市场向高端大客户市场渗透,产品矩阵从 中低端向高端旗舰机升级,抢占海外市场龙头的市场份额。
驱动力变化:从被动出海到主动出海。例如,智能控制器行业龙头和而泰、拓邦股份 几年前为了减轻关税压力被动进行海外产能布局,现在全球化产能布局为其主动贴近 客户获取订单、增强本地化服务能力奠定了基础,成为公司寻求成长的核心路径。
海外经营能力提升:从亏损到盈利。例如,智能控制器行业龙头早期在泰国、越南等 地的产能基地处于亏损,伴随产能利用率提升、产品良率提升和经营效率的提升,现 在进入盈利贡献期,管理层也在海外生产管理和营商环境适应上积累了丰富的经验。
4.2 空间维度:市场份额和能力边界扩展
对于当前市占率较低的板块,一方面关注企业自身创新能力是否支撑其在技术迭代周期中 有望弯道超车,另一方面关注企业的核心竞争优势是否能持续巩固,以及份额提升的天花 板。例如智能控制器、北斗、海缆、光纤光缆等。
对于传统业务市占率已经较高的板块,一方面关注企业是否能基于客户优势、销售网络优 势、产品和技术优势等持续丰富产品矩阵,拓宽业务边界,寻求更高的客户附加值;另一 方面关注企业是否能持续保持技术的领先和管理能力的提升,在技术迭代周期和需求周期 享受行业成长红利。例如企业通信终端、电信设备、光器件光模块、通信模组等。
4.3 比较优势:工程师红利、供应链产业集群带来的性价比优势
技术优势和成本优势奠定了国内通信企业在出海竞争中的性价比优势。性价比优势从需求 端打开下沉市场空间,从供给端给予国内企业更高的竞争主动权,因为同样价格甚至更低 价格下更优的利润空间,带给国内企业更高的调价主动权。 1、技术优势:多数公司的技术优势体现在发展中国家的技术升级代际差上,个别优秀企 业亦能与发达国家头部企业同台竞技而脱颖而出。以通信主设备商为例,以高研发投入和 产品力为优势,引领行业标准。 2、成本优势:国内工程师红利、产业链集群下的供应链成本优势,最终导致产品的更优 性价比。例如企业通信终端(IP 话机、视频会议系统)和北斗卫星导航终端等产品,伴随 中国国产崛起,产品应用进一步往下沉市场普及,打开增量市场。光纤光缆行业实现光棒 技术国产化替代,物联网模组、智能控制器行业上游芯片的国产化替代,为中游企业带来 供应链成本优势。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)