全球互联网云厂加大资本投入:快速迭代模型、自研AI芯片及网络
大语言模型 (Large Language Models, LLMs) 发展迅猛,全球互联网各大云厂商纷 纷布 局。 大语言 模型的爆 发源自于 Google 研究团队在2017 年发明的Transformer 架构,但其真正声名鹊起,却是在 2022 年随着Open AI 发布ChatGPT走入大众视野。根据 AIport 2024 年 7 月的报告,全球35 个国家在生成式AI方面都进行了布局。 大语言模型的竞争加剧。根据 Menlo Ventures 报告显示,ChatGPT 的市场份额从2023 年的 50%下降到了 2024 年的 34%。来自 Artificial Analysis 的调研数据清晰显示,Anthropic 和 Google 等厂商陆续开发出性能接近GPT-4、OpenAIo1等新模型。
云厂下游应用:B 端市场付费意愿增强,C 端用户数不断激增
B 端企业向大模型支付意愿增强。The Information 梳理了50 家企业如何使用生成式 AI 技术。这 50 家企业中,OpenAI 和 Gemini、Anthropic 处于企业较为认可的企业模型第一梯队,共有 38 家大公司采用了 OpenAI 模型,17 家企业采用了Gemini 模型,11 家采用了 Anthropic 的模型。
海外应用,ChatGPT、Genimi 用户月活过 2 亿,领先行业。2024 年2 月8日,谷歌宣布将旗下人工智能聊天机器人 Bard 正式更名为Gemini,与其大模型的名称保持一致,同时宣布推出新的订阅计划允许用户访问其“最强大模型”GeminiUltra 1.0,受此推动,Gemini 在 2 月突破一亿月活,但在之后有所回落。下图的统计中包含了 Bard+Gemini 的共同数据。 国内 C 端用户快速增长。国内 AI 产品榜数据,2024 年1 月到10 月,中国AI原生应用(APP)累计下载量排名前 5 的应用豆包、文小言、Kimi、星野、天工AI累计下载量分别为 1.08 亿、 2260 万、2100 万、1790 万、1170 万。
云厂上游芯片:各大云厂均在自研 AI 芯片及数据中心网络,英伟达、博通不断创新
META 自研 MTIA 芯片,已部署多个万卡集群: Meta 在 2024 年 4 月宣布其训练与推理加速器项目(MTIA)的最新版本。MTIA是 Meta 专门为 AI 工作负载设计的定制芯片系列。MTIA 采用开源芯片架构RISC-V,它的功耗仅有 25 瓦,远低于英伟达等主流芯片厂商的产品功耗。 2024 年 META 推出了基于 Grand teton 平台的Catalina 机架,其Orv3高功率机架(HPR)设计,能够支持高达 140kW 的功率需求,通过开放硬件设计,更多合作伙伴可以定制和部署 AI 解决方案。Grand teton 平台支持英伟达GPU的基础上,新增了对 AMD Instinct MI300X 加速器的支持。 META 已部署两个 2.4 万卡的超大集群。META 官网2024 年4 月公布了一对极其强大的 GPU 集群(分别包含 2.4 万个 GPU),并表示将使用这些集群来支持下一代生成式人工智能模型的训练,包括即将推出的Llama 3。
Google 自研 TPU 芯片,设计了全光 OCS 网络: Google 在 2015 年就展示了 Jupiter 数据中心网络支持超过30000 台服务器,在过去 9 年中,谷歌将 optical circuit switching(OCS)和波分复用(WDM)深度整合到 Jupiter 中,通过开发并在 Jupiter 架构中引入光路交换机(OCS)来打破这一僵局。光路交换机通过两组可在两个维度上旋转的微机电系统(MEMS)镜面,动态地将光纤输入端口映射到输出端口,从而实现任意的端口对端口的映射。 Google2024 年 5 月发布的 TPUv6(Trillium)芯片,单片峰值计算性能比TPUv5e 提高了 4.7 倍。Trillium 可以在单个高带宽、低延迟Pod 中扩展到多达256 个 TPU。通过多切片技术和 Titanium 智能处理单元(IPU),TrilliumTPU还可以扩展到数百个 Pod,连接数万个芯片,通过每秒数PB 的速度互连数据中心网络。

AWS 自研了推理和训练芯片,新设计了基于自研芯片的UltraServer。亚马逊AWS在 2024 年 12 月初的 reinvent 大会上宣布推出 Project Rainier,这是一款由其Trainium 芯片驱动的突破性“超级集群”超级计算机。这个庞大的集群将包含数十万个 Trainium2 芯片,提供的计算性能 Exaflops 是用于训练Anthropic当前一代人工智能模型的五倍多。基于 Trn2 芯片的 UltraServer 是一种全新的计算产品,采用 64x Trainium2 芯片,与高带宽、低延迟的NeuronLink 互连连接,可在前沿基础模型上实现峰值推理和训练性能。
此外,微软、特斯拉等企业也在积极部署 AI 集群。微软和OpenAI 正在讨论一个名为“星际之门”(Stargate)的项目,微软将斥资1000 亿美元建造一个超级计算机数据中心,以支持 OpenAI 的先进人工智能模型。该项目将以美国为基地,最早可能于 2028 年启动。同时微软将推出自己的定制人工智能芯片。AzureMaia100和 Cobalt 100 芯片是微软为其云基础设施设计的首批两款定制硅芯片。马斯克于2024 年 5 月发布 10 万块 H100 芯片集群,或成为全球最强智算中心。
国内各大云厂也已布局自研 AI 芯片多年。百度于 2020 年初开发了其首款自主研发的 ASIC AI 芯片昆仑芯,第二代计划于 2021 年量产,第三代于2024年推出。在阿里巴巴于 2018 年 4 月收购 CPU IP 供应商中天微系统并于同年9月成立天头哥半导体后,该公司开始开发自己的 ASIC AI 芯片,包括含光800。2021年11 月,腾讯推出 AI 推理芯片紫萧,利用 2.5D 封装进行图像和视频处理、自然语言处理和搜索推荐。
全球云厂采购 GPU 的同时,自研芯片也在起量。Meta 定制MTIA 加速器的出货量(我们在 2024 年早些时候对其进行了更详细的研究)将在2024 年达到150万台,而亚马逊则订购了 90 万台 Inferentia 芯片。谷歌2024 年也订购了约一百万个TPU v5e 和 48 万个 TPU v5p 加速器。
AI 芯片龙头英伟达不断迭代技术,GPU 架构已经演进到Blackwell,并推出支持以太网的 Spectrum-X 平台: 英伟达在 2024 年推出新一代架构 Blackwell,其新GPU 架构有望每年一更:2025 年推出 Blackwell Ultra GPU(8S HBM3e 12H);2026 年推出RubinGPU(8S HBM4);2027 年推出 Rubin Ultra GPU(12S HBM4),新一代基于Arm的 Vera CPU,以及 NVLink 6 Switch(3600GB/s)。 NVIDIA 今年推出了全新的 Spectrum-X 以太网平台,为用户提供了更高的带宽、更多的端口,及更为强大的软件功能集与可编程能力,构建领先的AI以太网网络性能。在最新的 GB300 机柜里还配置了CXL-8 网卡,有望将端口速率提升 1.6T。
英伟达近些年业绩持续高增。其 2024 年三季度营业收入350.8 亿美元,同比增长94%,分析师预期中值为 332.5 亿美元,英伟达自身指引318.5 亿至331.5亿美元,前一季度同比增长 122%。三季度非 GAAP 口径下调整后的每股收益(EPS)为081美元,同比增长 103%,分析师预期 0.74 美元,前一季度同比增长152%。其中,数据中心:三季度数据中心营收 308 亿美元,同比增长112%。
博通积极发展 AI 定制芯片(XPU),预计 2027 年 AI 相关业务收入达600-900亿美元。博通是数据中心网络领先厂商,在最新一季度财报交流会上表示,到2027年,公司三家重要合作伙伴都计划在单个架构上部署100 万个XPU 集群。我们预计,仅在 2027 财年,这将代表 XPU 和网络 AI 收入的潜在市场规模(SAM),达到 600 亿至 900 亿美元。目前在 XPU(一个涵盖多种计算架构的统称,可以是 CPU、GPU、FPGA,以及其他类型的加速器)市场,占据主导地位,并为谷歌、Meta 等公司构建定制芯片。
英伟达业绩持续高增。博通 2024 年 12 月发布了截至11 月3 日的公司第四财季财报,AI 收入同比增长 220%达到 122 亿美元。公司2024 财年营收同比增长44%至创纪录新高的 516 亿美元。
海外云厂商资本开支呈现季度性明显提升
2024 年三季度最新数据显示,海外三大云厂商及 Meta 资本开支(非净额口径)合计 584.6 亿美元(同比+62%,环比+12.6%)。其中:亚马逊(Amazon)2024Q3资本开支 212.8 亿美元(同比+88%,环比+29.8%);微软(Microsoft)2024Q3资本开支 149.2 亿美元(同比+50%,环比+7.6%);谷歌(Google)2024Q3资本开支 130.6 亿美元(同比+62%,环比-0.9%);Meta(Facebook)2024Q3资本开支 92 亿美元(同比+36%,环比+8.6%)。 微软副董事长兼总裁布拉德・史密斯表示,预计在2025 财年投资800 亿美元,用于建设能够支持人工智能运算需求的数据中心。
2024 年三季度国内三大云厂商资本开支同环比持续加大。阿里巴巴、腾讯同比大增。根据 BAT 三大云厂商数据,整体来看,24Q3 BAT 资本开支合计362.3亿元(同比+117%,环比+58%)。其中:阿里巴巴 24Q3 资本开支174.9 亿元(同比+240%);腾讯 24Q3 资本开支 170.9 亿元(同比+114%);百度24Q3 资本开支16.5亿元(同比-53%)。 字节跳动资本开支投入大于国内传统三大云厂。根据Omdia 数据显示,字节跳动2024 年采购了约 23 万片英伟达(Nvidia)芯片,仅次于微软(Microsoft),超越 Meta、亚马逊和谷歌等传统科技巨头。字节跳动2024 年的资本开支将达到800亿人民币,远超传统互联网巨头。
数据中心技术变革-互联:算力升级驱动铜连接、光通信、交换机不断迭代
大模型能力的持续进化,算法规模和复杂性不断增加、数据量越来越大,算力需求也在不断攀升,数据中心算力升级需要同时应对的三个核心问题:性能问题(scale-up)、规模问题(scale-out)、能耗问题(power): Scale-up(单节点系统扩展),指系统中只包括一个有效节点/服务器,当需要扩展算力时,通过在节点上增加更多 GPU。Scale out(集群系统扩展),指由多个节点组成的系统,通过将多个低性能的机器组成一个分布式集群来共同抵御高并发流量的冲击。
Scale Up相对于Scale Out和业务网络对于带宽的需要高一个数量级(10倍以上),同时需要更低延迟,这就意味着需要采用 GPU 芯片直出互连的设计,且协议设计足够轻量化,这样才能将宝贵的芯片面积节省给 GPU 的计算资源、更高的IO集成能力、更低的功耗。当训练规模达到 10w 卡以上,每张卡直接都通过TB/s的带宽达到全互连是灾难性的,这意味着 Scale Up 结合Scale Out 进行GPU集群扩展是最合理的选择。
服务器/机柜内 Scale-up 驱动铜连接由无源走向有源
服务器/机柜的互联方案包括光模块+光纤、有源光缆AOC 和直连电缆DAC(DAC可以进一步分为有源 ACC、AEC 和无源 DAC)。互联方案技术的选择需要综合考虑距离、功耗、密度、串扰、成本。
NVLINK 是英伟达 GPU 实现 Scale up 的主要通信方式,其通过NVLINK Switch实现节点内高速交换,而 NVLINK 在 GB200 机柜的极致的性能下的短距离传输主要选择了铜连接技术。

NVLINK Switch 3 最高连接 8 片 GPU,而 NVLINK Switch 4 最多可扩展到576个,GB200 NVL72、NVL36*2 的 Scale up 域为 72 个 GPU。在8 颗GPU 互联时,NVLINK主要通过 PCB 进行 intra-board 通信,距离通常在1 米内;72 颗GPU 互联达到了机架内部、相邻机架间通信,距离通常在 1 米至5 米,因此距离成为GB200选择铜缆互联的最主要因素。
LightCounting 发布 2024 年 12 月《High-Speed Cables, LPO and CPO Report》,预计未来五年高速线缆的销售额将增长两倍多,到2029 年将达到67 亿美元。
机柜/集群互联 Scale-out 驱动光模块、交换机向高速率1.6T 升级
机柜集群互联方案(Scale out 集群系统扩展机架间互联),主要是光模块和交换机。 光模块的优势相比铜互联主要是传输距离远,适合机架之间。AI 数据中心网络的快速发展推动机架间传输速率快速升级,光模块速率随之快速升级。
英 伟 达 打 造 了 面 向 Scale-up ( NVLink 、 NVSwitch )和面向Scale-out(InfiniBand) 的组合解决方案,通过不断升级迭代算力芯片带宽和通信协议,高速光模块需求大幅提升:其A100 GPU支持PCIe 4.0,最大支持单向带宽为252Gb/s,即 PCIe 网 卡 速 率 需 小 于 252Gb/s , 因 此 搭 配搭配Mellanox HDR 200Gb/sInfiniband 网卡;H100 GPU 支持 PCIe 5.0,最大支持单向带宽为504Gb/s,因此搭配 Mellanox NDR 400Gb/s Infiniband 网卡。所以,A100 向H100 升级,其对应的光模块需求从 200G 提升到 800G(2 个 400G 端口合成1 个800G);而GH200采用 NVLink 实现卡间互联,单向带宽提升到 450GB/s,对应800G 需求弹性进一步提升。若 H100 集群从 PCIe 5.0 提升到 PCIe 6.0,最大支持单向带宽提升到1024Gb/s,则接入层网卡速率可提升到 800G,即接入层可使用800G 光模块,集群中单卡对应 800G 光模块需求弹性对应翻倍。
国内厂商已占据领先位置。10G 时代以北美光模块厂商为主,40G 时代,中际旭创和 AOI 崛起;100G 时代,北美传统光模块厂商份额下滑,国内光模块企业崛起。根据 LightCounting 数据,2021 年,在全球前十名的光器件和模块供应商中,中国供应商的营收超过了西方竞争对手的营收,2022 年-2023 年,这一差距进一步扩大,国内厂商已占据全球领先位置。
海外云厂投入 AI 基础设施,头部光模块厂商受益。对400G 和800G 数通光模块的需求,尤其是来自英伟达、谷歌和亚马逊的需求,对收入产生了重大影响。Coherent公司和旭创科技分别在多模和单模应用领域处于领先地位。业界正在将800G链路的单通道速率从 100Gb/s 提高到 200Gb/s,以降低功耗和成本。EML 和CW-DFB器件已为 200G/lane 应用做好准备,而 200G/lambda VCSEL 预计将于2026 年投入量产。
交换机是连接数据中心各种设备的核心网络设备,包括服务器、存储设备、网络设备等。数据中心交换机具有高性能、高可靠性、高扩展性、高安全性等特点,可以实现快速、可靠和安全的数据交换和传输。
英伟达和博通快速升级交换芯片,支持交换机向 1.6T 速率升级:
英伟达在交换芯片方面,坚持 InfiniBand 和Ethernet 两条开放路线,前者瞄准 AI Factory,后者瞄准 AIGC Cloud。但其并未给出NVLink 和NVSwitch自有生态的明确计划。224G 代际的速度提升,可能率先NVLink 和NVSwitch上 落 地 。 以 InfiniBand 为 基 础 的 Quantum 系列和以Ethernet基础的Spectrum-X 系列持续升级。2024 年已商用基于100G SerDes 的800G接口的交换芯片;而到 2025 年,将迎来基于 200G SerDes 的1.6T 接口的交换芯片。其中 800G 对应 51.2T 交换容量的 Spectrum-4 芯片,而1.6T 则对应下一代Spectrum-5,其交换容量可能高达 102.4T。从演进速度上看,224G 代际略有提速,但从长时间周期上看,其仍然遵循着 SerDes 速率大约3 到4年翻倍、交换芯片容量大约 2 年翻倍的规律。
博通早在 2022 年 8 月就推出了 51.2Tbps 的 Tomahawk 5 交换机芯片,采用5nm 制程,支持 64 端口 800Gbps 或 128 端口 400Gbps 或256 端口200Gbps的交换机。如果单通道由 100G 升级到 200G,Tomahawk 5 将支持1.6T光模块。
全球交换机头部厂商 Arista Networks 看好以太网交换机未来在数据中心发展及高速率端口发展。公司认为未来以太网正在成为前端和后端AI 数据中心的关键基础设施。相比 IB 网络,当将一个完整的 GPU 集群与光学器件和所有组件放在一起时,查看作业完成时间的一致性;在现实世界环境中以太网的作业完成时间与InfininBand相比,大约快了 10%。
IDC 预测,生成式 AI 数据中心以太网交换机市场将以70%的年复合增长率呈指数级增长,将从 2023 年的 6.4 亿美元增长到 2028 年的90.7 亿美元。2024年第三季度数据中心(DC)部分的市场收入同比增长 18.0%,环比增长6.2%。思科的以太网交换机收入在第三季度同比下降 24.0%,环比增长13.7%。Arista Networks 的以太网交换机收入(其中 90.4%来自DC 部分)在第三季度同比增长 18.0%,环比增长 7.0%,使公司的市场份额达到13.6%。
降能耗、降本催生 CPO/OIO、硅光等技术加速落地
传统的光模块是独立于交换芯片之外,通过铜缆或光纤与其他电子组件相连,这种方式在高速信号传输过程中容易产生较大的功耗和信号损耗。
CPO(Co-Packaged Optics)主要用在交换机端口,通过将光模块和交换芯片紧邻封装在一起,可以极大地减少了信号在电光转换和传输过程中的距离,从而显著降低功耗、提高信号完整性、减少延迟,并且缩小了其体积。
博通于 2024 年 3 月向客户交付业界首款 51.2Tbps 共封装光学(CPO)以太网交换机。该产品将八个基于硅光子的 6.4-Tbps 光学引擎与博通同类最佳的StrataXGSTomahawk5 交换芯片集成在一起。与可插拔收发器解决方案相比,Bailly使光互连的功耗降低了 70%,硅面积效率提高了 8 倍。 英伟达将于 2025 年 Q3 推出 CPO 版本的 Quantum 3400 X800 IB 交换机,2026年推出 CPO 版本的 Spectrum4 Ultra X800 以太网交换机。IB 交换机有144个MPO光接口,支持 36 个 3.2T CPO, 内部有 4 个 28.8T 的交换芯片(总共115.2T的交换能力)。
LightCounting 预测,CPO 可能是在 4-8 机架系统中提供数万个高速互连器件的唯一选择。CPO 的有限部署应很快开始。到 2028-2029 年,CPO 极有可能成为1.6T及更高速互联的可行选择。LightCounting 还预测3.2T CPO 端口到2029年将超过 1,000 万个。LightCounting 的模型配置假设有1,024 个GPU 行大小的扩展集群使用 CPO 互联。如果每个 GPU 有 8 个 3.2T NVLink 端口,这样的集群将消耗16,384 个 3.2T CPO 端口(或 3.2T 等效光模块)。如果将一百万个这样的GPU互连到这样的集群中,将需要超过 1,500 万个 CPO 端口。
OIO(Optical IO)主要用于芯片互联。为了解决计算芯片CPU, GPU, XPU等之间的互联问题(chip to chip interconnect),OIO 利用光互连低功耗、高带宽、低延迟的优势,取代传统的 electrical IO 方案,芯片输入输出的IO 变为光信号,进而构建分布式计算网络。为了实现计算资源的池化技术,Optical IO对延迟latency 的要求比较高。从封装形式上看,Optical IO 也是将光芯片与电芯片封装在同一基板上。Intel 对比过 CPO 与 Optical IO 在性能上的差异,单个CPO模块的带宽为 1.6-3.2Tbps, 带宽密度为 50-200Gbps/mm, 能效为15pJ/bit,而Optical IO 的总带宽为 40Tbps, 带宽密度为 5Tbps/mm, 能效为3pJ/bit。

OIO 真正放量时间或是 2026 年中。OIO 技术与小芯片和硅光子学等创新封装技术相结合,可提供高达 1000 倍的带宽,而功率仅为 EIO(传统电I/0)替代方案的1/10。其带宽扩展路线图始于 Ayar Labs 开发的每个方向承载2Tbps 带宽的能力,每条线带宽为 200 Gbps/mm。Yole 认为,到本世纪末,每条线带宽将达1–10Tbps/mm。一些用户对>20Tbps 和>50Tbps 线带宽的可用性更为乐观。OIO对应 GPU、HBM 的 Fabric,采用并行接口,属于芯片内部总线的延伸,跟芯片的设计方案密切相关,如果芯片没有提供支持,则必须等下一代芯片配套,正是因为这种配套关系制约了 OIO 的商用节奏,这个时间点在2026 年中~2027 年初。
光模块材料正在由“III-V 族化合物”向“硅光”发展。硅基材料利用成熟的CMOS工艺降低成本和功耗,对比 InP 等其他衬底材料,主要优点在于可通过CMOS工艺集成更多光器件,从而降低后续工艺步骤,实现更低成本和功耗。现有光子集成技术所采用的基底材料主要包括硅或硅基材料(Si、SiO2、SiGe)、III-V 族化合物(InP/GaAs)、铌酸锂(LiNbO3)等,硅光子技术即基于标准硅制造的硅衬底材料,利用半导体晶圆材料可延展特性,采用CMOS 等工艺应用于光电一体集成器件制造。其物理架构由硅衬底激光器、硅衬底光电集成芯片、光纤等辅助物料封装构成。
SiPh 硅光将电子和光子通过先进封装集成到同一芯片中,信号可以通过光波导传输。在硅芯片中集成光波导元件可以同时处理电信号和光信号,不但能够成倍提高处理器内核之间的数据传输速度,而且可以缩小芯片尺寸。采用硅光集成,可实现硅光芯片、激光器、驱动电芯片的单片集成,光模块组装部件数量由大于40个减少到 2 个,降低功耗和生产成本。
LightCounting 预计,硅光芯片的销售额将从 2023 年的8 亿美元增至2029年的略高于 30 亿美元。其中,基于 GaAs 和 InP 的光模块的市场份额将逐步下降,而硅光子(SiP)和铌酸锂薄膜(TFLN)PIC 的份额将有所上升。LPO 和CPO的采用也将促进 SiP 甚至 TFLN 器件的市场份额增长。
在 2025 年下半年量产 1.6Tbps 光电器件。这将开启CPO 与高性能计算(HPC)和AIASIC 芯片的集成之路,实现计算从电信号传输到光信号的重大飞跃。台积电与日月光和富士康等大厂联合成立了 SiPh 联盟,以推动硅光技术标准协议,整合上下游资源,共同推动台湾加速 SiPh 产业发展。台湾工研院产学研国际战略中心指出,AI 与高端数据中心将是硅光子市场爆发的突破点,预期该技术将从光收发器演进至 CPO 和 Optical I/O。预估 2022 年至2027 年全球SiPh硅光裸片市场年复合增长率高达 48.2%,异质集成与先进封装的实现将成为技术发展重点,但需要更多创新材料。
Marvell 在 2024 年的“AI Era 的加速基础设施”活动上预测,未来对于ChatGPT5.0 等更复杂的 AI 大模型将会在 10 万级甚至百万级的更大规模XPU 集群上训练,预计需要五层交换技术,光互联需求比例或提升至1:5 乃至1:10。预计到2028年硅光的市场规模达到 28 亿美元,5 年 CAGR 为 26%。
数据中心规模建设开始拉动数据中心互联 DCI 需求
智算中心的发展也提升了数据中心间互联(DCI)带宽的需求。DCI 传输距离可达百公里级,需要使用基于相干光通信架构的密集波分复用系统。目前商用系统的单波最高速率已达到 1.6T,采用 3nm 工艺和 100GHz 光电子器件。在单纤容量方面,C+L 双波段系统已成功实现商用,使光纤可用频谱达到了12 THz,可支撑近百 T 容量。
相干技术具有高谱效率、高性能等优势,在城域 DCI 中占主导地位。非相干传输局已经接近物理传输距离极限,长距离下信号相互扰动会被放大,造成0/1识别误差。相干光模块使用相干检测技术提高了接收灵敏度和频谱效率,另外使用DSP(数字信号处理)的技术实现了由长距离光纤传输过程中累积的波长失真的补偿。因此拥有相干技术的光通信/光模块设备厂商在 DCI 领域拥有核心优势。
云厂加大数据中心互联战略布局。Lumen Technologies 在2024 年8 月宣布,在人工智能推动的连接需求的推动下,该公司已获得50 亿美元的新业务,且未来有望获得另外 70 亿美元的人工智能销售机会。而在2024 年7 月微软宣布与网络系统提供商 Lumen Technologies 建立新的合作伙伴关系,旨在扩展其AI网络的容量和能力。在 2024 年 10 月,10 月 21 日晚,美国光纤网络运营商Lumen与Meta签署合作,Lumen 将帮助 Meta 显著增加其网络容量,帮助Meta 推动其AI业务的发展。Lumen Technologies 创立于 1930 年,为仅次于AT&T 和Verizon 的美国第三大固网电信公司,全球范围内拥有约 450,000 英里的路由光缆。该公司将为其重要客户提供网络输出业务。
根据 Mordor intelligence 报告,DCI 市场规模预计到2024 年为141.2亿美元,预计到 2029 年将达到 283.8 亿美元,未来五年复合年增长率为14.98%。
数据中心技术变革-散热:单机柜密度提升,液冷加速落地
随着 AIGC(生成式人工智能)的快速发展,算力需求爆发式增长,数据中心机房呈现“风液共存”新布局。随着 IT 设施的升级和市场需求的变化,智算中心的发展将推进供配电架构、冷却系统等各产业链环节以及服务模式的革新,引领数据中心产业向更高效、智能、绿色的方向发展优化升级。AIGC 场景下的数据中心会同时存在存储型或通用型服务器的风冷微模块,算力型服务器的液冷微模块以及浸没液冷试点模块。
算力升级功耗不断提升,散热需求驱动散热技术由风冷转向液冷
数据中心单芯片功耗不断提升。随着 AI 计算、HPC 计算等高性能计算需求的不断提升,CPU、GPU 等计算芯片正朝着高算力和高集成方向发展。目前,Intel的多款 CPU 芯片的热设计功耗(TDP)已经超过 350W,而Nvidia 的H100 系列GPU芯片的 TDP 更高达 700W,新的 B200/300 芯片已经超过1000W。在通用服务器中,CPU/GPU 等计算芯片的功耗占比约为 50%左右,而在AI 服务器中,计算芯片的功耗占比更高达 80%以上。 芯片功率密度的持续提升直接制约着芯片散热和可靠性,传统风冷散热能力越来越难以为继。液冷系统常用介质有去离子水、醇基溶液、氟碳类工质、矿物油或硅油等多种类型;这些液体的载热能力、导热能力和强化对流换热系数均远大于空气;因此,针对单芯片,液冷相比于风冷具有更高的散热能力。
液冷对比风冷技术优势明显。液冷技术现阶段需求驱动“核心是PUE”,未来规模应用“关键是 TCO”。2018 年 3 月,在中国电信广州数据中心冷板式液冷微模块试点项目中,安装冷板式液冷微模块(2 列服务器机柜)和风冷微模块各1个,液冷微模块 PUE 值约 1.2,风冷微模块PUE 值约 1.4,冷板式液冷节能效果明显。
以英伟达 GB300 为例,有望全面采用液冷。上一代B200 芯片高达1000W的TDP实际上已超过了传统风冷散热的极限。在 B300 芯片上,风冷散热方案无法压住1400W 的功耗,整个 GB300 机柜预计功耗超过 140kW,预计需要改用液冷方案。
全球龙头 Vertiv 预计单机柜功率达 1mw,我国企业积极推动液冷技术发展
温控龙头企业 Vertiv 预计未来数据中心单机柜功率或达到1MW。Vertiv在2024年 11 月的投资者交流中反馈,预计 2023-2029 年共新增100GW 数据中心,平均每年新增 13-20GW,全球存量数据中心目前仅为 40GW。数据中心单机柜功率有望达1MW+。预计 blackwell 机柜峰值密度 130-250kW,未来rubin ultra 机柜峰值密度 900-1000+kW,而 24-25 年行业平均机架密度仅15-25kW。
预计 2026 年,中国智算中心 IT 负载规模将超 3000MW,产业潜力巨大。2023年,中国投用智算中心总 IT 负载达到 1205.5MW,同比增长41.6%。智算中心项目主要落地东部经济产业发达地区。计算逐步向“智算”变革,数据中心向智算中心演变已成为行业必然趋势。科智咨询预测,中国智算中心规模将以36%的复合年增长率(CAGR)快速增长,预计 2026 年,中国智算中心IT 负载规模将超3000MW。

数据中心服务业务逐步回暖,有望迎来新一轮增长
智算中心(新型数据中心)需求景气度高,服务商积极开拓新业务。与传统数据中心不同,新型数据中心所承载的芯片、服务器功率密度高,市场服务模式更加多元高效,能更好地适应数字化、网络化、智能化的现代需求。算力中心服务商的基础业务主要包括服务器托管、应用托管等基础业务,而越来越多的客户不满足于简单的托管和主机租用,对算力中心增值服务和灵活的服务模式表现出越来越多的需求。
全球 AI 加速服务器业务快速提升,国产品牌份额持续增长
根据 Counterpoint Research 数据显示,2024 年第二季度,全球服务器收入飙升至 454.22 亿美元,同比增长 35%,在人工智能技术热潮的推动下,对AI服务器的需求急剧上升,进而促进了整个服务器市场的快速增长。AI 服务器在所有服务器销售中所占比例已接近 30%。
根据 Counterpoint Research 数据显示,2024 年中国加速服务器市场规模将达到190 亿美元,同比 2023 年增长 87%。其中 GPU 服务器依然是主导地位,占据74%的市场份额。到 2028 年,中国加速计算服务器市场规模将超过550 亿美元,其中 ASIC 加速服务器市场占比将接近 40%。 2024 上半年,中国加速芯片的市场规模达超过 90 万张。从技术角度来看,GPU卡占据 80%的市场份额;从品牌角度来看,中国本土人工智能芯片品牌的出货量已接近 20 万张,约占整个市场份额的 20%。用于推理的人工智能芯片占据了61%的市场份额。在加速卡入口受限之后,由于数质化转型大趋势对于算力的持续需求,中国本土品牌加速卡的市场份额存在一定程度的增长。
我国数据中心业务稳步增长,头部服务商有望迎来快速发展期
我国算力中心建设规模和数量持续攀升。受益于“新基建”、“东数西算”的发展机遇以及爆发式增长的算力需求,我国算力中心建设规模不断扩大。据中国信通院统计,我国在用机架数量三年复合增长率约 30%,截至2023 年,算力中心机架规模稳步增长,全国在用算力中心机架总规模超过810 万标准机架,算力总规模达 230EFLOPS,位居全球第二,算力基础设施建设取得显著成效。2023 年中国传统 IDC 业务市场规模为 1456.4 亿元,同比增长6.4%。随着AI、大数据等新型技术发展,AI 应用开发以及元宇宙等业务创新推进,将激发大量新的IDC 需求,中国传统 IDC 业务市场有望快速发展。预计到2028 年,中国传统IDC市场规模将超 2500 亿元,预测期内(2024-2028 年)复合增长率达12.6%。
根据 IDC 评测,我国三大运营商仍占据主导地位,市场份额占比约60%,但第三方服务商仍然有较强竞争力,一是具备一线城市稀缺资源的区位优势;二是随着客户需求向高功率密度机柜进阶,第三方服务商的高质量机柜资源更符合客户需求;三是随着客户数字化转型的加快,第三方服务商凭借专业的建设和运营经验,可以更快、更灵活的响应客户需求。 根据算力中心服务商的总体规模、能力建设、财务状况、绿色低碳、集约发展、国际布局等六方面,信通院评估处我国算力中心服务商TOP15 企业如下。
IDC 头部公司业务景气度回升——万国数据 2024 年第三季度实现了18%的收入增长和 15%的调整后 EBITDA 增长。得益于东南亚持续高涨的市场需求,万国数据马来西亚柔佛州 NTP 及印尼巴淡岛 NDP 园区新增净签约面积16,011 平方米,在该区域已获得 431MW 容量的订单。公司达成了一项位于泰国的土地收购协议,将在曼谷东南部春武里府开发总 IT 容量约 120MW 的数据中心园区,成为泰国第一个超大规模项目的数据中心运营商。公司预计未来四个季度,MSR(每平米月度租金)将下降约 2%,上架显著提升。
IDC 头部公司业务景气度回升——世纪互联 2024 年前三季度营收为21.2亿元人民币(3.022 亿美元),同比增长 12.4%;调整后 EBITDA 为5.948 亿元人民币(8,480万美元),同比增长 17.1%。其中: 基地型业务:2024 年 Q3 运营容量为 358MW。上一季度为332MW;同比来看,2023 年同期为 290MW。2024 年 Q3,在建容量为297MW。截至2024 年9月30日,上架容量为 279MW。上一季度为 252MW;同比来看,2023 年同期为161MW。2024 年第三季度环比增长 27MW,主要来自于E-JS campus 02C 和N-OR06项目。2024 年 Q3,基地型机房上架率为 78.0%。环比来看,上一季度为75.9%;同比来看,2023 年同期为 55.4%。 城市型服务:2024 年 Q3 运营机柜数为 52,250 个。上一季度为52,177个;同比来看,2023 年同期为 52,200 个。2024 年Q3 上架机柜数为32,950个。上一季度为 33,253 个;同比来看,2023 年同期为33,845 个。2024年Q3,城市型机房上架率为 63.1%。上一季度为 63.7%;2023 年同期为64.8%。
AI 应用拉动端侧 AI 及物联网 IOT 发展,AIOT 进入2.0时代
AI 应用拉动端侧 AI 发展。“端侧 AI”是指人工智能可以直接在移动设备上处理数据,而无需连接到服务器或云。它的好处包括低延迟、高安全性和高灵活性。端侧 AI 即使设备没有连接到网络,也可以随时使用。要充分地实现这一技术,强大的嵌入式神经网络处理器(NPU)性能至关重要。高通发布端侧 AI 芯片,解决移动端侧 AI 计算瓶颈。虽然大模型在积极小型化,但受到端侧计算能力、内存空间等限制,模型的减配、压缩也会折损标准通用基础大模型的性能表现。在今年 10 月底的高通骁龙峰会上,高通宣布和智谱、腾讯混元合作,共同推动端侧 AI 模型部署和落地。 AIOT 智联网即 AI 与端侧的 IoT 在实际应用中的结合。它将人工智能算法和计算能力直接部署在边缘设备上,如智能手机、PC、智能家居、可穿戴设备、汽车、工业传感器等。
端侧 AI 运行在端侧大模型上,这些模型通常部署在本地设备上。基于大模型在端侧部署的特点和优势,已落地或即将落地的应用场景包括:智能手机、智能家居、可穿戴设备、自动驾驶汽车、工业自动化、医疗设备等。随着5G 技术的日益成熟以及 AI 和 IoT 的蓬勃发展,AIoT 展现出巨大的市场价值。城市端AIoT业务的逐步落地以及边缘计算的初步普及更促使 AIoT 市场进一步发展。
我国物联网快速增长。2024 年 9 月,我国工信部发布了《关于推进移动物联网“万物智联”发展的通知》。数据显示,截至 2024 年 7 月底,移动物联网连接数已然达到了 25.47 亿,在移动网终端连接数中占据了 59%的比重。工信部在通知中勾勒了一幅 2027 年的美好蓝图:移动物联网终端连接数力争突破36 亿,其中4G/5G物联网终端连接数占比达到 95%。RedCap 技术的突破,将成为实现这一宏伟目标的关键一环。
市场研究机构 IoT Analytics 的预测到 2024 年底,全球联网物联网设备数量将增长 13%,达到 188 亿台。而在企业物联网采用者中,51%的企业计划在2024年增加物联网预算,其中 22%的公司更是打算将预算比2023 年提高10%以上;在AI的拉动下,到 2030 年,全球互联 IoT 设备的数量将增长到400 亿台。
星链 Starlink 已发射超过 7000 颗卫星,用户数460 万
截至 2024 年底,星链 Starlink 已发射超过 7000 颗卫星,用户数460 万。2024年,星链部署提速,SpaceX2024 年 134 发猎鹰发射中,有89 发用于发射星链卫星。目前,星链已发射超过 7000 颗卫星(截至 2024 年底,累计发射7256颗,在轨卫工作 6538 颗),为全球 118 各国家和地区的460 万用户提供服务,覆盖28亿人口。

截至 2024 年底,发射星链的总带宽容量将近 350Tbps,在世界各地不同地区的互联网速度方面取得了显著进展。 Starlink 也在 2024 实现了手机直连卫星业务,全年发射了Starlink DirecttoCell(DTC)卫星 350 颗,第一个 DTC 卫星星座已于11 月完成。Starlink在美国全国范围将具备年产 550 万套产品(终端及部件)的年生产能力。
Starlink 将部署 V3 版本卫星。2024 年,星链推出的V2 Mini 卫星已经大大优于初代星链,容量 96Gbps,是之前 V1.5 卫星 24Gbps 容量的4 倍,单星优化后的重量仅有 575 千克,比初始版 V2 Mini 卫星轻了近 22%。星舰投送V3 星链后,一次投送的通信容量将增加 60Tbps(是目前 V2mini 版本的20 倍);V3 单星下行带宽1Tbps,上行带宽 160Gbps(分别是目前 V2 mini 版本的10 倍和24 倍);星链V3馈电链路将增加星地激光通信,射频+激光馈电链路,总通信容量达到了4Tbps。
2024 年猎鹰系列火箭发射了 134 次,其中两次使用三核猎鹰重型火箭。与2023年的 96 次相比,发射节奏增加了近 40%。这 134 次任务占全球所有发射任务的一半以上。预计 2025 年,SpaceX 将全年发射计划超200 次(猎鹰九号计划飞行180 次,星舰计划飞行 25 次)。
SpaceX 发射频出加速。虽然猎鹰 9 号花了大约 10 年时间才达到100 次发射,但第 200 次发射仅在三年后就完成了,到 2024 年,该火箭实现了第300次和第 400 次发射,到 2024 年底总共发射了 417 次。2024 年,SpaceX 再次大幅缩短了其发射台周转时间,创下了从同一发射台发射间隔最短的新纪录。
我国“国网 GW”与“千帆计划 G60”均实现多次发射,卫星互联网部署初具规模
2024 年,我国卫星互联网组网拉开大幕。其中,上海垣信卫星科技有限公司发射了 54 颗“千帆星座”极轨互联网卫星,中国星网公司也于年底成功发射首批10颗低轨互联网卫星。第一阶段计划到 2025 年底,实现648 颗星提供区域网络覆盖。两大互联网星座的更多组网星将在 2025 年升空。
2024 年,国家队仍是中国航天发射主力军,共执行火箭发射任务56 次。中国民营火箭公司执行运载火箭发射任务 12 次,不断突破: 2024 年 1 月,东方空间技术研制的引力一号遥一商业运载火箭飞行试验任务完成,引力一号是我国自主研制的全球最大固体运载火箭,它的成功首飞大幅提升了我国固体运载火箭的运载能力。 2024 年 9 月,中国蓝箭航天空间科技股份有限公司自主研制的可重复使用液氧甲烷运载火箭朱雀三号 VTVL-1 在酒泉卫星发射中心完成10 公里级垂直起降返回飞行试验标志着我国商业航天在可重复使用运载火箭技术上取得重大突破。 2025 年,中国航天市场将有多款火箭进行垂直起降飞行试验,包括长征十二乙70 公里级垂直起降飞行试验、星云一号百公里级垂直起降飞行试验等。朱雀三号2025 年拟执行 3 次发射任务并完成一级回收,其中首飞不回收;双曲线三号计划于 2025 年 12 月完成首次“入轨+海上回收”飞行试验;星云一号计划于2025年一季度实现首次“入轨+回收”飞行试验;天龙三号计划于2025 年5 月开启首飞,成功后还将于 11 月前执行五次商业航天任务。火箭可回收实现将大力推动我国商业航天发展。
我国首个商业航天发射场海南航天商业发射场也首次启用。海南文昌规划了4个火箭发射工位,目前已经建设好两个,有力推动我国商业航天发展。海南岛是中国陆地纬度最低、距离赤道最近的地区。发射场距离赤道越近、纬度越低,发射卫星时就可以尽可能利用地球自转的离心力,因此所需要的能耗较低,使用同样燃料可以达到的速度也更快。在海南发射地球同步卫星比在西昌发射火箭的运载能力可提高 10%至 15%,卫星寿命可延长 2 年以上。
华为实现手机直连三网通信卫星,“G60”星座出海成功,卫星应用市场打开
华为 Mate X6 实现三网卫星通信。在 11 月的发布会上宣布了华为折叠手机MateX6和 Mate 70 上市,均搭载了卫星通信和卫星寻呼功能,同时宣布Mate X6三网卫星典藏版将支持北斗卫星消息、天通卫星通信以及低轨卫星互联网,其中低轨卫星互联网正在测试中,预计将在 2025 年下半年开启众测。
“手机直连卫星”促产业良好发展。当前,从国内发展角度看,在运营商方面,2023 年 9 月,中国电信正式对外启动“手机直连卫星业务”。如今,中国电信正不断迭代“手机直连卫星”服务,在全国各地提供了多种卫星通信套餐,满足用户在特殊情况下的通信需求。 目前多款手机已经支持手机直连卫星功能,商业模式得到快速复制。直连卫星的手机品牌包括:荣耀 Magic6 Pro 支持双向卫星通信直连服务;努比亚Z70Ultra星空典藏版支持双向卫星通话、卫星短信;OPPO 率先在Find X7 系列上实现了听筒、免提双模卫星通话。 G60 星座出海成功。2024 年 11 月,上海垣信卫星科技有限公司(以下简称”垣信卫星”)与巴西国有通信企业 Telecomunicações Brasileiras S.A.(以下简称“TELEBRAS”)正式签署合作备忘录,双方的合作致力于弥合巴西数字鸿沟,助力巴西实现经济数字化转型。垣信卫星将基于 “千帆星座”为巴西地区提供卫星通信服务,率先实现对巴西偏远和网络不发达地区的宽带互联网接入,推动巴西国家数字包容公共政策执行落地,向学校、医院及农村地区提供战略服务。计划 2026 年开始在巴西开展正式的商用服务。 2025 年元旦,中国移动香港有限公司与星旅远洋国际邮轮有限公司、垣信卫星合作,在香港成功应用 “千帆星座” 的低轨卫星宽带接入,在鼓浪屿号邮轮上完成了国产化低轨商业卫星的网联通信测试。
2024 年前三季度三大运营商总体增长稳健。据公司公告,截至2024 年三季度,中国移动、中国电信和中国联通分别实现营业收入7915 亿元(同比+2.1%)3920亿元(同比+2.9%)和 2901 亿元(同比+3.0%),延续稳健增长态势。利润端,中国移动、中国电信和中国联通分别实现归母净利润1109 亿元(同比+5.1%)、293亿元(同比+7.9%)和 83 亿元(同比+10.0%)。 单季度来看,三季度业绩整体平稳增长。单三季度来看,中国移动实现营业收入2447 亿元(同比-0.1%),实现归母净利润 307 亿元(同比+4.7%);中国电信实现收入 1260 亿元(同比+2.9%),实现归母净利润74 亿元(同比+6.2%);中国联通实现收入 928 亿元(同比+3.3%),实现归母净利润23 亿元(同比+7.7%)。从利润增速来看,移动、电信和联通环比增长显著;收入增速方面,移动环比增长,电信和联通收入环比下滑。
2024 年前 11 个月我国电信业务收入平稳增长,电信业务总量保持两位数增长。前 11 个月,电信业务收入累计完成 15947 亿元,同比增长2.6%。新兴业务收入保持快速增长。前 11 个月,三家基础电信企业共完成包括IPTV、互联网数据中心、大数据、云计算、物联网等在内的新兴业务收入3952亿元,同比增长 7.9%,占电信业务收入的 24.8%,拉动电信业务收入增长1.9 个百分点。其中云计算和大数据收入分别同比增长 6.8%和 60.7%,物联网业务收入同比增长13.6%。

2024 年前 10 个月,全国风机累计公开招标容量 98.4GW(+57%);其中,海上风机公开招标容量 7.5GW(+3%)。根据 CWEA,2023 年全国风电新增装机容量79.4GW,同比+59.3%;其中海上风电新增装机容量 7.2GW,同比+38.1%;预计(吊装口径),2024-2026 年 海 上 风 电 新 增 装 机 容 量 分 别 为7/15/20GW ,合计新增装机82/110/105GW。 广东、上东、浙江近两年密集推进海上风电,河北、江苏、海南等几个省份2024年动作频频。根据北极星风力发电网数据,截至 2024 年年底,沿海11 省区市并网、在建、签约、竞配、核准的海上风电项目高达107GW,其中以广东21417MW、山东 19228MW、浙江 12677MW 位列前三。此外:2024 年底,江苏省发布 2024 年度海上风电项目竞争性配置公告,对《江苏省海上风电发展规划(2024-2030 年)》规划中20 个、合计规模765万千瓦海上风电项目进行竞配。 2024 年 4 月,海南省将海上风电场址由 11 个增加至18 个,已经完成竞配、开工的海上风电项目约 9000MW。近两年,河北省落地了国电唐山乐亭月坨岛 304MW 海上风电场一期工程、河北建投祥云岛 250MW 海上风电项目、新天绿能山海关海上风电一期500MW平价示范项目,以及新近签约的金风秦皇岛 JD1-2(50 万千瓦)海上风电项目。
全球海风景气度回升,我国未来 3 年海风建设投入或领先全球。全球风能理事会GWEC 发布《2024 全球海上风电报告》显示,2023 年全球风电行业实现新增海上风电装机 10.8 GW 新增装机量比上一年增长了 24%,全球累计海上风电装机容量达到 75.2 GW。GWEC 预测,未来十年(2024-2033 年)全球将新增410 GW的海上风电装机容量,我国未来 3 年海风建设投入领先全球。
2024 年 12 月 30 日,自然资源部发布《关于进一步加强海上风电项目用海管理的通知》,正式明确了海上风电项目布局在在离岸 30 千米以外或水深大于30米的海域。随着相关政策明确推动“深水远岸”的风电项目布局,“深水远岸”的海风项目有望拉动海缆业务需求提升。
板块市场表现强于大盘
2024 年通信(申万)指数上涨 28.82%,沪深 300 指数上涨14.68%,板块表现强于大市,相对收益 14.14%,在申万一级行业中排名第3 名。
全年通信板块估值小幅回升
截至 2024 年底回顾近 10 年,通信行业 PE(TTM,整体法,剔除负值)最低达到过 16.2 倍,最高达到过 126.4 倍,中位数 42.0 倍,2024 底PE 估值为25.1倍,低于 30 分位数水平。 通信行业 PB(TTM)最低达到过 1.3 倍,最高达到7.8 倍,中位数2.8 倍,2024年底估值为 2.2 倍,在历史 30 分位数水平左右。
各细分板块涨跌幅及涨幅居前个股
国信通信股票池由具有代表性的 80 家上市公司组成,2024 年平均涨跌幅为26.18%,各细分领域中,数据中心 IDC、光器件光模块、运营商分别上涨66.5%、43.9%和 29.4%。 从个股表现来看,2024 年涨幅前五的个股为:罗博特科、万国数据、淳中科技、新易盛、德科立。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)