在硬件端以外,与大模型行业密不可分的供配电系统、散热技术、高速互联与 存储开发者软件平台及生态终端亦具备优良的投资前景。
算力需求提升带动网络带宽成倍增加,驱动数通光器件需求高增。AI 大模型的 训练和推理需要处理海量数据,并依赖于大规模 GPU 集群内及集群间的高吞吐 量、低延迟互连。因此,大模型的快速发展对网络硬件的性能提出了更高的要 求,数据通信的互联速率正从 400G 向 800G 快速过渡,并进一步向 1.6T 甚至 3.2T 演进。光模块等光器件作为实现高速数据传输的核心组件,在全球互联网 云厂持续加大资本开支建设或升级数据中心的背景下,需求快速增长。2024 年, 400G 以上的高速光模块全球出货量近 2000 万只,2025 年预计将增至 3700 万 只。据 Cignal AI 预测,数据通信光器件全市场规模在 2025 年将增长超过 60%, 达到 160 亿美元以上。
数通速率提升推动光模块技术的快速迭代,也对连接器的性能指标提出更高的 要求,驱动光互连成为主流路线。美国半导体厂商 Amkor Technology 指出,AI 加速器、GPU、高容量交换机正在快速实现算力的提升,但在芯片间、主板间、 机架间的互连瓶颈,仍制约着数通速率的提升。根据康宁,当数据速率达到 200 Gb/s 时,通过铜缆传输电信号的物理性能将达到临界点、所需的功率也将 过高。随着 AI 模型对数据传输带宽的要求持续攀升,铜互连技术逐渐暴露出性 能瓶颈;相较而言,光互连具有传输损耗低、带宽容量大、抗干扰能力强及支 持长距离传输等优势。 受益于 AI 驱动数据中心架构高速迭代,光模块/光器件是核心受益环节,中国 相关企业竞争力突出。根据 Lightcounting 统计,2024 年前十大光模块厂商中, 有 7 家属于中国企业,中际旭创连续三年排名第一,央企中国信科旗下光迅科 技、青岛国企海信宽带、武汉国企华工科技也均名列前十。随着全球大模型加 速更新迭代,海外云厂商加大资本开支,国内算力链建设进度也逐步提速,高速光模块需求持续攀升。将光引擎和 ASIC 芯片共同封装在一起的 CPO(光电 共封装)技术,具备性能和功耗的双重优势,相关产品将在 2025 年下半年逐步 交付,或推动下一代数据中心架构逐步扁平化,成为主流光互连解决方案,为 光互连器件提供增量需求。
AI 算力演进提升数据中心的供电需求,引导供配电系统向模块化、预制化和集 约化发展。供电指从数据中心从外部电网或发电机获取电力,电力经过变压后, 再将转换后的电力按需分配至数据中心内不同区域的设备以完成配电。稳定的 供配电是 AI 算力中心的底层刚需,提供易部署、适配度高、高性价比和稳定性 的供配电厂商将会迎来增长机遇。国内代表供配电标的包括科华数据、科士达、 中恒电气、禾望电气、科泰电源、亿纬锂能等。 科华数据提供各式变流器、逆变器、蓄电池、电力解决方案及外部电源,系产 品矩阵最丰富的供配电厂商之一。中恒电气主攻 5G 领域的电力系统及相关模 块化组件、数据中心供电系统预制化解决方案,服务体系较为成熟。禾望电气 提供一体机、变流器、变频器以及各类电力系统的模块化组件,在功率与性能 上选项丰富。科泰电源主攻电站及电力控制系统。亿纬锂能主攻储能电池、动 力电池以及锂电池技术,落地场景偏向物联网和 EV 领域。 除了从外部电网供电,AI 数据中心亦可采用备用电源供电。常见的外部供电技 术包括小型模块化反应堆、固态氧化物燃料电池、大功率 UPS(不间断电源) 和柴油发电机。科华数据在大功率 UPS 上已有布局,欧陆通已推出多种高效率、 高功率密度的数据中心电子电力产品,落地场景丰富,服务体系成熟。
随着 AI 算力需求和芯片性能不断上升,未来 AI 服务器将需要降温能力更强、 能耗更低的散热技术。AI 数据中心高功耗的特性使液冷技术低能耗、高散热的 优势突出。以 AMD Opteron、英特尔至强、奔腾建立的传统 CPU 服务器处理 器的单个功耗范围为 50W~220W(中低端 PC、家用电视的水平),而基于英伟 达 A100/H100/B200、昇腾 910B 建立的 AI 服务器处理器的单个功耗范围为 220W~1,000W,对应的额外散热需求约达到 4~5 倍。算力升级几乎必然带来 散热需求的全盘上升,为国内液冷市场及相关供应商带来增长空间。 市场上两种主流的服务器液冷技术为冷板式液冷和浸没式液冷;冷板式液冷的 产品成熟度较高、行业布局多,应用范围广泛;浸没式液冷则以接近百分百散 热效率和成本优势有望成为新式技术路线。冷板式液冷的散热机理为导热板传 热,冷却液不直接与热体接触;初始定制成本适中,后续运维成本低,兼容性 极强;冷板式液冷的市场占比约为 65%,国内主流供应商为浪潮信息。浸没式 液冷需要发热体完全浸泡在冷却液内,需要较高的冷却液成本,并且需要兼容 性测试;但是后续运维或系统改造的成本较低;浸没式液冷的市场占比约为 34%,国内主流供应商为曙光数创。 液冷市场潜力巨大,可以考虑积极布局数据中心液冷及散热领域。液冷泵是液 冷系统的核心组件。根据数据中心的规模,每一个采用液冷技术的 AI 服务器至 少需要数十个至上百个液冷泵。AI 算力升级与大模型行业发展使液冷系统组件成为行业刚需。国内液冷泵供应商中金环境、新界泵业、大元泵业正在逐渐替 代格兰富、威乐等外资厂商;并且中金环境的液冷泵已经广泛应用于华为、腾 讯的数据中心。液冷技术成熟、产品矩阵丰富、具备头部服务器厂商合作关系 的国产液冷供应商均有望带来显著回报。

更先进的互联与存储技术将有效缩短训练过程中数据加载和传输的时间,从而 提升训练效率。大模型的训练过程包括许多文本、图像、音频和视频数据频繁 地在内存、显存和存储设备之间进行传输和交换。在分布式训练场景下, InfiniBand 和以太网(RoCE v2)为系统提供每秒太字节(TB)单位的高带宽、 低延迟互联技术确保数据在不同计算之间的高效传输,避免产生训练瓶颈,并 且加速分布式训练的过程。高性能存储技术,例如 Lustre 和 IBM 的 GPFS 也是 通过提供每秒太字节单位的极大吞吐量和百万级 IOPS(每秒输入/输出操作) 以满足模型训练极高的数据读写需求。 为了突破单集群算力规模、电力供给和空间限制,长距离组网技术助力 AI 行业 进行跨数据中心分布式训练,重点关注国内光通信、交换机、共封装光学 (CPO)、有源电缆(AEC)和光交换技术厂家。相关标的包括光迅科技、仕 佳光子、长飞光纤、中际旭创、源杰科技、长光华芯、博创科技、天孚通信、 亨通光电等。 高带宽域(HBD)对于大模型训练效率至关重要,但是现有的 HBD 在可扩展性、 成本和容错率上存在显著限制。最近,北京大学、阶跃星辰和曦智科技的研发 团队合作推出了一种基于光交换模组为中心的高带宽域架构 InfiniteHBD,单位 成本仅为英伟达 NVL-72 的 31%,且 GPU 浪费率低于其 10%。相较于以交换 机、GPU 或交换机-GPU 混合型三种传统的 HBD 架构,InfiniteHBD 采用的光 交换技术(OCD)实现了动态可重构的点对多点连接,具备节点级故障隔离和 低资源碎片化的能力,在可扩展性和成本上全面优于市面方案。曦智科技已经 在光电混合计算领域取得显著进展,达到全球领先水平,现有产品涵盖光子计 算、光子网络和激光网络三个方向。
我国 AI 芯片产业正迎来蓬勃发展的新阶段,众多本土创新企业在云、边、端等 多个应用领域崭露头角,共同构筑起百花齐放的竞争格局。这些企业不仅在硬件架构上推陈出新,更在软件生态建设上持续发力,力求打破国际巨头的技术 壁垒,加速国产替代进程。在通用人工智能浪潮以及国内大模型技术飞速发展 的背景下,与 AI 芯片配套的软件平台及开发空间也是支撑 AI 算力增长的核心 驱动点。国内芯片厂商需要在不断优化硬件性能的同时,不忘打造软件生态, 激励 AI 应用的开发与创新。 寒武纪作为国内云端 AI 芯片的领航者,推出了 Cambricon NeuWare 软件平台, 采用云边端一体、推训一体架构,可以实现从单卡到集群的分布式系列任务,并且 随时进行智能应用的开发、迁移和调优。壁仞科技 BIRENSUPA 软件平台构建了 一个完整且功能强大的 AI 软件开发体系,涵盖了从底层硬件抽象层到编程模型、 BRCC 编译器、深度学习与通用计算加速库、以及针对不同场景的应用 SDK。 BIRENSUPA 全面支持 TensorFlow 和 PyTorch 等主流深度学习框架,并集成了 自研推理加速引擎,在国产 AI 软件平台中处于领先地位。后摩智能聚焦存算一 体智驾芯片,其后摩大道软件平台旨在为智能驾驶提供高效、可靠的 AI 算力支持。 摩尔线程致力于全功能 GPU,其 MUSA SDK 与 AI 软件平台为图形渲染、通用计 算和 AI 应用提供了全面的开发环境。