2026年专用设备行业:AI算力驱动散热架构升级,液冷一次侧设备迎来价值重估——AIDC液冷深度报告

AIGC 驱动散热需求爆发,液冷已成首选解决方案

1.1 AIGC 浪潮驱动全球算力基础设施建设进入爆发式增长周期

AI大模型迭代与商业化落地加速,共同推动算力需求在训练端与推理端呈现指数级增长。训练端,随着 AI 大模型从基础研发向超大规模、多模态、AI 智能体(Agents)升级,模型的参数量从 1.17 亿提升至数万亿,模 型结构也从稠密 LLM 模型向 MoE稀疏化模型以及多模态模型持续演进发展,单次任务 Token 消耗量呈指数级 上升。与此同时,模型数量也在呈井喷式增长,据中国信息通信研究院统计,截至 2025 年 6 月底,我国已发布 1509 个大模型,在全球已发布的 3755 个大模型中数量位居首位。推理端,AI 大模型推动各领域智能化转型加 速,已从初步应用向深度赋能阶段迈进,成为推动行业高质量发展的核心驱动力。从发展趋势来看,随着多模 态大模型技术的不断迭代以及具身智能的逐步落地,AI 技术将打破现有应用边界,更深层次地融入生产生活各 领域,催生出新的应用场景与商业模式。无论是从 AI 业务负载还是应用发展趋势,都在驱动算力需求呈现爆发 式增长。 AIDC 作为 AI产业的核心算力基座,其建设规模与增速与 AI行业发展高度相关,当前全球算力技术设施 建设正进入新一轮快速发展期。根据科智咨询与 Global Growth Insights 数据,2021 年全球数据中心市场规模为 765.6 亿美元,预计 2026 年将达到 1459.2 亿美元,2027 年将增至 1632.5 亿美元,到 2035 年将进一步达到 2621. 5 亿美元以上,未来十年全球 AIDC 市场将呈现高速增长态势。国内市场方面,根据工信部数据显示,截至 2025 年 6 月,我国在用算力中心标准机架达 1085 万架,智能算力规模达 788EFLOPS,干线 400G 端口数量大幅增加 至 14060 个,存力总规模超过 1680EB,全国算力中心平均电能利用效率(PUE)降至 1.42,算力基础设施规模 和水平不断提升。与此同时,大型以上算力中心机架数量占算力中心总机架规模比重逐年上涨,部分超大型算 力中心的平均单机柜功率已达 20kW,高功率密度、高算力的大型、超大型算力中心已经成为未来建设的重点。

本轮全球算力基础设施建设提速主要源自国内外大型科技企业持续的资本开支增加。自 2022 年以来,北美 四大云厂商为代表的国内外大型科技企业资本开支经历了显著的周期性变化。2022 年至 2023 年上半年,受宏 观经济逆风及疫情后需求变化影响,资本开支增速放缓甚至出现负增长。然而,自 2023 年下半年起,受生成式 AI 技术突破驱动,无论是海外的科技巨头,还是国内的互联网大厂,均在人工智能基础设施上投入重金,开启 了新一轮激进的“AI 军备竞赛”,资本开支在 2024 年和 2025 年呈现爆发式增长,主要资金流向 AI 基础设施, 主要包括购买 GPU 和定制芯片、建设或租赁大规模智算中心、采购配套能源设施等,以应对大模型训练与推理 带来的算力挑战。2025 年全球各大云厂商均宣布了近千亿美元级别的资本开支计划,核心投向用于 AI 训练和 推理的 GPU 集群,其中 OpenAI 正计划到 2030 年累计投入约 6000 亿美元用于算力支出,字节跳动初步规划 2026 年资本开支 1600 亿元人民币,较 2025 年同比增长 7%,阿里云则在未来三年 3800 亿元资本开支基础上额 外增加投入。

1.2 AIDC 单机柜功率密度持续攀升,倒逼散热技术升级与需求放量

从 IDC 到 AIDC,数据中心单机柜功率密度持续提升,推动散热从辅助选项升级为刚需。传统 IDC 以通用 CPU 为核心,基于 CPU 和云存储集群提供的相关云服务,通常由多个物理服务器组成,通过网络连接形成一个 虚拟化的计算环境。而 AIDC 通常采用芯片异构计算架构,结合 CPU、GPU、NPU、TPU 等多种芯片,形成高 并发的分布式计算系统,应用于神经网络模型的训练及推理等。为了支撑 AI 智能化时代高速增长的规模算力需 求,AI 算力建设难以通过简单服务器堆叠来解决,高密度、集群化的 AIDC 成为主流发展方向。同时,AIDC 为 了支撑规模算力供应,AI 芯片的算力密度和功率密度快速增长,整机柜设计上为了获得低时延带来的计算效率 收益,单机柜内电互连域的芯片数量也在持续增长,整机柜功耗逐步从 50kW 演进到未来的 300kW 以上,使得 散热需求大幅提升,散热设备也成为 AIDC 标配。

AIDC 单机柜功率迅速攀升,散热效率制约算力提升,散热技术从风冷升级为液冷。传统 IDC 中单机柜功 率仅为 2-10kW,采用风冷技术即可满足散热需求。AIDC 中单张 GPU 功耗可达 700W-1000W,英伟达最新 GB300 超级芯片的峰值功耗更是高达 1400W,导致 AIDC 中单机柜功率密度跃升至 50kW 及以上,在 Blackwell 架构服 务器更向 100kW 级别迈进,此时,传统风冷等散热技术已无法满足高密算力的散热需求,散热效率成为制约 AIDC 算力提升的核心因素,新型散热技术“液冷”因更高的散热能力和系统能效更优成为 AI 算力基础设施的 主流部署模式。2025 年全球计算联盟(GCC)联合数十家头部企业共同起草《AIDC 基础设施规模》规范明确 要求,新建 AIDC 单机柜功率密度≥50kW,同步强制配备液冷系统,英伟达最新 Rubin 架构更是采用 100%全 液冷设计,以“大冷板+微通道”方案为核心,这均标志着高密机柜与先进散热技术已成为 AIDC 建设的标配。

1.3 “双碳”背景下 PUE 要求持续收紧,液冷等散热新技术加速渗透

在“双碳”目标推动下,全球各国加强数据中心能效管控,促进液冷技术加速渗透。电源使用效率(PUE) 是衡量数据中心能效的核心指标,计算逻辑为数据中心总能耗与 IT 设备能耗的比值,比值越低,代表数据中心 能效越高、碳排放越低,而散热系统能耗占数据中心总能耗的 20%-30%,是影响 PUE 的核心因素。在全球大力 推进“双碳”背景下,各国对 PUE 的管控标准持续收紧,降低 PUE 的关键突破口在于散热技术的革新,这将直 接加速散热新技术的研发与规模化渗透。

国内政策层面,国家发改委、国家能源局、国家数据局等部门联合印发多项政策,明确 AIDC 能效管控要求,其中《数据中心绿色低碳发展专项行动计划》提出,到 2025 年底,国家枢纽节点新建数据中心绿电占比超 过 80%,全国平均 PUE降至 1.5 以下,新建大型项目 PUE 严格控制在 1.25 以内,枢纽节点项目不高于 1. 2。目 前,国内八大枢纽节点数据中心集群平均 PUE 已达到 1.3 左右,最先进数据中心 PUE 最低降至 1.04,接近国际 领先水平。国际层面,欧美主要国家同样在强化数据中心能效管控,美国、欧盟均出台相关政策,要求新建数 据中心 PUE≤1.2,推动液冷等高效散热技术的应用。随着 PUE 管控标准的持续收紧,风冷技术将逐步退出先进 AIDC 场景,冷板式、浸没式液冷等新技术的渗透率将快速提升,预计 2026 年国内 AIDC 液冷渗透率将突破 80%。

1.4 液冷解决方案优势明显,已成为 AIDC 制冷系统首选方案

液冷是一种利用液体作为冷却介质,通过与发热部件进行热交换来带走热量的散热技术,适用于需提高计 算能力、能源效率、部署密度等应用场景,是专为高密度计算设备提供的温控解决方案。液冷利用了液体的高 导热、高热容特性替代空气作为散热介质,与传统风冷散热对比,液冷系统具有能耗低、散热效率高、工况优 异、低全生命周期成本(TCO)等优势,是解决数据中心散热压力和节能挑战的必由之路。 ①耗能低:液冷散热技术具有传热路径短、换热效率高、制冷能效高等特点使得液冷能耗相对较低。液冷 系统中低温液体通常由 CDU(冷量分配单元)直接供给通讯设备,传导路径短,能量损耗低,其一次侧与二次 侧通过换热器实现液体热交换,换热效率较高。此外,液冷散热可直接降低芯片温度,从而带来更高的可靠性 和更低的能耗,整机能耗预计可降低约 5%。 ②散热效率高:液冷系统常用介质种类较多,且液体载热能力、导热能力和强化对流换热系数均远大于空 气,可直接作用于单芯片,具有更高的散热能力。数据中心整体送风需求量大幅降低,使得高功率设备部署密 度增加,从而提高数据中心空间利用率、节省用地面积。 ③工况优异:液冷散热技术利用泵驱动冷却介质在系统内循环流动并进行散热,直接作用于发热器件或关 键高功率器件,可降低冷却风机转速或者采用无风机设计,有效降低工作噪声,提升机房运维环境舒适性。 ④低 TCO:液冷系统节能效果极佳,使用液冷解决方案的数据中心 PUE可降至 1.2 以下,每年可节省大 量电费,能够极大的降低数据中心运行成本。相比于传统风冷方案,液冷散热技术的应用虽然会增加一定的初 期投资,但可通过降低数据中心 TCO 回收投资。根据中兴通讯测算,以规模为 10MW 的数据中心为例,比较 液冷方案(PUE1.15)和冷冻水方案(PUE1.35),预计 2.2 年左右可回收增加的基础设施初投资。

综合上述分析,AIGC 浪潮驱动算力需求爆发、AIDC 单机柜功率密度攀升、“双碳”背景下 PUE管控收紧, 三大因素形成共振,推动散热技术升级与需求放量,下一代散热技术“液冷”已成为 AIDC 产业链中确定性高、 空间大的发展方向。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告