1.1. 计算机板块整体涨幅靠前
2025 年以来(1.1-11.30),A 股申万计算机指数上涨 18.54%,板块整体 跑赢沪深 300 指数 3.5pct,跑输创业板综指数 17.19pct。在申万 31 个一级 子行业中,计算机板块涨跌幅排名为第 10 位。但是在整个 TMT 板块中, 计算机板块涨跌幅落后于通信,电子和传媒,位居最后。

1.2. 细分板块中,SW 其他计算机设备涨幅第一
2025 年(1.1-11.30)申万计算机三级行业中,其他计算机设备(申万)板 块上涨 23.42%,表现较好;安防设备(申万)板块上涨 7.82%,表现较差。表 现靠前的板块分别为:其他计算机设备(申万)(23.42%)、横向通用软件(申 万)(22.13%)、IT 服务Ⅲ(申万)(19.83%)。表现靠后的板块分别为:安防设备 (申万)(7.82%)、通信应用增值服务(申万)(10.49%)、垂直应用软件(申 万)(15.3%)。
1.3. SW 计算机市盈率相对较高
截止到 2025 年 11 月 30 日,SW 计算机市盈率(TTM)大约为 86.00 倍。相较于前面高点的约 100 倍,低点的约 40 倍,相对处于较高的区间。
2.1. 芯片热量产生的原理
根据 pingcode 网站资料,芯片功耗在工作时会向环境释放热量,这是 由于电流通过半导体设备内部电阻时发生能量转换的结果。 芯片在工作时,其内部的晶体管在开关过程中会有一部分能量转换为 热能。这是由电流通过导体造成的焦耳热及晶体管内部电子与晶格相互作 用的能量散发所致。在摩尔定律推动下,晶体管尺寸的不断缩小导致了功耗 密度的持续增加,进一步加剧了芯片的温度上升问题。 晶体管端部电压与电流的交互作用是主要的热量来源。当电子移动形 成电流时,它们会与晶体管材料的原子核发生碰撞,使得部分电能转换为动 能,即热能。这就是焦耳效应,它是电流流经电阻时能量转化的一个表现。 如果芯片不能有效散热,积聚的热量会引发性能下降甚至损坏。 根据集微网报道,芯片过热可能带来的不良影响主要有: 性能下降:过高的温度会导致芯片性能下降,甚至出现死机、蓝屏等故 障。 可靠性降低:高温会加速电子元件的老化,缩短设备的使用寿命。 安全性隐患:极端情况下,过热可能引发火灾等安全事故。 能源浪费:过多的电力消耗不仅增加了运营成本,还加剧了能源危机。
2.2. 散热发展趋势-液冷散热方案开始大规模应用
初期自然对流散热。根据普华有策咨询消息,在电子设备发展的初期, 散热问题并未受到足够重视。许多早期的电子设备,尤其是家电、电视机和 音响等,采用的是自然对流散热方式,即通过空气流动带走设备产生的热量。 空气冷却技术的核心在于风扇加速空气流动或依赖自然对流将热量从设备 表面带走。这种方法结构简单、成本低廉,因此被广泛应用于低功率设备中。 随后液冷技术和热管技术开始应用。随着电子设备发展,金属散热器 (如铝合金散热片)通过增大接触面积提升散热效率,但其在高功率、高集 成设备中散热能力不足。21 世纪起,液冷技术(高导热、冷却液传热,用 于数据中心等高密度设备)和热管技术(液体相变导热、结构简单轻量,适 用于笔记本等小型设备)成为主流,分别满足不同场景散热需求。 根据新浪财经援引合肥市投资基金协会消息,液冷就是用液体替代空 气做冷却介质,跟服务器发热元件热交换,带走热量,确保服务器在安全温 度工作,它是温控底层技术之一。

现阶段智能化集成化是发展趋势。目前,热管理技术及产品已广泛应用 于电子设备、数据中心、电动汽车以及许多工业应用中。液冷、热管冷却逐 渐成为高功率设备散热的主流产品方案,能够有效应对设备日益增长的散 热需求。液冷散热方案尤其在数据中心和高性能计算机中得到了大规模应 用,其高效的散热性能和较低的能耗使其成为最具潜力的热管理方案之一。 与此同时,热管冷却散热产品因其紧凑、无动件的特点,广泛应用于笔记本 电脑、智能手机等消费电子产品。随着技术的不断进步,热管理领域的发展 趋向智能化和集成化。智能温控系统通过传感器和控制算法实时监测设备 温度,并根据需要自动调节冷却系统的工作状态,以确保设备在最佳温度范 围内运行。未来的热管理系统将不仅仅是一个独立的散热模块,而是成为电 子设备集成设计的一部分,提供更加高效、稳定的散热性能。
3.1. 芯片功耗越来越高,风冷已经无法满足散热需求
据北京半导体协会消息,2017 年,英伟达推出了 V100 GPU,功耗为 300 瓦。大部分功耗都以热量的形式散发出去。三年后,也就是 2020 年, 英伟达的 A100 问世,功耗高达 400 瓦。H100 于 2022 年上市,功耗高达 700 瓦。 根据《智算中心基础设施演进白皮书》资料,智算训练需要建立高度集 中化的 GPU 集 群 , 而 智 算 中 心 GPU 芯 片 的 算 力 在 不 断 提 升 , H100/H200/H800 等芯片 TDP 设计功耗已达 700W,2024 年 3 月 GTC 大会 发布的 B200 达 1000W,GB200 已达到 1200W 功耗。 根据金融界报道,GB300 的 TDP 预计提升至 1400W。根据 IT 之家报 道,英伟达下一代 Rubin Ultra GPU 功耗有望达到 2300W。
伴随着智算中心芯片功耗的提升,其自身的散热功耗也在不断攀升,智 算中心中单机柜的热密度大幅度的快速提升,因此,智算中心将面临单机柜 功耗高密化的挑战。 通常人工智能(AI)服务器由 8 卡 GPU 或 NPU 模组构成,基于上 述 芯片的功耗数值,可以确定每台人工智能(AI)服 务器的功耗 在 5kW~ 10 kW。进一 步由服 务 器 组 成 整 体机 柜时,机柜的功率 密度 将 达 到 40 kW 以上。以英伟达(NVIDIA)为例,DGX 架构 8 卡 GPU H100 服务器额定功耗为 10.2kW,安装 4 台服务器的风冷机柜功耗为 42kW。 GB200 架构中,NVL36 机柜功率密度为 72kW,NVL72 液冷机柜功率密度 则为 120kW。 根据中国电信和深知社发布的《亚太区智算中心液冷应用现状与技术 演进白皮书 2024》,以 GPU 算力为核心的智算中心,会成为未来 10 年数 据中心增长的主要推动力。而由于技术的需要,高性能的 GPU 芯片会带来 更高散热功耗、更短距离高带宽的组网技术、以及不断提升的数据中心功率 密度。同时规模化的应用带来大量的电力和水资源的消耗,需要通过更先进 的 技 术 提 供 更 低 的 PUE 和 WUE 。 按 美 国 暖 通 制 冷 空 调 行 业 协 会 ASHRAE 的推荐,当芯片的 TDP 大于 300W,机柜功率密度大 于 40kW 以上时推荐使用液冷制冷技术。同时液冷的应用也可以大幅度较 低 PUE 和 WUE。因此智算的快速发展给液冷技术在数据中心的应用提供 了很好的机会。
3.2. 数据中心能耗要求越来越高,推动液冷相关的需求
根据华经情报网资料,随着服务器核心计算芯片的更新换代,服务器单 芯片功耗不断增加,风冷散热能力有限,能源问题愈发突出。为缓解这一问题,我国政府部门多次发布政策,鼓励企业采用新技术、新工艺、新设备, 降低数据中心能耗。而具备优秀节能效果的液冷服务器成为国家重点支持 行业之一。国家发展改革委、国家数据局等部门于 2023 年 12 月发布的《关 于深入实施“东数西算”工程加快构建全国一体化算力网的实施意见》,明确 表示要推进数据中心用能设备节能降碳改造,推广液冷等先进散热技术。
3.3. 液冷技术分类
根据华经情报网的资料,目前,基于液冷技术的主流方案包括冷板式液 冷和浸没式液冷两种,喷淋式液冷方案国内实施较少。其中,冷板式液冷技 术在可维护性、空间利用率、兼容性方面具有较强的应用优势;但在成本方 面,由于其单独定制冷板装置的原因,导致技术应用的成本相对较高。而喷 淋式液冷技术则通过改造旧式的服务器和机柜的形式,大幅度减少了数据 中心基础设施的建设成本。浸没式技术与其他两种技术相比,虽然器件的可 维护性和兼容性较差,但空间利用率与可循环方面具有较好的表现,降低数 据中心的能耗。

3.4. 液冷数据中心有望迎来快速发展
根据赛迪顾问资料,2023 年 6 月,中国移动、中国电信、中国联通三 家基础电信运营企业发布了《电信运营商液冷技术白皮书》,计划 2023 年 开展技术验证;2024 年开展规模测试,新建数据中心项目 10%规模试点应 用液冷技术;2025 年开展规模应用,50%以上数据中心项目应用液冷技术。 按上述计划,2025 年起,运营商 50%以上的新建数据中心将应用液冷技术。 分析 2025 年 1-5 月公开的新建数据中心项目可发现,液冷普及的实际情况 要比计划的要快,液冷机架在多数运营商新建数据中心所占的比例高达 60%-70%。根据工信部、国家网信办等发布的数据中心规模、增速数据,结 合整理新建数据中心项目情况发现:到 2027 年,中国新建液冷数据中心规 模将突破 1100MW,增速将高于数据中心整体规模增长水平,且 2027 年后 每年新增规模有望保持千兆瓦以上,整体呈现高速增长态势。
根据赛迪顾问资料,按《电信运营商液冷技术白皮书》计划,2025 年 起,液冷数据中心有望进入规模化应用阶段。从液冷数据中心三类路线情况 发展情况来看:冷板数据中心应用范围较广,与服务器兼容情况较好,对常 规数据中心基础设施调整小,且具备初期投资低、运维风险可控等成本优势, 加上从冷却塔、CDU 到液冷板组件供应链成熟、主流厂商技术方案标准化 程度较高、用户认可度高等,有望保持主流地位,到 2027 年占比超过 80%; 浸没数据中心适配单机柜功率密度在 50kW 以上的高密场景,但相变浸没 方案成本过高,且生态封闭,近年来规模逐渐萎缩,相比之下,单相浸没方 案在最大程度保证冷却效果的前提下,对成本进行了大幅优化,随着油质冷 却液的普及,单相浸没方案有望成为高密场景的标配,预计到 2027 年,规 模比重将接近 20%;喷淋数据中心的优势是精准降温局部热点且冷却液用 量少,未来也将迎来一定的发展机会。
4.1. 液冷通用架构
根据《亚太区智算中心液冷应用现状与技术演进白皮书》,液冷架构由 多个部分组成,并且每个部分还可以继续细分,但本质上液冷架构可以描述 为三个部分:热捕获,热交换,冷源。
根据《中兴通讯技术》的《数据中心液冷散热技术及应用》资料,液冷 系统又分为室内侧和室外侧。 室外侧包含室外冷源、一次侧冷却液,室内侧包含冷量分配单元(CDU)、 二次侧冷却液以及液冷机柜。该液冷系统的基本原理是:二次侧冷却液在机 柜内吸收设备热量,并通过 CDU 内的换热器将热量传递给一次侧冷却液, 一次侧冷却液通过室外冷源。最终将热量释放到大气环境中,完成散热。 1)室外冷源:可选择开式/闭式冷却塔、干式冷却器等,冷源的选择应 根据所在地的场地、气象、水电等因素综合考虑。 2)一次侧冷却液:常用的液冷液有去离子水、乙二醇水溶液、丙二醇 水溶液等,并配合具有一定缓蚀、杀菌、阻垢功能的化学药剂使用。冷却液 的选择需要根据液体热物性、部署地理位置及气候条件等综合考虑。 3)CDU:按布置形式可分为集中式与分布式。其中,集中式 CDU 布 置在机柜外,为多台液冷机柜提供冷量,易于集中化部署和管理;分布 式 CDU 布置在液冷机柜内部,每台机柜对应一个 CDU,易于机柜功耗匹 配。
4.2. 冷板式是目前液冷的主流
《亚太区智算中心液冷应用现状与技术演进白皮书》介绍,液冷的热捕 获指的是使用液体从 IT 组件中带走热量。根据热捕获的方式不同,液冷可 以分为多种形式,当前主流的技术方案有三种:冷板式、浸没式、喷淋式。 按《电信运营商液冷技术白皮书》资料,冷板数据中心有望保持主流地 位,到 2027 年占比超过 80%。我们主要分析冷板式液冷。 冷板式 冷板式液冷的冷却液不与 IT 发热元件直接接触,而是通过安装在发热 元件(通常为 CPU/GPU 等大功耗部件)上的冷板(通常为铜铝等导热金属 构成的封闭腔体)将热量带走,这种散热形式也称为非接触式液冷。
《亚太区智算中心液冷应用现状与技术演进白皮书》介绍,根据冷却液 在冷板中是否发生相变,冷板式液冷可以分为以下两种类型:单相冷板和两 相冷板。两种换热类型的制冷架构基本一致,主要区别在于二次侧冷却液不同。单相冷板一般采用沸点较高的水基冷却液,换热过程不发生相变。两相 冷板一般采用沸点较低的制冷剂,换热过程会发生相变。
单项冷板式液冷
根据《中兴通讯技术》的《数据中心液冷散热技术及应用》资料,单相 冷板式液冷通过液冷板将发热器件的热量间接传递给液冷板中的二次侧冷 却液。二次冷却液在设备吸热和 CDU 放热过程不发生相变。根据液冷板覆 盖范围,这种液冷可以分为局部液冷或全液冷:局部液冷通常仅覆盖高功耗 器件,一般带走设备 70% 左右的热量,剩余 30% 热量仍需通过机房空调 或液冷背门以风冷的形式带走;全液冷需要根据通信设备硬件架构和结构 布局定制化设计液冷板,以覆盖所有发热器件。

机柜内包含分液器、液冷板、流体连接器、液冷管路、漏液检测传感器 等。 1)二次侧冷却液:二次侧热量载体以去离子水、乙二醇水溶液、丙二 醇水溶液为主,根据具体场景进行选择。二次侧冷却液需要定期检测 PH、 浊度、残留物、细菌等参数,并符合相关标准要求。 2)单相冷板 CDU:可分为集中式和分布式。其中,集中式 CDU 布置 在机柜外,每列机柜布置一台或几台 CDU,实现主用和备份关系,需要部 署二次侧管网,并考虑各液冷机柜间的流量分配;分布式 CDU 安装在液冷 机柜内,免二次侧管路部署,可根据机柜功耗灵活部署。 3)分液器:用于机柜内流量分配与收集,将低温二次侧冷却液分配到 各设备节点,并收集与液冷板换热升温后的冷却液。其设计选型过程中需要 保证流量分配需要的均匀性,并结合机柜空间、重量等要求综合考虑分液器 的体积。 4)液冷板:液冷板设计需要根据设备芯片功耗进行芯片冷板设计、根 据芯片布局及单板结构空间设计冷板连接管路路由,具有一定的定制化特 性。但在进行设计时应尽量保证内部零件的通用性,如内部翅片规格、进出 口规格应尽可能一致,以降低成本。此外,液冷板的设计还需要综合考虑实际功耗、工作压力、流速等。 5)流体连接器:可实现无泄漏通断,在设计选型时需要综合考虑工作 流量、温度、压力、流阻特性、安装方式、直插/盲插、接口规格等。 6)液冷管路:二次侧冷却液流通通路,参与液冷机柜内各设备节点的 流量-流阻分配;液冷管路设计选型需要考虑材料兼容性、流速、管路布置、 安装方式、流量分配设计等。 7)漏液检测传感器:针对沿液冷板、液冷管路、分液器等可能出现液 体泄漏的位置或路径布置,及时检测泄漏状态,并触发漏液告警策略,及时 告知运维人员发现漏液事故,便于及时处理,有效地保护液冷系统与机房安 全。漏液检测传感器可分为检测线、检测带、光电式、电极式、浮子式等, 适用于不同的泄漏位置和泄漏场景。 单相冷板式液冷技术对通信设备和机房基础设施改动较小,业内已具 备多年研究积累,目前技术成熟度最高,它已成为满足芯片高热流密度散热 需求、提升数据中心能效、降低总体拥有成本 (TCO) 的有效方案。
两相冷板式液冷
根据《中兴通讯技术》的《数据中心液冷散热技术及应用》资料,两相 冷板液冷系统架构与单相液冷板液冷相似。所不同的是二次侧冷却液在设 备内通过液冷板吸热发生汽化,在 CDU 内冷凝为液态,充分利用了冷却液 的相变潜热,综合散热能力更强,可达 300 W/cm2 以上。由于运行过程中 系统内冷却液发生相变,两相冷板液冷系统的压力会高于单相冷板液冷,其 二次侧冷却液、液冷板、流体连接器、液冷管路等为了适配系统压力也要满 足一定的特殊化要求。
1)二次侧冷却液:以制冷剂、氟化液等低沸点工质为主,在选型时主 要考虑热物性、环保性、安全性、工作温区和压力、材料兼容性等因素。 2)两相冷板 CDU:两相冷板液冷系统压力等级通常较高,其压力控制 系统区别于单相系统,一般采用温控型压力控制方案。同时,两相 CDU 补 液系统在设计时也需要考虑工质充注量对于系统压力的影响。3)两相液冷板:其结构与单相液冷板相似,在设计时需要重点考虑冷 板承压能力,增加汽化核心、促进气泡脱离以提升散热性能,常见的方案有 表面微处理、多孔介质填充等。 4)两相流体连接器:高压系统对流体连接器的插拔操作和带压维护都 提出了很高的要求。目前螺纹旋拧连接器能够较好地满足需求。 5)液冷管路:考虑系统压力及气相工质泄漏风险,优选金属软管或汽 车空调橡胶管。两相冷板式液冷核心技术的优势在于能够满足超高热流密 度散热需求,但现阶段技术成熟度仍较低,相关产业链还有待完善。
5.1. 全球 AI 行业有望保持较快发展
根据浪潮信息和中国信通院发布的《人工智能算力高质量发展评估体 系报告》,2023 年以来人工智能市场持续保持高增长态势,成为推动各国经 济增长和技术创新的关键因素。据 IDC 研究,预计 2022 年至 2032 年全球 人工智能产业规模的复合增长率高达 42%,2032 年将达到 1.3 万亿美元。 基于人工智能的广阔前景,全球科技巨头纷纷加大对 AI 基础设施布局以维 持行业竞争力。国际上 Meta、微软&OpenAI、xAI 等多家 AI 巨头陆续宣布 或者完成 10 万卡集群建设,国内通信运营商、头部互联网、大型 AI 研发 企业等均发力超万卡集群的布局。
5.2. 算力需求旺盛带动液冷服务器的发展
根据中商情报网资料,人工智能发展势头强劲,算力需求旺盛,不断推动液冷服务器成为“刚需”硬件。中商产业研究院发布的《2025-2030 年中国 液冷服务器行业市场发展现状及潜力分析研究报告》显示,2023 年中国液 冷服务器市场规模约为 109 亿元,同比增长 49.3%。中商产业研究院分析师 预测,2024 年中国液冷服务器市场规模将达 201 亿元,到 2027 年市场规模 超 400 亿元。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)