智算中心是数据中心形式的重要新型基础设施
数据中心(IDC, Internet Data Center) 是为企业或机构提供集中化IT基础设施支持的专用设施。通过物理空间(如机房、建筑或园区)承载客户部署的服务器、存储及网络设备集群,并提供稳定电力供应、环境温控、物理安防、实时运维监控等核心服务,从而保障客户数字化应用的高效运行、数据存储及服务交付。 数据中心按算力类型分类可分为通用数据中心、智算数据中心和超算数据中心。 智算中心(Artificial Intelligence Data Center, 简称AIDC)作为承载算力、发展人工智能的关键基础设施,目前已经进入了高速建设周期。
智算需求爆发推动数据中心持续增长
在人工智能、大数据分析及机器学习等技术快速迭代的推动下,智算需求成为数据中心发展的重要驱动力。 根据中国信息通信研究院测算,截止2023年底全球算力总规模约910EFLOPS(FP32),同比+40%,核心增长驱动因素是智算中心的大幅扩张。 据Semianalysis预测,全球数据中心核心IT电力需求(给服务器供电计算电力消耗,不包括制冷)2023 年为49GW,2026年增长至96GW,47GW增量电力需求中新建智算中心需求达40GW(占比85%);据彭博社预测,智算中心基础设施带来的生成式AI收入2024-2032年CAGR超30%。
海内外大厂AI基建加速迎来景气周期
从海内外大厂CAPEX支出情况看,AIDC基建投资成为资本开支核心方向,AI基建景气上行周期确立。 海外大厂(谷歌、微软、亚马逊、Meta)2025财年资本支出指引达3200亿美元,相较2024年增长约39%;微软24Q4财报表示,云计算和AI相关支出几乎占总资本支出的全部,其中一半用于基础设施需求,构建和租赁数据中心,其余的云和AI相关支出主要用于服务器(CPU和GPU)。 国内大厂资本开支情况看,阿里、腾讯2024年起资本开支均出现同比大幅增长,据路透社报道字节跳动2025年资本支出超过1500亿元人民币(206.4 亿美元),其中大部分将集中在人工智能上;阿里2024年Q4的资本开支达318亿元(同比增长259%,环比增长82%),2025年Q1的资本开支达246亿元(同比增长121%),CEO吴泳铭宣布未来三年将投入超3800亿元用于建设云和AI基础设施,总额超过去10年总和(3000亿元人民币);腾讯2024年Q4的资本开支约366亿元(同比增长386%,环比增长114%),2025年Q1的资本开支达275亿元(同比增长91%)。
AI基建的变化:AIDC功率密度提升对AI基建的供电、散热提出高要求
AI基建产业链上游可分为基建基础设施(包括基础施工、制冷系统、供配电系统、建筑装修)和IT基础架构(AI芯片、AI服务器、网络设备、存储设备)。供配电系统的新变化在于AIDC对于超大容量电力的获取与匹配:随数据中心用电量飙升带来电力瓶颈凸显,尤其当单个数据中心用电量跃升至200MW乃至500MW以上时,如 OpenAI的“星际之门”项目预计高达数千兆瓦的电力需求,高效、稳定地获取并匹配电力资源,是制约算力规模提升的关键。 制冷系统的变化在于超高功率密度机柜带来对散热要求的提升。AIDC时代,每机柜功率可达20-50KW甚至100KW,单机功率的大幅提升带来发热量的提升以及与之对应的散热要求。
AI基建产业链价值量拆分:AI基建中供配电和制冷是核心环节
据Dgtl Infra数据,建设数据中心成本每GW托管IT负载的成本在70-120亿美元;据《中国智算中心(AIDC)产业发展白皮书(2024年)》,AI产业链上游AIDC的基础设施建设和IT基础建设价值量之比约为15%:85%。 数据中心基础建设价值量和作用维度看,供配电系统和制冷占主导地位:据Dgtl Infra数据,数居中心基础设施建设可分为四大类,1)土地和建筑外壳,价值量占比15%-20%;2)供配电系统,包含柴油发电机、电池、UPS(不间断电源)、变压器等,价值量占比40%-45%;3)制冷系统,包括机房空调、冷水机组、冷冻水储存和管道等,价值量占比15%-20%;4)建筑装修,价值量占比20%-25%。因AIDC对供配电和散热要求提升,液冷数据中心的制冷设备和供配电系统价值量进一步增加。国内数据中心主用电源以市电接入为主,海外数据中心为保证电力稳定供应会采用燃气轮机发电,若考虑燃机作为主用电源供电,则供配电系统价值量占比更高。
AI基建供配电设备之主用电源-燃气轮机
数据中心的主用电源是为数据中心内IT设备、制冷系统、照明系统等关键负载提供常态电力供应的核心电源系统,主要作用是在非故障状态下持续、稳定地为基础设施供电。数据中心主用电源通常由外部电网市电提供,通过变配电系统(如变压器、配电柜)接入数据中心内部。海外存在电网可靠性不足和区域性电力紧张,故新建AIDC会采用燃气轮机发电机组作为主用电源进行发电。
燃气轮机发电机组是以燃气轮机为原动机,通过传动轴驱动发电机发电的成套动力设备,主要由柴油发动机、发电机、控制系统以及其他零部件组成。燃气轮机是发电机组的核心动力装置,主要由压气机、燃烧室、涡轮组成,压气机负责吸入空气为燃烧提供氧气,燃烧室将空气与燃料混合燃烧产生高温高压燃气,燃气推动涡轮叶片转动产生机械能驱动发电机。
AI基建供配电之主用电源:国内接入市电,海外催生燃机发电/核电需求
国内拥有稳定低成本供电体系以市电接入为主,海外存在电网可靠性不足与区域性电力紧张衍生出燃机发电和核电需求。海外电网可靠性不足:北美和欧洲部分地区电网老化,维护成本高,极端天气(如飓风、暴雪等)易导致电网故障,影响数据中心的稳定供电。如2021年美国得克萨斯州遭遇暴风雪,电网超负荷运行导致大面积停电,众多数据中心受到影响。区域性电力紧张:北美数据中心主要分布于加州、德州、弗吉尼亚州,随着AIDC快速发展存在区域性缺电的风险(国内拥有特高压输电的基础设施优势);北美电力可靠性委员会 (NERC)日前发布《2024年夏季可靠性评估报告》,在夏季极端高温影响下,美国中西部、西南部、东北部等地区面临电力供应不足风险,居民用电或无法得到保障。
热端铸件叶片具有维修+新机双重需求,是耗材属性环节
燃机需求可分为新机增量和存量维修(二者价值量之比约为1:2),热端叶片因高温高压工作环境具有耗材属性双重受益。 燃气轮机的涡轮转子工作叶片在高温(1400度以上)、高压、高速的气流环境中工作,同时又因为其在燃机运转中的关键作用(一个叶片折断打坏其他叶片会导致至整台发动机无法工作),故需要定期进行检修并更换。 燃气轮机整机寿命在20-30年,生命周期经历2-3次大修,4-6次中修,热端叶片及燃烧室部件在中修、大修中进行更换较整机拥有耗材属性,以GEV发电板块设备与服务收入之比(2024财年设备/服务收入分别为58/124亿美元)可知,热端部件的维修收入成为燃机产业链价值量的重要增量。
AI基建供配电设备之备用电源-柴油发电机组
数据中心的备用电源是是在主用电源(如市电)故障或中断时,能迅速启动并为数据中心关键设备持续供电的系统,旨在保障数据中心稳定运行,避免断电导致的不良后果。数据中心通常由UPS(不间断电源)和柴油发电机配合作为主用电源市电供应中断时的备用电源。UPS 依靠备用电池组提供短时断电的后备保证,而较长时间的市电中断,则依靠柴油发电机组来提供电源。
柴油发电机组是一种以柴油发动机为原动机,驱动同步发电机发电的电源设备,主要由柴油发动机、发电机、控制系统及其他零部件等组成。柴油发动机系统将柴油的化学能转化为机械能,驱动发电机运转,发电机将发动机输出的机械能转化为电能,控制系统监测机组运行状态,实现自动启停、故障保护及数据通讯。
AI基建供配电之备用电源:柴油发电机组是主用电源断电时的必要保障
保障用电是数据中心正常运转的关键,IDC通常由UPS(不间断电源)和柴油发电机配合作为主用电源市电供应中断时的备用电源。UPS 依靠备用电池组提供短时断电的后备保证,而较长时间的市电中断,则依靠柴油发电机组来提供电源。 柴油发电机则具有功率大、启动时间快、持续供电时间长、不受电网波动影响等优点,能够为数据中心提供长时可靠的备用电力保障。 相关条文也对数据中心备用电源要求做出规范,柴发是备用电源的建议选择。2017年住建部发布的GB50174 - 2017《数据中心设计规范》第8.1.12条规定:“A级数据中心应由双重电源供电,并应设置备用电源。备用电源宜采用独立于正常电源的柴油发电机组,也可采用供电网络中独立于正常电源的专用馈电线路。当正常电源发生故障时,备用电源应能承担数据中心正常运行所需要的用电负荷。
AI基建之制冷系统
数据中心制冷系统是保障IT设备(服务器、网络设备等)安全稳定运行的核心基础设施之一,主要是调节机房内温度、湿度和气流分布,及时将设备运行产生的热量排出,维持设备在适宜的环境下稳定运行。
数据中心制冷系统可以分外部冷源系统(一次侧)和内部制冷终端设备(二次侧)。外部冷源设备包括冷水机组(离心式/螺杆式)和冷却塔,冷水机组通过压缩机将低温制冷剂压缩成高温高压气体,经冷凝器与冷却水换热后释放热量至冷却塔,内部制冷终端设备按方式可分为风冷系统、冷板式液冷系统和浸没式液冷系统。液冷方案凭借其更强的散热性能将逐渐替代风冷,冷板式液冷可以兼容现有风冷架构改造,维护上较浸没式液冷更简单,应用最早相对最成熟,是目前应用的最主流方案。
数据中心内部制冷:液冷将替代风冷成为产业趋势
AIDC功率密度提升带来散热需求提升以及数据中心要求低PUE,液冷替代风冷成为数据中心温控成为产业趋势• AIDC机架功率密度不断提升,随着机架功率密度提升到40KW以上,液冷凭借其强于气体的高效热传导能力成为散热的必要选择。 从对数据中心的PUE(电能利用效率)发展要求看,液冷凭借其低PUE、高密度等优势将加速发展。国家发改委、工信部、国家能源局等部门制定的数据中心绿色低碳发展专项行动计划》显示2025年底,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不得高于1.2。液冷优势在于低PUE:冷板式液冷PUE<1.2,浸没式液冷PUE<1.1,适配产业发展需求。 据IDC数据,2022年中国服务器市场液冷渗透率在10%,替代空间广阔。



(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)