1.1、正式落地:八大枢纽、十大集群启动
八大枢纽、十大集群落地,“东数西算”正式启动。2 月 6 日,国家发改委等四部门联合 下发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家算力枢纽节点。同时,规划在和林格尔、中卫、庆阳、天府、重庆、贵 安、韶关、芜湖、张家口以及长三角生态绿色一体化发展示范区共 10 个区域布局国家数 据中心集群。
其实早在 2016 年,工信部首次公布《全国数据中心应用发展指引(2017)》中就对数据 中心均衡分布有考虑。以北京及周边地区为例,指引提出北京地区数据中心资源紧缺,相 关应用需求可转移至河北、内蒙古、天津等地数据中心承接。此次通知可视为 2021 年 5 月 24 日《全国一体化大数据中心协同创新体系算力枢纽实施方案》的正式落地。
我们认为此次工程本质目标是实现算力资源的“腾笼换鸟”。此次工程明确了八大枢纽的 不同算力需求承接:其中粤港澳大湾区、成渝地区、长三角地区、京津冀地区主要负责有 低时延要求的数据处理,如以工业互联网、自动驾驶、金融证券、智慧城市等代表的创新 性应用。而贵州、内蒙古、甘肃、宁夏这 4 个西部节点将负责承接全国范围的后台加工、 离线分析、存储备份等非实时算力需求。长远来看,东部地区承接的应用多契合产业数字 化转型的大方向,对经济增长有强带动效应;而西部地区在此过程中,也将逐渐实现“瓦 特变比特”,东西部总体实现高质量发展。

1.2、重点指标:提高上架率、降低PUE
通过对“东数西算”主要文件的梳理,我们认为“东数西算”有以下两大核心要点:
(1)提高上架率,供给端有序增长:目前算力资源结构性不足问题突出,工程明确强调 集群内数据中心的平均上架率至少要达到 65%以上。同时,贵州、内蒙古、甘肃等地 2021 年末也陆续出台建设全国一体化算力网络国家枢纽节点的建设指引,明确要求数据中心平 均上架率≥65%。
(2)“双碳”背景下,能效指标更加严格。2018 年全国数据中心耗电量达到 1608.9 亿千瓦时,占我国全社会用电 量的 2.35%。如此需求下,我国对耗能指标早有要求。此前工信部《新型数据中心发展三 年行动计划(2021 中心发展三年)》规定,到 2021 年底,新建大型及以上数据中心 PUE 降低到 1.35 以下;到 2023 年底,新建大型及以上数据中心 PUE 降低到 1.3 以下,严寒 和寒冷地区力争降低到1.25以下。我们观察到此次各地区东部地区PUE目标基本在1.25, 西部地区不超过 1.2,能效指标更严格。
(3)容易被忽略的隐含目标:网络低时延。根据 2021 年 5 月《全国一体化大数据中心 协同创新体系算力枢纽实施方案》指引:将推进超大型、大型数据中心集聚发展,构建数 据中心集群。数据中心端到端单向网络时延原则上在 20 毫秒范围内,同时车联网、联网 无人机、智慧电力、智能工厂、智能安防等实时性要求高的业务需求,数据中心端到端单 向网络时延原则上在 10 毫秒范围内。(报告来源:未来智库)

2.1、数据中心:中西部大型/超大型数据中心分布不足
地区分布来看,西部大型/超大型数据中心较少。当前我国数据中心主要集中在北京、上 海、广州及周边地区,整体呈现“东部沿海居多,核心城市集中,中、西、北部偏少”的 格局。造成这一现象的主要原因是下游需要求占比较大的互联网企业大多分布在核心城市, 满足这一需求的核心网建设也大多在一线城市。2019 年我国北京、上海地区可用机架数 分别约为 65、62 万个,而中、西部 2019 年整体可用机架数为 30、46 万个,差距仍然较 大。
上架率角度,西部地区 IDC 上架率最低,明显低于平均水平。目前全国整体上架率在 50.1%,华东、华北、华南约为 65%-68%,而西部 地区的西北和西南分别为 34%和 41%,远低于平均水平。大型、超大型数据中心来看, 据《全国数据中心发展指引 2018》统计,目前我国超大型数据中心上架率仅为 34.4%, 总体水平仍有较大提升空间。
2.2、网络传输:西部跨域远距离流通能力仍有待提高
东部地区严格的用水用电指标一定程度上加剧了数据中心的发展瓶颈,所以近年来我国有 序在内蒙古、宁夏等地区建设超大型数据中心。虽然西部具备较为明显的耗能优势,但从 上架率角度看实际效果远不及东部平均水平,我们认为主要在于西部地区网络的跨域远距离流通能力仍有提升空间。
(1)首先是西部地区核心骨干网数量依然较少。在网络建设过程中,降低时延的最有效 方法之一就是核心骨干网增加、光纤直连、跨运营商互联节点,可以降低网络传输过程中 的跳数,从而大大降低时延。但当前国家级互联网骨干直联点主要分布在北京、上海、广 州、成都、武汉、西安、南京贵阳和福州等地,西部地区超大型数据中心集聚的内蒙古呼 和浩特、宁夏中卫、河北张北等地均无网络直联点布局,由于其远离骨干网,铺设专线成 本较高,将影响网络时延体验,也就难以承担东部分流的算力需求。

(2)长距离传输会造成一定网络时延。网路时延主要包含四类:节点处理时延、排队时 延、传输时延、传播时延。其中传输时延是路由器推出分组所需要的时间,它是分组长度 和链路传输速率的函数,传播时延是一个比特从一台路由器传播到另一台路由器所需要的 时间,与两台路由器之间距离有关。长距离传播下回造成一定网络时延,但可以通过引入 边缘计算、核心网功能下沉等方案降低时延,满足“低时延”要求。
(3)西部地区网络传输速率仍不及东部、中部水平。过去我国西部地区网络速率低于平 均水平,2019 年 Q2 我国西部地区平均移动宽 带下载速率为 22.88Mbit/s,低于全国平均速率的 23.58 Mbit/s。主要原因之一为西部地区 的带宽较小,而带宽越宽,也就是我们能以更多的频率在网上传输数据,同一时刻可以传 输的信号就有更多的频率可以去表示,传输的信息就越多。综合来看,中西部地区骨干网、 带宽等建设仍有空间。(报告来源:未来智库)
3.1、IDC基建最先受益,关注运营商等在枢纽区提前布局者
产业角度,多省市集群已经启动示范工程。如作为重要枢纽之一的粤港澳大湾区表示将尽 快启动起步区建设。到 2025 年,韶关数据中心集群将建成 50 万架标准机架、500 万台服 务器规模,投资超过 500 亿(不含服务器及软件)。《上海市新一代信息基础设施发展“十 四五”规划》提及,成渝地区目标到 2025 年,5G 基站数量 25 万个,覆盖用户超过 60%。 数据中心机架数达到 50 万架,算力水平达到 500 PFlop/s。
叠加我们在上一章节讨论过的,西部数据中心数量较少、上架率也远低于平均水平。尽管 西部中期规划仍然是负责后台加工、离线分析、存储备份等对网络要求不高的数据,但我 们认为在网络基本的低延时需求下,1)当前我国西部地区枢纽节点范围内需要新建大型, 超大型的数据中心。2)东部沿海地区对于大型/超大型数据中心的土地、财税、能耗指标 等会进一步收紧,但是边缘数据中心仍有机会。

同时,运营商将为基础建设环节的核心参与者。主要由于
1)三大运营商数据中心规划与“东数西算”集群节点基本相吻合:以中国移动为例,根 据其 A 股招股书披露,其““4+3+X”数据中心,涵盖京津冀、长三角、粤港澳大湾区、 成渝四大热点区域中心,呼和浩特、哈尔滨、贵阳三大跨省中心,以及多个省级中心和业 务节点,与“东数西算”核心节点有多处重合。
2)运营商对网络有控制权,为算力建设的主力军:一张合格的算力网络=算力基础设施(数 据中心)+网络基础设施(大带宽、低时延、可调配的网络),只有三大运营商作为国家重 要通信枢纽,其国家级互联网骨干直联点主要用于汇聚和疏通区域乃至全国网间通信流量。 因此,以中国移动为首的电信运营商为算力网络建设的核心。
3.2、网络质量是实现算力均衡布局前提,光通信产业链增量最为明确
网络建设是当前西部地区首要任务,中期光通信产业链基本面向好。无论是将数据传输到 西部地区进行计算,还是把数据传输到西部地区进行存储,前提都是建设数据中心之间的 高速网络通道,将带动西部地区网络建设需求增加。光传输设备和 IP 骨干设备供应商则 将获得最大利好。同时我们认为中期将加速光纤通信向全光网演进,主要由于全光网能更 好的实现低时延传输需求,且其 OXC 技术相比传统的 ROADM 可以节省 90%的机房空间, 降低 60%的设备功耗,符合“双碳”要求。
长期将利好光模块产业链。数据互联互通有赖于光通信,而光通信网络中光模块是必不可 少的,是算力网络的基础。数据中心集群建设,叠加算力需求不断提升,看好长期光模块 市场扩容。

3.3、温控系统不可或缺,高端温控方案迎来普及良机
温控系统是数据中心产业链必不可少的环节,受益于 IDC 建设,其需求将不断上升。因 为数据中心内放置大多为服务器、交换机等大型大功率企业级 IT 设备,这些设备在运转 过程中会产生大量的热量,为了确保数据中心正常运转,需要保证数据中心处于恒温恒压 之中。同时,降 PUE 将成为未来发展趋势,而温控系统能耗是除 IT 能耗之外占比最高的, 据 2019 年统计,温控系统占 IDC 能耗 40%。因此,温控系统的能耗是 PUE 是否能降低 到合理水平的关键因素之一,温控系统朝高端化、模块化发展,有助于提高产品价值量。
温控设备上游主要为核心零部件,包括压缩机、风机、水蒸发器等,上游厂商较为零散。 中游主要为温控系统供应商,可分为风冷系统与水冷系统。下游主要聚焦于运营商、互联 网、云计算、金融等行业。
“东数西算”要求枢纽节点 PUE 降低到 1.25 以下,政策大背景下,如何通过技术方案有 效降低 PUE 是温控系统发展重点。目前,间接蒸发冷却技术、液冷技术通过将冷却系统 架构简单化,是目前众多数据中心冷却技术中,制冷效果最佳的技术解决方案。
结构来看,温控系统主要分为液冷和风冷两种类型。在传统的温控场景内,目前风冷、液 冷是主流。液冷方案的优势主要是靠近热源、温度均匀、能耗低,也比风冷更适合户外的 环境,其方案占比正在快速提升。同时根据赛迪顾问电子信息产业研究中心披露:与风冷 系统相比,液冷数据中心可以节省约 30%的能源,有效降低能源消耗比,助力满足绿色数 据中心 PUE 要求。另一方面,《大数据中心实施方案》也明确指出将鼓励新型机房精密空 调等创新液冷方案的应用,推动数据中心采用机柜模块化等节能技术模式。

间接蒸发自然冷却技术方案同样可以满足 PUE 小于 1.25 的标准,与传统新风自然冷却及 冷冻水冷却系统相比,具有室内空气不受室外环境空气质量的影响、耗水量少、节能水平 高等特点和优势。蒸发冷却技术按照技术形式可分为直接蒸发冷却技术与间接蒸发冷却技 术,直接蒸发冷却将水直接喷淋于未饱和湿空气中,使空气等焓增湿、降温,由于空气与 水直接接触,其含湿量增加,存在一定的应用限制,为了克服这个问题,引入间接蒸发冷 却,工作介质先经 DEC 设备处理,流经换热器通道一侧,形成湿通道,产出介质流过干 侧通道,湿侧介质吸收干燥介质的热量,借助于湿表面蒸发,从而冷却产出介质。由于工 作介质不与水直接接触,其含湿量不变,实现空气的等湿降温。间接蒸发系统由喷淋装置、 换热芯体、室内风机、室外风机、机械制冷补充装置、控制系统等组成。
温控设备前景广阔,国产厂商份额逐渐提升。根据 ICT Research 2019 年的统计,我国机 房空调的市场格局分布较为均匀。市占率前六名中,除维谛份额较高,其余均为国产品牌。 近年来,随着国产厂商在新技术上的逐渐突破、IDC 向高端化发展的趋势及政策背景下对 PUE 的高要求,国内温控厂商份额有望进一步上升。
3.4、成本下降带动算力使用,数字经济规模提升是必然趋势
东数西算必将带动 IDC 成本下降。成本下降助推算力提升,远期数字经济规模总量必将 增长。伴随 AI 大模型、大数据等高算力需求应用的普及,算力 IT 设备,算力网络,相关 系统软件和应用软件将长期受益。IDC 运维成本中电费占比约为一半,将数据放在用电成 本较低的西部存储、计算可大幅降低成本。以八大枢纽中的内蒙古为例,其明确云技术、 大数据等产业列入优先交易,同时通过自治区电价调节资金进行调节(最高不超过 0.03 元/千瓦时),使目标交易到户电价达到 0.26 元/千瓦时,远低于东部枢纽节点的地区的平 均电价。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)