智算持续增长,规模稳步扩大。
截至2023年底,全球算力总规模达到910EFLOPS(FP32),同比增长40%,其中中国算力总规模达到435 EFlops,同比增长44%,智能算力增速达62%。《算力基础设施高质量发展行动计划》提出到2025年,计算力方面,算力规模超过300EFLOPS,智能算力占比达到 35%,东西部算力平衡协调发展。北美云巨头上调资本开支,算力军备竞赛愈演愈烈。 2024年微软、亚马逊、谷歌、Meta 资本支出分别是756、777、525、373亿美元,同比增长83%、62%、63%、35%。2025年,美国科技四巨头资本支出仍将高速增长。最新财报电话会显示,微软计划2025年资本支出环比增加;亚马逊计划2025年投入1000亿美元资本支出,增速将接近30%;谷歌计划在2025年投入750亿美元资本支出,增速将超过40%。Meta预计2025年资本支出为600亿-650亿美元,增速将高达60%-75%。
AI业绩贡献显现,投资具备持续性。AI业务对于业绩具备直接拉动作用——企业客户会直接使用AI训练、推理等算力资源。其中,AWS的AI业务在2024年三季度达到了数十亿美元,年增长率超过100%, AI业务增速是AWS自身增长速度的三倍以上;微软管理层在财报电话会议中披露,微软Azure营收增速为33%,其中有12个百分点是由AI业务带来的;谷歌的Gemini大模型API调用量在6个月增长了近40倍。
算力产业链分析:1)GPU。北美五巨头大力布局算力版图,2025年等效H100或超1240万块。微软、谷歌、Meta、亚马逊、xAI预计2025年算力等效H100预计分别达到250万-310万、350万-420万、190万-250万、130万-160万、55万-100万,合计或超1240万块。

产品持续迭代,B300提升推理性能。B300 GPU相比于B200性能的提升主要在以下两个方面:1)算力:FLOPS性能提升50%;架构改进和系统级增强(CPU和GPU之间动态功率分配)。2)内存:HBM容量增加50%,从192GB提升至288GB;堆叠方案从8层HBM3E升级为12层。 国内大厂加大算力投入,国产替代势在必行。2024年字节跳动的资本支出为800亿元人民币,25年将翻倍至1600亿元人民币,小米正着手搭建GPU万卡集群。同时,美国对华半导体出口管制再度升级。1月15日,美国商务部下属的工业与安全局再发管制政策,限制流片的芯片规格上限从过去的7纳米扩大至了“16或14纳米”。我们认为特朗普上台带来的硬件进出口限制和AI制裁,将倒逼国产化的进步。
2)ASIC。大规模AI模型普及,推理需求不断扩大。巴克莱报告预计,AI推理计算需求将快速提升,预计其将占通用人工智能总计算需求的70%以上,推理计算的需求甚至可以超过训练计算需求,达到后者的4.5倍。博通透露,目前与三个大型客户开发AI芯片,预计25年公司AI芯片的市场规模为150亿-200亿美元。 多家大厂自研芯片。苹果正与博通合作开发AI芯片;谷歌自研ASIC芯片Trillium TPU,不仅在训练密集型大语言模型、MoE模型上性能更强,而且AI训练和推理性价比更高;亚马逊单个Trn2实例结合了16颗Trainium2芯片,可提供20.8PFLOPS,相比当前基于GPU的EC2实例,性价比高出30%~40%。我们认为推理需求不断扩大并趋于多样化,定制化芯片的需求也有望扩大,整体空间较大。 DeepSeek打破“堆算力”路径依赖,端侧AI趋势有望加速。英国《卫报》网站刊文指出,DeepSeek低成本与开放性的强强联合可能有助于普及AI技术,加快开发者入局。我们认为应用产品扩容、大模型成本降低有望带来端侧算力需求激增。
3)光模块。高速数通光模块快速增长,1.6T方案拉动新一轮增长。Cignal AI在报告中指出,AI部署为数通市场带来前所未有的发展机遇,400G和800G光模块的出货量在过去12个月中增长了近四倍,预计2024年将超过2000万只。同时云服务商正向单通道200G的1.6T方案过渡,高速数通光模块的市场规模预计将从2024年的约90亿美元扩大到2026年的近120亿美元。
散热互连问题紧逼,CPO渐行渐近。GB200 NVL72机柜设计复杂,高性能计算带来了高功耗及高散热需求,CPO或许成为现阶段的最佳技术解药。有消息称,英伟达将在今年3月的GTC大会上推出CPO交换机,若试产顺利,则有望8月量产,届时CPO交换机可实现115.2T的信号传输,同时GB300、Rubin平台也开始采用CPO,旨在突破目前NVLink 72互连(最多可连接72个GB200芯片)的限制,提升通信质量。
4)铜连接。铜缆互联是机柜内、机柜间短距互联的性价比最佳方案。英伟达GB200机柜背板互联使用cartridge结合高密度背板连接器,较PCB可行度更高、较光模块成本更低;Switch tray交换芯片到背板、前面板则使用Over Pass、Densilink近芯片跳线方案,以避免PCB可能出现的高频信号串扰、信号衰减过快问题。NVL36方案中,相邻机柜间采用有源铜缆ACC方案,较光模块成本更低、功耗更低。 铜缆在节能方面具备显著优势,整体市场增长较快。400G的AOC光方案功耗达到约10瓦,而AEC有源铜缆的功耗则在5瓦左右,同时考虑到带宽的提升,铜缆解决方案能在数据中心短距离市场中展现超过50%的能耗优势,势必将在未来的应用中不断强化其市场地位。LightCounting指出,在2023-27年,高速铜缆市场将以年复合增长率(CAGR)25%的速度持续扩容,到2027年底,年度出货量有望突破2000万条大关。
5)液冷。机架功耗提升,液冷成为趋势。区别于传统数据中心 3-10kW 的单机架功耗,目前人工智能推动下的智算中心建设,单机柜密度一般在 20kW 以上,甚至超过 50kw。随着芯片功耗、服务器功耗以及单机柜功率密度的增加,传统风冷难以承接高密度机柜散热需求,易出现局部热点,影响换热性能。 政策助推渗透率提升,三大运营商积极响应。《信息通信行业绿色低碳发展行动计划(2022-2025 年)》,明确要求到2025 年,全国新建大型和超大型数据中心的 PUE 降至 1.3 以下,改建核心机房的 PUE 降至1.5 以下,我们认为这使得数据中心不得不寻求更高效节能的散热方式。三大运营商联合发布《电信运营商液冷技术白皮书》,提出2024 年开展规模测试,新建数据中心项目 10% 规模试点应用液冷技术;2025 年开展规模应用,50% 以上数据中心项目应用液冷技术。市场增长率高,28年规模预计超百亿美元。根据IDC发布的《中国半年度液冷服务器市场(2024上半年)跟踪》报告显示,中国液冷服务器市场在2024上半年继续保持快速增长,市场规模达到12.6亿美元,与2023年同期相比增长98.3%。IDC预计,2023-2028年,中国液冷服务器市场年复合增长率将达到47.6%,2028年市场规模将达到102亿美元。
6)交换机。高速率交换机占比提升带动行业增长。Dell'Oro Group预测,在2025/2026年,基于102.4 Tbps的交换机部署将紧随其后,推动第二波800 Gbps和第一波1.6 Tbps的部署。到2028年预计将在前端网络中部署近1亿出货量的800 Gbps和1.6 Tbps交换机端口。这一数据表明,数据中心正在向更高速度、更大容量的网络架构演进,以满足日益增长的数据传输需求。