四大 CSP 的 CapEx 依旧乐观,而 2025 年的支出可能达 3200 亿美元。
北美四大 CSP 2024Q4 CapEx 合计达 723.48 亿美元,YoY 达 68.22%,而 2024 年全年合计 CapEx 达 2285.44 亿美元,YoY 达 54.87%。 展望 2025,亚马逊表示公司 2025 年 CapEx 将增至 1000 亿美元;Meta 于电话会 议中申明 2025 年 CapEx 将在 600 亿至 650 亿美元之间,这笔资金将用于推动 AI 战略; 微软则是宣布,FA2025 将在 AI 数据中心方面开支 800 亿美元用于建设能够处理人工智 能工作负载的数据中心;谷歌方面预期 2025 年资本开支 750 亿美元,YoY+43%。综合 预计 2025 年北美四大 CSP 合计 CapEx 有望超过 3200 亿美元,按此估算 YoY 也在 40% 以上。
DeepSeek 成本极低、算力有限实际上并不意味着全球算力需求萎缩。DeepSeek 通过高细粒度的 MoE(Mixture of Experts,混合专家)架构、MLA(Multi-head Latent Attention,多头潜在注意力)、FP8 混合精度训练、减少通信开销的 DualPipe 算法等算 法层面的优化,实现了仅用 278.8 万个 H800 的 GPU 小时就训练出了 V3 模型,即按照 2 美元每小时租赁费用来算,训练成本仅为 557.6 万美元。与其它国际主流模型对比, DeepSeek 的训练成本极低,因此产生了部分认为未来 AI 研发算力需求将会大幅减少的 观声音。 CSP 的乐观 CapEx 在一定程度打破了算力需求趋弱的观点。我们认为 CSP 持续 加大投入的主要原因包括以下三方面:第一,DeepSeek 在技术层面上确实提供了降低 模型训练成本的可能,但 AI 军备竞赛具有商业层面的考量,AI 技术领先可以在构建商业生态时获得明显的先发优势;第二,即由于杰文斯悖论的存在,AI 算力需求仍然有较 大的不降反升的可能,所谓杰文斯悖论即当技术进步提高了效率,资源消耗不仅没有减 少,反而激增,例如,瓦特改良的蒸汽机让煤炭燃烧更加高效,但结果却是煤炭需求飙 升,我们认为在 AI 领域也有可能会呈现这种发展趋势;第三,即我们在前面论证的,推 理端算力成为下一阶段 AI 发展的重点,尤其对各大 CSP 而言,推理端实际上才是挂钩 其收入的,因此模型推理效率的提升意味着算力投入的回报率提升,加大算力投入规模 逻辑顺畅。

我们认为 AI 基建的叙事仍在延续,训练 AI 模型的成本或持续增长,AI 服务器需求 仍将持续增长。从服务器看,根据 TrendForce 数据,2024 年整体服务器产值约 3060 亿美元,其中 AI 服务器较通用服务器增长动能更为强劲,产值约为 2050 亿美元,预计 2025 年 AI 服务器需求仍将持续增长,且价端有望提高较大贡献,产值有机会提升至近 2980 亿美元,YoY 达 44.96%,占整体服务器产值比例进一步提升至 7 成以上。从 AI 训 练成本看,根据 Epoch AI 数据,从 2016 年到 2024 年,成本呈现出显著的上升趋势, 前沿模型最终训练运行的摊销硬件和能源成本以每年 2.4 倍的速度快速增长,近年来的 增长尤为明显,尽管技术取得了进步,但对更强大硬件和能源资源的需求继续推高成本, 因此我们认为在不考虑算法优化的情况下,训练成本不断增长的趋势将持续演绎。
不考虑人力成本的支出,芯片在 AI 的训练成本中占比最大,需求空间巨大。根据 Epoch AI 数据,芯片在 AI 训练成本中占据了显著的比例。以 Gemini 1.0 Ultra 和 GPT4 为例,AI 芯片的成本占比均超过 40%,而在 OPT-175B 和 GPT-3 175B 中,这一比例 更是接近 50%,这表明,随着模型规模的增大,AI 芯片在整体训练成本中的重要性愈发 凸显。芯片作为计算的核心部件,直接决定了模型训练的效率和速度,因此 AI 研发团队 对于高性能的芯片需求是天然巨大的,尽管其作为一次性支出的成本巨大,但是高性能 芯片能够显著提升训练过程中的计算能力,从而缩短训练时间,降低单位计算成本。
国产算力产业链受益于 DeepSeek 发布,有望具有更强弹性。对于国内算力供应链 而言,我们认为 DeepSeek 的出现是一剂强心针,标志着国产 AI 实现了比肩全球顶级 模型水准的跨越,DeepSeek 通过算法、架构、工程的软硬件协同优化创新,以有限算 力超低成本实现了性能比肩顶尖国外模型的国产模型,印证了软硬协同这一技术路线对 推动 Scaling Law、突破算力瓶颈的有效性和巨大潜力。我们认为其对国产算力链的影 响包括:第一,从当前国产 AI 生态来看,国产的算力资源仍然稀缺,随着以 DeepSeek 为代表的国产 AI 大模型的持续发展,国产算力缺口依旧较大,因此我们认为当前是软硬 件协同实现国产算力芯片突破,进而实现国产 AI 生态闭环的关键窗口期,可以看到在 DeepSeek-R1 模型发布后国产硬件厂商用极快的速度纷纷接入 DeepSeek,我们判断通 过此次软硬件合力发力的机会为二者未来持续融合夯实了基础;第二,如我们在前文的 分析中指出推理芯片的占比将会持续提升,CSP 出于成本以及可得性考虑,我们判断 ASIC 在算力芯片中的比重将会不断提升,预计将持续为国产算力芯片创造发展动能。
综上,我们认为整个云端 AI 的算力需求扩张在 2025 年仍然值得期待。第一,pretraining 的 Scaling Law 仍在延续的背景下,post-training 和推理侧的 Scaling Law 接棒, 各 AI 研究机构仍有足够动力加大各环节算力投入以追求模型性能的提升;第二,尽管 DeepSeek 的出现成功具象化了提升算法降低成本的路径,但是对各大 CSP 而言,AI 技 术正面临商业化落地的关键窗口,加大投入即意味着提升模型推理能力进而实现云端服 务收入落地;第三,DeepSeek 的出现一定程度上改善了之前仅有大型企业可以参与到 AI 前沿开发的竞争格局,DeepSeek 具有成本低廉、开源、性能强悍等特征,有望激发 部分新生玩家的需求;第四,对于国产厂商而言,DeepSeek 成为了改变 AI 生态环境的 先驱者,受其带动下国产硬件厂商切入参与到 AI 前沿产业链的机会增大。因此我们建议 持续关注国产算力产业链。