下面将从历史发展、资本投资、算力供需关系三方面出发,探 讨外部因子对富联的催化作用。
数据中心迅速演进,产业周期性显著。回顾历史,自 2001 年 起,数据中心形态经历计算中心、信息中心、云中心、智能中心 四个阶段,以融合新技术推动数据中心整合、升级、云化为主要 特征,产业整体发展周期呈现“四中心三拐点”。
综合历史发展进程来看,数据中心演进目前显露出两大特征: 1)发展周期横向扩展:计算中心阶段、信息中心阶段、云中心阶 段周期分别为 5、6、7 年,23 年为 ChatGPT 所引发的 AI 大模型 元年,智能中心建设需求发生明显改变,智算中心建设的时间跨 度有望获得极大程度扩容;2)智能中心时代,算力复合增长率出 现逆周期性提升:相比于云服务时代 17%的增长率,智能中心 2019-2022 年复合增长率高达 20%。 宽时域+高增长或成为 AI 时代 IDC 市场扩容的主要催化剂。 我们认为,得益于产业扩展与金融投资的共振,2023 年开启的智 能中心 2.0 建设阶段将在发展周期 T 以及复合增长率 CAGR 两个 维度完成相对于云计算时代、智能中心 1.0 的超越,实现更广阔的 市场空间。
云厂商资本开支长期扩容,算力基础设施建设利好。 2019 年 -2022 年各大云厂商资本开支规模迅速扩大,从 652.64 亿美元扩 张至 1448.78 亿美元, 3 年期间资本开支复合增长率高达 30.45%。 尽管在 23 年 Capex 有所放缓,24 年各大云厂商分别给出开支反 弹的指引:Meta 将 24 年资本支出扩大到 350-400 亿美元的范围 内;微软资本开支将在每季度基础上大幅增加;谷歌则预计资本 开支保持在 480 亿美元左右。 华尔街日益青睐 AI 创业项目。融资方面,根据 Crunchbase 数据库,2022 年美国在 AI 领域风投的项目数达 574 个,同时据融 资服务机构 Carta 数据显示,2023 年第一季度 A 轮 AI 初创公司融 资环比增长 58.4%;并购方面,汤森路宣布以 6.5 亿美元收购 AI 法律初创公司 Casetext, Databricks 宣布以 13 亿美元收购生成式 AI 初创公司 MosaicML。 我们认为,未来云厂商资本开支的快速扩张叠加资本市场对 AI 公司的持续偏好,将有利于整体基础设施规模的稳定增长。

3.1 需求侧:推理侧兴起,Sora 再添新活力
产业规模加速推进,算力摩尔定律显现。Open AI 于 2018 年 发布的《AI and Compute》显示,2012 年后计算量的增长大大超 过了原有的宏观发展趋势:1959-2012 年间,计算量的倍增时间约 为 2 年;而这一趋势从 2012 年开始变为 3~4 个月。
Sora 模型重磅推出,文生视频再获突破。Sora 模型的推出标 志着 AI 内容编辑和生成实现了从文本到视频的本质跨越。
推理侧计算量高增,或成为未来算力主要推动因子。根据 Factorial Funds 发布的《Under The Hood: How OpenAI's Sora Model Works》一文指出,我们可以根据现有的 DiT 模型计算量推 测 Sora 的算力需求,其低/高算力数据集估计值分别为: 1.1 × 1025?????、2.7 × 1025?????,预计需要 4211~10528张H100计 算 1 个月。 同时,根据对已有 DiT 模型的推演,假设 Sora 生成的每个视 频都经历250次扩散,推理侧超过训练侧算力的视频生成时间节点 将在 1530-3810 万分钟之间,而目前 Youtube 全天的上传视频时 长就达到 4300 万分钟。我们认为随着 AI 模型的快速迭代,推理 侧模型发展将成为带动算力成长的关键因素,模型的商用化、通 用化将从供需关系方面直接催化 AI 基础设施的建设。
3.2 供给侧:英伟达发售新芯片,算力供应出现边际新变化
芯 片 迭 代 速 度 加 剧 , Blackwell 持续赋能。 在 英 伟 达 GTC2024 大会上, 黄仁勋重磅推出 Blackwell 架构系列芯片,另 一重磅产品 GB200 则是将 2 颗 Blackwell 算力芯片与 1 颗 ARM CPU 集成在一起,GPU 与 CPU 之间通过 NVLink C2C 实现高达 900GB/s 的快速互联。
云服务助力上层开发,大模型部署周期缩短。英伟达推出的 NVIDIA NIM 是经过优化的云原生微服务,旨在缩短上市时间并简 化在云端、数据中心和 GPU加速工作站上部署的生成式AI模型 。 企业运营难度骤减,降本增效同时进行。通过 NIM,企业可 以优化他们的 AI 基础设施,实现最大效率和成本效益,而无需担 心 AI 模型开发复杂性和容器化。除了加速 AI 基础设施,NIM 还有 助于提高性能和可扩展性,同时降低硬件和运营成本。
数据中心的集群化效应以及 NIM 等云原生服务的搭建有望深 度减轻厂商大模型开发的负担,从而反哺于模型层与应用层的创 新,实现硬件层与软件层的协同促进,共同发展。