太空算力的兴起,直接源于地面算力基础设施面临的物理瓶颈。当前,以人工智 能数据中心为代表的地面算力,其扩张正受到能源与散热两大刚性约束:算力需 求的激增导致电力消耗急剧攀升,而计算密度提升所带来的散热难题,也使传统 冷却方案逼近效能极限。太空算力正是基于此背景提出,它依托太空特有的高真 空、深冷环境及丰富的太阳能资源,有望从本质上规避地面数据中心在能耗与散 热方面的核心挑战。 从长远看,太空算力并非地面边缘计算在空间上的简单迁移,而是分布式智能计 算的一种发展趋势。其核心在于将 AI 计算能力嵌入卫星平台,推动工作模式从传 统的“天感地算”(数据全量下行)向“天感天算”(信息就地处理、智能下行) 的根本性转变,从而从源头上破解星地传输的带宽与时延瓶颈。太空算力的实质 并非对地面服务器的机械迁移,而是构建一个高可靠、高能效、高度任务适配的 在轨智能计算体系,最终使卫星星座演进为一个具备实时感知、处理与决策能力 的智能节点网络。
1.1. 能源:地面电力供需失衡,太空太阳能可提供永续供给
1.1.1. 算力需求指数级增长,地面电网陷入“代际差”
人工智能服务的兴起,正推动数据中心能耗水平显著攀升。近年来,AI 大模型及 相关应用的快速发展,直接带动 AIDC 用电量激增。据中国电力企业联合会数据, 2024 年,我国包括云存储、云计算、人工智能在内的互联网数据服务用电量同比 增长 30.9%;预计到 2025 年,全国算力基础设施用电量将达 3600 亿千瓦时,约 占全社会总用电量的 3.5%。在全球层面,国际能源署统计显示,2024 年全球数据 中心总耗电量为 415 太瓦时,占全球电力消费的 1.5%。

电力供给上限已成为决定算力发展的关键约束。AI 大模型的训练与推理依赖海量 高性能芯片(如 GPU、ASIC)持续运行,对 AIDC 的电力保障提出极高要求。中 国信息通信研究院测算表明,到 2030 年,我国数据中心年耗电量或将突破 4000 亿千瓦时,占全社会用电比例接近 6%。国际能源署进一步预测,至 2030 年,全 球数据中心电力消耗将增至约 945 太瓦时,占全球总用电量比例略低于 3%,约为 2024 年水平的两倍以上,并超过日本当前年度总用电量。随着 AI 技术持续快速迭代,其对电力资源的消耗压力正不断加剧。
地面电网建设面临“代际差”结构性矛盾,难以在短期内补充能源供给。现有电 力资源在建设周期、调度能力与清洁程度之间均存在显著代际差异:具备可调度 能力的绿色能源建设周期普遍偏长,短期内无法匹配 AI 对于能源的快速需求;而 建设速度较快的能源则往往稳定性不足,或伴随较高的碳排放环境成本。现阶段 唯一可用于短期内(1-2 年)开发的可靠电力来源为光伏发电与燃气轮机。地面电 网的“代际差”问题,直接制约了其升级速度,使得能源供应和 AI 对电力的需求 出现明显脱节。
1.1.2. 天基太阳能高效率、无空窗,提供免费能源替代方案
天基太阳能有望化解地面电网瓶颈,为算力增长提供可行的替代能源方案。受大 气层散射与吸收效应影响,地面太阳能电站所能接收的能量密度存在天然上限, 加之昼夜循环制约,约 70%抵达地球表面的太阳能因无法高效利用而流失。为突 破上述限制,天基太阳能发电技术正逐步进入实质性研究阶段。与此同时,在“双 碳”目标持续推动清洁能源转型的背景下,天基太阳能所具备的零碳排放特性进 一步强化了其战略价值。虽然 SBSP 本身旨在向地面传输电力,但其技术成果可 直接用于太空设施供电,为未来太空算力体系的构建提供了可靠的能源基础。

全球主要航天国家正加速布局天基太阳能领域,轨道太阳能(SBSP)将成为未来 太空算力竞争的关键赛道之一。未来大规模太空算力的竞争,实质上将是能源获 取能力的竞争。随着以 SpaceX 为代表的商业航天企业持续降低发射成本,天基太 阳能系统的经济性预计将进一步改善。聚光光伏板、无线能量传输与太空机器人 等关键技术正逐步突破多项工程技术瓶颈。目前中、美、英、日等国相继启动由 国家政策支持的重大专项计划,力图在这场具有战略意义的能源变革中确立领先 地位。
1.2. 散热:芯片散热成本高昂,宇宙深冷环境成为破局关键
1.2.1. 高密度算力推升散热成本与水资源依赖
芯片与服务器功率密度快速攀升,对散热系统构成严峻挑战。在 AI 大模型训练 需求持续增长的推动下,作为数据中心算力核心的 GPU 芯片,其功耗与性能密度 正同步提升。芯片功耗的爆发式增长及晶体管集成数量的持续上升,共同推高了 单位面积的热流密度。据 Digital Realty 首席技术官透露,英伟达机架系统的计算 容量目前已达约 140kW,并计划于 2027 年推出 600kW 级高密度机架,GPU 晶粒 容纳数量也将由当前的 32 个大幅提升至 576 个。面对芯片与服务器热流密度的持续增长,配套散热系统正面临迫切的迭代升级压力。
数据中心暖通空调系统的高度复杂性,进一步加剧地面散热系统的运维压力。作 为维持建筑内部环境稳定的关键系统,HVAC 涵盖供暖、通风与空调等多重环节, 其深度耦合的系统结构导致各类故障往往并发且难以实时侦测。研究表明,受传 感器漂移、执行器卡滞、控制器失灵及盘管结垢等故障影响,HVAC 系统约 10-40% 的能源被实际浪费。与此同时,系统生命周期中涉及多方利益相关者,设计与运 维环节存在显著信息壁垒,进一步阻碍了对控制故障的有效诊断与化解。由此可 见,数据中心 HVAC 所呈现的机制复杂性表明,地面散热问题已超越单一技术瓶 颈,演变为系统性结构困境,亟需转向结构更简洁、耦合度更低的技术路径。
1.2.2. 被动辐射散热可实现零水耗,商业价值显著
太空深冷环境为被动辐射散热提供了天然优势。太空辐射散热技术是一种零能耗、 零碳排放的被动冷却方式,借助全波段红外辐射将热量直接排放至宇宙深空。外 太空冷黑背景的等效温度约为 3K(-270℃),热吸收率为 1,构成一个可无限吸纳 热量的理想“热沉”。此外,空间飞行器所处真空环境气压低于 10-6 Pa,对流与传 导等传热路径基本失效,辐射成为该环境下唯一的主导传热机制。因此,太空辐 射散热具备近乎无限的技术扩展潜力,有望成为支撑算力持续增长的高性价比散 热解决方案。

1.3. 经济性:规模化部署重构太空算力成本结构,显著优于地面算力
太空数据中心在运行阶段无需外部能源输入,展现出显著的全周期成本优势。根 据 Lumen Orbit 发布的《Why we should train AI in Space》白皮书测算,地面一个 40MW 规模的数据中心集群,仅十年运行所需的电力成本即高达 1.4 亿美元,约 占总成本的 84%。相比之下,太空算力依托太空太阳能供电与辐射散热技术,在 完成初期的制造与发射投入后,运行期间不依赖额外资源投入,长期运行成本远 低于地面部署方案。一旦太空数据中心成功部署并实现组网运行,其运营成本将 趋近于零,从而具备突出的长期经济性与商业可行性。
太空算力仅在制造与发射环节产生有限碳排放,具备显著的全生命周期环境效益。 尽管将计算硬件送入轨道的过程相较地面部署可能产生更高碳足迹,但太空数据 中心在运行阶段凭借能源自给可实现碳中和。根据碳利用率当量分析,其全周期 CUE 介于全可再生能源供电与中等碳强度供电的地面数据中心之间。随着运行时 间延长,该指标呈现持续下降趋势:在寿命超过四年后,太空数据中心的 CUE 已 接近全可再生能源供电的地面数据中心水平。这表明,通过太空太阳能驱动的零 碳运行,系统能够逐步抵消前期制造与发射所产生的碳排放,其环境优势随服役 年限增加不断强化。
龙头企业已将目光瞄准吉瓦级太空算力,竞相布局构建基础设施。Amazon 执行 主席贝佐斯预测未来 10 至 20 年内将在太空建立 GW 级数据中心。马斯克在 X 平 台发文宣称星舰每年有能力将 300GW 至 500GW 的 AI 卫星送入轨道。在执行层 面,初创公司 Starcloud 与英伟达合作,已于 11 月首发搭载 H100 GPU 的卫星。 目标为建立 5GW 的太空数据中心,有望能在 2030 年建成 40 兆瓦数据中心。谷 歌的太阳捕手项目,计划 2027 与 Planet 合作发出两颗原型卫星,并预测 2035 发 射成本可能降至每公斤 200 美元与地面持平。 美国太空算力尚未进入大规模扩散阶段,少数本身就具备结构性壁垒的企业,正 在将自身原有能力延伸至轨道环境。以 Google、SpaceX 和创新型企业 Starcloud 等,这些企业本身已在地面算力、航天工程或云计算体系中建立起显著的结构性 壁垒。如今正将其成熟的技术栈、供应链体系与商业模型逐步延伸至轨道环境, 尝试在太空中构建可持续的算力部署与服务体系。当前布局呈现明显差异化路径。 整体来看,美国太空算力正从单点技术验证,走向以企业自有能力为依托、以轨 道验证与初期服务化为特征的初步发展阶段。
2.1. Starcloud 率先探索在轨算力服务化
Starcloud 率先将“在轨算力”明确为可服务化的商业对象,是当前少数将在轨算力 本身作为业务起点进行布局的美国企业。与传统航天企业以卫星、载荷或通信能 力为交付对象不同,Starcloud 在其公开规划中以提供在轨 AI 算力服务为核心, 目标是在低轨星座上构建分布式的轨道数据中心。其业务逻辑并非围绕单颗卫星 或特定任务展开,而是尝试复制地面数据中心与云计算的运营模式。该模式通过 在轨部署标准化算力节点,再以统一调度的方式向用户提供计算能力。这一定位 使 Starcloud 成为目前美国在轨算力领域中,商业目标最为聚焦、服务化指向最为 明确的参与者之一。
2.2. Google 从云计算体系延伸至太空场景
Google 作为全球云计算与人工智能应用的全球龙头,存在长期的算力压力。谷歌 在这方面相关的探索并非简单的硬件部署,而是围绕未来超大规模 AI 模型训练 与推理所带来的能源、土地与散热约束,提前寻找可持续的算力供给路径。在模 型规模持续扩大,地面数据中心面临结构性瓶颈的背景下,谷歌尝试将其在云计 算体系中积累的大规模系统架构设计与资源调度经验引入轨道环境,探索以空间 能源与分布式部署支撑 AI 算力增长的可能性。由此,谷歌在美国太空算力格局中 的角色,并非短期算力供给者,而是以长期需求为牵引、从系统层面重新定义算 力基础设施形态的参与者。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)