1.1. AI 发展产业进一步进入深水区
历史车轮滚滚向前,2026 年全球 AI 产业将告别“盲目共识”,步入“战略分流” 的深水区。站在 2025 年末的节点上,我们观察到全球 AI 产业正在物理与逻辑的 双重层面,分裂为两套截然不同的进化物种。这一轮周期的核心叙事,已不再是全 球同步的参数军备竞赛,而是中美双极在约束条件下的极致异构。
在大洋彼岸,美国科技巨头正在进行一场“向上的生长”,Google、Meta 与 OpenAI 通过自研芯片与系统级互联,试图打破英伟达的单极霸权,构建垂直 封闭的算力帝国;
而在中国,科技大厂正在进行一场“向下的扎根”,字节跳动与阿里巴巴凭借对 流量与场景的敏锐嗅觉,在算力受限的夹缝中,率先验证了 AI 在 C 端超级 应用与 B 端降本增效中的商业闭环。 中美大模型的发展差异,本质上是资源约束与战略初心共同作用的结果。
美国凭借宽松的算力供给环境,走出了一条“规模制胜”的技术理想主义道路。 以谷歌、OpenAI 为代表的企业将 AGI 视为需要极致理论突破的终极目标,核 心模型研发周期常达一年半以上,执着于在多模态融合、科学推理等基础能力 上追求极致。OpenAI 计划投入 1.4 万亿美元建设算力基础设施,依托超大规模 算力集群实现模型后训练深度与推理效率的同步提升,坚信当算力规模达到阈 值后智能会自然涌现。这种“保守”的技术深耕模式,使其在复杂逻辑推理、 幻觉控制等核心维度长期保持领先,GPT-5 系列在科学计算、代码生成等领域 的性能优势,正是建立在这种长期主义的技术积累之上。
中国团队则面临算力供给受限的现实挑战,选择了“效率突围”的工程激进主 义路径。通过算法优化与架构创新,在有限资源下实现性能突破:DeepSeekV3.2 采用 MoE 架构,以 671B 参数规模完成训练仅用不到 280 万个 GPU 小时,不 足 Llama3405B 训练时长的十分之一;华为盘古通过稀疏化技术与注意力机制 改进,在不损失性能的前提下降低算力消耗,形成“技术优化+生态协同”的独 特优势。这种“螺蛳壳里做道场”的智慧,推动中美顶级大模型的性能差距从 2023 年的 20%缩至 2025 年的 0.3%,在智能体、多模态生成等细分领域实现局 部反超。政策层面的精准赋能更强化了这一路径,中国“十四五”规划明确支 持开源体系建设,杭州推出“AI 开源政策包”,单家企业每年最高可获 1000 万 元算力补贴,推动魔搭社区汇聚全球头部开源模型,形成从技术研发到场景落 地的良性循环。
1.2. 美国探寻上限,中国夯实底座
美国投资增速极快,2025 年 Q3 是美国 AI 算力“军备竞赛”的高潮期。Microsoft 和 Meta 处于“不计成本”的抢货阶段,而 Google 和 Amazon 则紧随其后,四大厂单季 砸进去的 1134 亿美元,正在转化为海量的 GPU/TPU 订单和数据中心钢筋水泥。其 中 Alphabet(Google)Q3 单季支出约 240 亿美元,主要用于支持 Gemini 和 Cloud 业 务。CFO 明确表示 2026 年的资本开支将会有“显著增长”。Microsoft Q3 单季近 350 亿美元,而且 CFO Amy Hood 表示支出实际上是“受限于供应”的,如果芯片和数 据中心交付能更快,花钱会更多。Meta 是几家中 Capex 增速最恐怖的,Q3 单季度 近 200 亿美元(同比翻倍,+110%)。扎克伯格的逻辑是:宁可现在“浪费”算力, 也不能在 AI 时代掉队。Amazon(AWS)将全年 Capex 指引暴力拉升至 1200 亿美元以 上,相关投资在 2025 年全面爆发。这反映了 AWS 客户对 AI 模型训练和推理的巨 大积压需求。

中国增速也很快,但和美国在总量上存在较大差距。中国互联网四巨头(字节跳动、 阿里巴巴、腾讯、百度)的资本开支正在经历一轮显著的“补偿式增长”周期。2023 年是中国互联网大厂投入的低谷期,合计 Capex 仅不到 200 亿美元。但进入 2024 年,该数字迅速反弹至约 400 亿美元(同比翻倍),并预计在 2025 年进一步攀升至 600 亿美元量级,显示出国内大厂在 AI 基础设施建设上的紧迫感正在转化为实际的 资金投入。 字节跳动是本轮 Capex 扩张的绝对主力,从 2024 年起占据了行业总投入的近半壁 江山,我们预期公司 2027 年仍将维持约 250-300 亿美元的年投入规模。这主要归因 于其 TikTok 全球算法推荐的巨大算力消耗,以及“豆包”等 AI 应用在 C 端流量变现 上的激进策略。相比之下,腾讯与百度的投入曲线较为平滑,反映出更强的防御性 与聚焦性。虽然中国在增速上试图追赶,但由于基数差异巨大,中美在 AI 算力底座 上的绝对资金缺口仍在扩大。到 2027 年,美国大厂预计将维持 5000 亿美元左右的 年投入规模,而中国仅为 1000 亿美元左右,两者体量相差 5 倍。
投入的差距也导致了中美大模型在跑分和生态上的区别,在大模型的发展中,美国 在探寻智能的上限,而中国在夯实生态的底座。根据 SuperCLUE 在 2024 年底至 2025 年的测评数据(截至 2025 年 11 月最新动态),在代表 AI 最高水平的综合总榜 中,美国依然掌握着‘核按钮’。 OpenAI 的 o1 系列凭藉 System 2 慢思考能力, 在逻辑与科研高地(T0 层级)保持着对中国头部模型(DeepSeek-V3、Qwen-Max) 的代际领先,这一‘智力鸿沟’短期内难以通过算力堆叠填平。 然而,在决定产业落地广度的开源以及性价比榜单中,中国已实现‘战略反攻’。 阿 里 Qwen 与 DeepSeek 系列模型凭借架构创新,在代码、数学及多语言任务上多次 力压 Meta 的 Llama 系列,成为全球开源生态事实上的新标杆。这标志着中国 AI 产业已成功从‘模型复刻’阶段跨越至‘生态输出’阶段,为全球开发者提供了比 美国方案更优的性价比选择。”
就像我们之前说的,中美大模型在 2025 年呈现出的“能力 vs. 生态”错位格局, 并非偶然的技术选择,而是双方在算力供给、市场结构与数据禀赋三重约束条件下, 经过两年残酷博弈后的必然演化结果。 算力路径:暴力美学 vs. 极致工程 美国依托 H100/B200 顶级集群,信奉 Scaling Law 的资源堆叠模式探索 AGI 上限;中国受制于芯片封锁,倒逼出 MoE、MLA 等架构层面的极致工程创新。这种“进化压力”反而使中国模型构建 了 5-10 倍的推理成本优势,为商业化铺平道路。 商业策略:封闭收租 vs. 开源突围 美国(OpenAI)凭借先发优势走“iOS 式” 封闭系统,赚取高额 SaaS 利润;中国巨头(阿里/字节)选择“安卓式”开源策 略,通过将底层模型“大宗商品化”来消解美国的技术溢价,迫使竞争维度下沉 至中国擅长的应用生态与云基建。 数据场景:抽象逻辑 vs. 具象落地 美国掌握代码与学术期刊等“抽象数据”, 确立了逻辑推理与编程的统治地位;中国坐拥复杂的移动互联与产业链“具象 数据”,使其在文本创作、情感陪伴及垂类 Agent 等落地场景中展现出更强的 适应性。
1.3. 展望 2026,美国继续深耕硬科技闭环;中国有望引爆应用层红利
因此在 2026 年,美国科技巨头的核心焦虑不再是“买不到英伟达”,而是“过于依赖 英伟达”。我们看到了一场前所未有的 “算力垂直整合运动”。最典型的信号来自 Google。过去,TPU 只是 Google 内部的秘密武器;但现在,我们发现 Google 正 在转型为 “算力军火商”,开始向 Meta、Apple 甚至 xAI 出售 TPU 硬件与服务。 这不仅仅是商业模式的改变,更是为了分摊高昂的研发成本,试图构建一个平行于 英伟达之外的算力生态。与此同时,OpenAI 也不再满足于软件层的统治。他们与博 通(Broadcom)合作的自研 ASIC 芯片已经流片,预计 2026 年正式量产。 美国的 AI 竞争正在从软件层的“百模大战”,下沉到硬件层的“硅片战争”。 在这 个战场上,决定胜负的 “胜负手”已经从芯片设计转移到了先进封装。2026 年台积 电 CoWoS 产能虽然翻倍,但仅英伟达一家就要吃掉近 60%。 因此,2026 年美股 科技的 Alpha,将属于那些掌握“非英伟达体系”算力供给能力的公司,比如博通, 以及那些掌握产能瓶颈的代工巨头。
在大洋彼岸疯狂堆砌硬件的同时,中国科技大厂正在极其艰难的算力约束下,走出 了一条 “应用为王”的独特路径。如果说美国是在做“加法”(堆算力),那么中国巨头正在做“除法”(降成本)和“乘法”(裂变流量)。看“乘法”:字节跳动的“豆包”是 一个现象级样本。 在没有任何先发优势的情况下,豆包凭借“推荐算法+精准买量” 的暴力美学,仅用半年时间就将日活推到了 1.7 亿 级别,是同类竞品的 20 倍。 这证明了中国互联网最擅长的“超级 App”打法,在 AI 时代依然奏效。 更值得期 待的是,2026 年春节,字节计划发布对标 Sora 的视频生成模型。这将是传媒与内 容行业的“iPhone 时刻”,它将直接打穿短剧与网文的生产成本。看“除法”:阿里巴 巴的通义千问。面对算力封锁,阿里选择了极致的工程化突围。他们计划明年将 80% 的算力迁移至自研 PPU,目标是支撑 5 万亿 token 的调用量。这意味着,中国 AI 产业正在率先完成从“拼参数”到“拼 ROI”的进化。 综上所述, 2025 年的中美 AI 格局,是 “美国科研红利”与“中国工程红利”的 双轨并行。美国正在向上捅破天花板,试图摘取 AGI 的圣杯;而中国正在向下扎 根,试图通过极致的性价比与开源生态,将 AI 变成滋养万业的黑土地。而在此背 景下,2026 年双方的宏观图景已经非常清晰:美国向左,深耕硬科技闭环;中国向 右,引爆应用层红利。
2026 年美国巨头正在通过 “垂直一体化”来重构 AI 产业。面对 Scaling Law 的边 际成本上升,他们不再单纯依赖英伟达,而是通过自研芯片、能源自主和 System 2 模型,构建一个不可撼动的硬科技壁垒。
2.1. 模型侧:从“概率生成”到“深度推理”
过去三年,全球大模型行业完成了从“技术探索”到“产业落地”的关键跨越,其 迭代轨迹并非零散的功能升级,而是围绕算力分配、生态格局与交互形态的三大核 心方向系统性演进,深刻重塑了行业竞争逻辑与商业价值判断。
2023 年作为“探索时代”,行业核心发展在于对 Scaling Law 的探索,普遍相信 “参数规模与算力投入决定智能上限”,OpenAI 凭借 GPT-4 系列的性能优势独 领风骚,引发全行业的恐慌性追赶,“做大模型、建通用底座”成为唯一共识, 暴力堆叠 GPU 与扩大参数规模成为技术竞争的核心范式。
2024 年进入“实用时代”,用户需求从“能对话”升级为“能看懂图、能处理长文 本、反应更快”,多模态融合与交互效率成为核心诉求,行业发展呈现明显架构 分叉;DeepSeek 通过创新的 MLA(Multi-Head LatentAttention)架构与 DeepSeek MoE 技术,打破了“算力即唯一壁垒”的认知,在保持高性能的同时将推理显存 占用压缩至极致,证明算法效率的核心价值,为 2025 年的行业价格战埋下关 键伏笔。
2025 年则迈入“推理与效率时代”,System2 推理、价格崩塌与端侧落地成为关 键词,模型发展形成鲜明双轨制:向上突破的 OpenAIo1 与 GPT-5,通过强化 学习(RL)与自我博弈技术内化思维链,消耗更多推理侧算力实现“慢思考”能 力,在数学竞赛中正确率达 83.3%,编程能力较前代提升 8 倍,持续试探 AGI 上限;向下普及的 DeepSeek 与 Llama 系列,则通过动态序列调整、批处理优 化、低精度推理等技术极致压缩成本,其中 DeepSeek 成为行业“性价比度量衡”, 迫使所有厂商直面“价格贵 10 倍是否能力强 10%”的拷问,推动各大旗舰模型 降低推理成本,让 AI 从昂贵奢侈品转变为水电煤般的基础设施。
在 GPT-4 为代表的早期阶段,大模型行业的竞争本质是“算力堆砌的规模竞赛”。彼 时,行业共识聚焦于“参数越大、训练算力越足,模型能力越强,也会出现较强的涌现 能力”,头部企业纷纷加码训练端投入——OpenAI 训练 GPT-4 据称消耗了超 1 万枚 A100 GPU,Meta Llama2 的训练算力成本高达数亿美元,参数规模从千亿级向万亿 级冲刺成为最直观的技术标杆。这一阶段,芯片投资的核心诉求是“大显存”,以支 撑超大规模模型的训练过程,英伟达 A100/H100 凭借高显存容量与算力密度,成为 行业绝对的“训练神器”。
2.2. 应用侧:从“对话工具”到“自主执行的智能体”
大模型的交互形态演进,本质是“模型与人类、模型与世界”连接方式的升级,过去 三年完成了从“信息交互”到“任务执行”的关键跨越。早期阶段,大模型以“聊天机器 人”为核心形态,交互局限于“提问-回答”的双向信息传递——用户输入文本需求, 模型输出文字反馈,核心价值是“信息检索与整理”,代表模型如 GPT-3.5、早期 Claude1,仅能作为辅助工具解决简单的信息类问题。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)