中美大模型技术能力有多大差距?
目前,中美大模型技术能力差距已压缩至 3~6 个月,中国前沿模型综合智能 分数逼近海外顶级模型的 87%,在算法优化(如 MOE、动态稀疏注意力) 和工程提效下,部分技术延迟差距进一步缩小。
美国凭借对高端算力芯片的垄断、丰富的多元数据生态以及数倍于中国的 资本投入,构筑了显著的硬约束优势。技术路径上,美国厂商更多以“突破 技术上限”为核心目标,聚焦多模态理解、深度推理、长上下文等前沿领域 的尖端突破,追求在技术上的领先地位和对技术边界的极致探索,并通过闭 源模式构建商业壁垒;中国厂商相对更强调实用性与普惠性,通过算法创新 和工程优化,在有限算力下提升模型性价比,目标是更广泛地服务于实际场 景,并全面拥抱开源生态,在特定领域实现领先。中国厂商通过开源聚合分 散的算力与场景资源,构建了“应用-反馈-迭代”的开发者生态飞轮,为技 术快速迭代和商业化落地提供了坚实基础。

短期来看,我们预计美国厂商将继续占据基础研究与高端芯片的制高点,而 中国有望凭借庞大的应用场景、成本控制能力和产业协同,在垂直行业落地 与效率优化上扩大优势,形成“美国厂商主导尖端创新、中国厂商引领规模 应用”的双强格局。
中国独立大模型厂商如何与大厂竞争?
互联网大厂在大模型竞争中具备显著的资源优势:拥有雄厚的资金实力、庞 大的用户基础及成熟的业务生态,可将大模型嵌入现有产品,形成用户粘性 与马太效应。此外,依托集团整体资源,大厂在算力采购、数据获取等方面 更具规模效应。然而,其大模型业务通常仅是集团多元业务的一部分,战略 优先级与决策灵活性受限,存在跨部门协作挑战,难以像独立厂商般 All in 大模型核心技术迭代。 相较于互联网大厂,独立大模型厂商作为 AI 原生公司,核心优势在于极致 的专注力、决策更加灵活。独立厂商通常将所有资源集中于打造顶尖的大模 型,这使其决策链条极短,能够快速响应技术趋势和市场需求,敢于探索高 风险、高潜力的前沿架构。由于没有庞大的存量业务包袱,它们能够更灵活 地选择开源或商业策略,并以更专注的服务满足垂直行业的深度定制需求。 从技术能力上看,智谱、Kimi、DeepSeek、MiniMax 等独立大模型厂商均处 于国内前列水平,并未被传统互联网大厂拉开差距。全球模型中,OpenAI 和 Anthropic 同样也成功挑战了传统科技巨头的市场地位,证明了独立厂商在 AI 时代具备与大型企业竞争的技术能力。此外,阿里巴巴、腾讯等传统大厂 也广泛战略投资于独立大模型厂商,大厂的云业务通常也同时接入众多业 内领先模型。我们认为大模型竞争未来更多是竞合并存的共生格局。考虑到 中国市场整体仍处于发展初期,未形成绝对龙头,未来独立厂商仍有望通过 融资、技术迭代与市场拓展,加速整合市场,成为行业主导者。
To B vs To C?
短期来看,我们认为 To B 模式是更稳健、更确定的商业化路径。它直接对 接企业的降本增效需求,在金融、政务、制造等垂直场景中能快速验证并产 生可量化的价值,形成清晰的付费闭环。当前,无论是 API 调用还是私有化 部署方案,To B 收入都构成了行业现金流的主要支撑。然而,从长期颠覆性 与规模潜力来看,To C 模式更具想象空间。成功的 To C 应用能够创造全新 的需求与市场,实现指数级用户增长,并最终构建起强大的生态和网络护城 河,其天花板或高于 To B 服务。 在付费意愿维度,To B 与 To C 呈现显著差异。To B 模式下,企业客户为提 升效率、降低成本,付费意愿较高,尤其在金融、能源、制造等对智能化需 求迫切的行业,企业更愿意为 AI 解决方案付费以实现业务升级。而 To C 模 式下,目前多数产品(如豆包、DeepSeek)以免费形式吸引用户,消费者付 费意愿仍较低,变现难度大。 从商业模式看,To B 以 API 调用、私有化部署和行业解决方案为主,收入结 构稳定且较可预测。To C 则以订阅制、广告、积分等模式为主,用户 ARPU 值相对较低。 竞争壁垒方面,To B 模式需要厂商具备深厚的行业知识、强大的工程化能力 及满足合规要求的能力,形成较高的进入壁垒。例如,金融、政务等高安全 场景要求模型支持私有化部署和定制化开发,非头部厂商难以快速切入。而 To C 模式产品同质化较高,用户易因体验差异流失,未来或将演变为流量和 生态的竞争,如豆包依托字节的内容生态、腾讯元宝通过高频服务留存用户, 无强生态支持的独立 AI 助手生存空间被压缩。

然而,纯粹的单一模式存在局限:纯 To B 易陷入项目制定制、增长线性的 问题;而纯 To C 则面临付费意愿低、盈利难的挑战。因此,B 端 C 端融合变 现可能是更好的选择,能够同时赋能企业及服务海量用户,形成数据、场景 与商业价值的增强回路。
大模型厂商如何实现盈利?
当前大模型行业仍处于商业化早期阶段,高算力、高研发及高获客成本是普 遍现象。这些成本的叠加导致厂商普遍亏损,制约了早期盈利能力。尽管部 分厂商通过技术优化(如算法创新、硬件适配)降低单位成本,但整体仍需 依赖规模效应和商业化落地的加速来改善盈利状况。 算力成本是大模型厂商亏损的核心来源之一,巨额的算力消耗直接推高了 运营成本。此外,大模型厂商需持续投入顶尖人才进行算法迭代和模型优化, 研发成本居高不下。由于大模型技术处于快速演进阶段,为保持技术竞争力, 厂商需在架构设计、多模态能力提升等领域不断投入,这部分成本构成了亏 损的重要组成部分。研发投入的前置投入,与商业化回报不匹配,进一步加 剧了亏损压力。同时,在 C 端市场,大模型厂商也要面临获客与推广成本对 利润的侵蚀。 我们认为商业化能力提升和推理成本优化是大模型厂商未来实现盈利的核 心环节。商业化方面,API 调用量增长与商业模式升级共同驱动收入非线性 增长。一方面,客户从试点式使用转向生产级高频调用,规模效应摊薄固定 成本;另一方面,商业模式从基础 API 调用扩展至 MaaS(模型即服务)、行 业智能体、定制化解决方案等高价值服务,将提升 ARPU 值并增强客户粘性。 推理成本优化方面,通过算法创新和工程优化进一步提升算力利用率,从而 降低单位推理成本,推动毛利率提升,为低价高质服务创造空间。
大模型通常指基于 Transformer 架构、参数量达数十亿至数万亿级、经海量 数据训练的深度学习模型,核心特征是规模效应带来的智能涌现、跨任务泛 化与上下文学习能力,可理解并执行复杂指令,是从专用 AI 迈向通用 AI 的关键底座。目前,全球市场已形成国际巨头(OpenAI、Google、Anthropic 等闭源模型领跑,Meta Llama 等开源模型激活生态)与国内阵营(通义千 问、文心一言、DeepSeek 等在中文处理、垂直场景加速突围)并行的格局, 技术上从参数竞赛转向效率优化与多模态融合,产品应用进入产业深耕期, 同时这些公司也面临算力成本高、数据治理难、安全与伦理合规等挑战,正 尝试通过技术创新与政策规范推动可持续发展。

智谱与 MiniMax 均属于独立大模型厂商,而非互联网大厂旗下子公司,核 心聚焦于 AGI 基座的研发与商业化落地;两家企业均通过港交所 18C 章特 专科技公司上市路径完成 IPO,成为全球首批大模型领域的上市标的,并获 得了阿里、腾讯、红杉中国、高瓴等顶级资本的加持,这为其技术研发和业 务拓展提供了资金支撑。目前两家公司均处于典型的“高增长、高研发投入、 高亏损”的早期扩张阶段,营收年增速均超过 100%,研发投入占营业收入 的比例极高,仍处于亏损状态。 在技术与产品层面,两家企业均坚持自研基座大模型,核心提供 MaaS(模 型即服务)相关能力,通过 API 接口、订阅模式、私有化部署等多种形式, 向客户输出大模型技术服务。同时,二者均积极布局多模态技术领域,实现 了文本、视觉、语音等多维度数据的融合处理,并向智能体(Agent)方向 演进,持续拓展大模型的应用边界。 财务层面,近几年智谱与 MiniMax 均实现了营收的高速增长,其中智谱 2024 年营收达人民币 3.12 亿元,同比增长 151%,2025 年上半年营收 1.91 亿元, 同比增长 325%;MiniMax 2024 年营收 0.31 亿美元,同比增长 782%,2025 年 营收已达 0.79 亿美元,同比增长 159%。与此同时,两家企业均面临巨量研 发投入带来的持续亏损,智谱 2025 年上半年研发投入达 15.9 亿元,调整后 净亏损 23.5 亿元;MiniMax 2025 年研发投入 2.5 亿美元,调整后净亏损 2.5 亿美元。目前二者均依赖外部融资支撑算力投入与研发推进,经营现金流处 于负值状态。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)