以下选取头部科技 公司微软、谷歌、亚马逊与 Meta 进行横向比较,从业务布局、基座模型、商业 模式、投资四个层面对比说明 Meta AI 业务现状及发展空间。
AI 产业链可分为上游基础设施、中游底层模型和下游应用三个环节。微软、谷歌、 亚马逊作为头部公有云厂商,均基于在云计算领域的优势,从基础设施层向下游 扩张,自研大模型并将其应用于自身业务中。其中,1)微软与 OpenAI 高度绑 定,基于 GPT、DALL-E、Sora 等领域顶尖模型在 Azure 以 MaaS(Model-asa-Service)形式提供 OpenAI Service,并且推出操作系统、办公软件、搜索引 擎、代码、营销产品的 AI 助手 Copilot,产品化与生态化进展领先。 2)谷歌在 AI 领域深耕多年,研究水平领先,为 Attention 机制与 Transformer 架 构的提出者,但由于管理不协调等问题,产品进展稍显落后。公司在开发自有模 型 PaLM、Imagen、Gemini 的同时投资 Anthropic,在 GCP 提供 Claude 等模 型 API,并且推出聊天机器人 Google Bard、办公助手 Google Assistant 与搜索 助手 Google Search。 3)亚马逊大模型进展稍显落后,更加侧重对外投资借力,合计投资 Anthropic 40 亿美元,在 AWS 提供 Claude 等模型 API,推出语音聊天助手 Alexa、文字转语 音工具 Polly 及代码工具 CodeWhisper,与原有电商业务的协同性较弱,因此产 品力略显逊色。 同时,为抵抗英伟达在计算芯片中的垄断级话语权,云厂商均向上游延伸自研芯 片,谷歌 TPU、微软 Athena、亚马逊 Trainium 及 Inferentia 分别在自有数据中 心中使用,但尚未对 GPU 的核心地位造成撼动。
对比三大云厂商,Meta 不提供公有云服务,AI 技术落脚点在于使用大模型优化 社交用户与广告主体验。Meta AI 聊天助手、Advantage+营销工具等旺盛需求倒 推公司更新基础设施,增加数据中心中可用于 AI 工作负载的部分。自 2023 年 5 月起,公司陆续发布数据中心架构方面的更新,包括自研 ASIC MTIA、大幅增加 GPU 集群、自研适配自身业务的超算电脑 RSC 等。

Llama 是 Meta 发布的基础 LLMs 集合,延续公司 AI 的开源路线,开放模型参 数的调整权限,并为研究人员和开发者提供模块化和可自定义的平台,极大降低 大模型的进入门槛。Llama 作为开源模型的代表迭代迅速,逐步追平与闭源模型 SOTA(State of the Art,领域最佳性能)差距,打破产业对于开源技术不及闭源 的刻板印象。
回顾 Llama 的发展历史—— Llama 2:技术优化与应用拓展。Meta 在 2023 年 2 月发布面向研究者开源的 Llama 1 后,于 7 月发布免费可商用的 Llama 2,开源 7B、13B 和 70B 模型的 权重。Llama 2 在预训练阶段,将语料扩充 40%到 2T Token,引入分组查询注意 力机制(Grouped-Query Attention, GQA),减少与缓存相关的内存成本,平衡 效率与性能;在微调阶段,加入 SFT(Supervised Fine-Tuning,有监督微调) 及 RLHF(Human Feedback Reinforcement Learning,人类反馈强化学习), 并发布面向对话应用的微调模型 Llama 2 Chat。 Llama 3:预训练预料扩大,小参数级别领先。2024 年 4 月,Llama 3 发布,包 括 8B 和 70B 两个参数版本,预训练语料扩充到 15T Token,支持 8K 长文本, 并采用更高编码效率的 Tokenizer Tiktoken(与 GPT 4 一致)。
微调阶段使用结 合 SFT、近似策略优化(Proximal Policy Optimization, PPO)和直接策略优化 (Direct Policy Optimization, DPO)的综合方法,大幅优化模型在执行复杂的推 理和编码任务时的表现。在基准测试集中,Llama 3 8B 与 70B 表现均优于同等 参数级别模型,包括 Gemma 7B、Mistral 7B 及 Gemini Pro 1.5、Claude 3。 Llama 3.1:追平闭源模型 SOTA,跻身 LLM 第一梯队。2024 年 7 月,Llama 3.1 发布,在更新 8B 和 70B 模型的同时,推出 405B 大参数版本,预训练数据 包括更多的非英语资料、数学与代码信息,支持 128K 长文本与八种语言,并且 支持零样本工具使用(包括网络搜索、数据运算及代码执行)。在基础测试集中, Llama 3.1 405B 的表现已能够全面对标 GPT 4o 与 Claude 3.5 Sonnet 等领先闭源模型;在人类评估中,Llama 3.1 405B 表现相对 Claude 3.5 更优,相对 GPT 4 持平,略逊色于 GPT 4o。 Llama 3.2:进入多模态领域,聚焦端侧部署。2024 年 9 月,Llama 3.2 发布, 包括 1B 和 3B 轻量级模型,适配边缘计算和移动设备应用;以及 11B 和 90B 多 模态模型,能够实现图像理解、文档分析、视觉问答等任务,对标Claude 3 Haiku。
我们如何看待 Llama 的开源路线? 闭源与开源路线并非二元对立。以完全闭源和完全开源为两个端点,模型整体能 力对于公众的可及性程度包括“①完全封闭-②托管可及-③模型 API 可及-④微调 API 可及-⑤模型参数可及-⑥模型参数、数据及代码可及而使用受限-⑦模型参数、 数据及代码可及且使用不受限”七个阶段;④/⑤为广义闭源与开源模型的分割点。 同一模型开发商可能针对不同模型采取差异化可及性方案,也可能针对同一模型 采取动态化可及性方案。例如,OpenAI GPT 2 最早通过 API 开放,再基于模型 使用风险评估与用户使用反馈,逐步提高可及性程度;谷歌提供闭源 Gemini 系 列模型,同时开源 Gemma 系列小模型。
从模型能力发展的角度看,开源和闭源模型间不存在性能悬殊。开源路线虽起步 略晚,但在 Llama 的引领下,性能已逐步追平闭源。从商业化角度看,开源的价 值在于建立生态。闭源模型出售 API 的 MaaS 模式变现较快,从商业落地与技术 保护角度驱动企业技术创新。开源模型一方面能够促进技术普惠,另一方面通过 开发者的广泛使用实现衍生工具的标准化,从而建立产业生态,再谋求商业化变 现的机会。 Meta 定位开放生态系统的领导者,积极推进 Llama 生态建设。Meta 对于 Llama 的定位是 LLMs 时代的安卓,Llama 不仅自身开放微调、蒸馏、基准测试等权限, 背后的生态系统也以模块化的方式提供产品、应用和服务,每个参与方都可以贡 献自己的专业知识。Llama 生态系统参与者已包括服务器和移动硬件企业、云平 台、初创 AI 公司及有 AI 研发需求的传统企业。根据 Meta Connect 2023 大会披 露,Hugging Face 中基于 Llama 微调发布的衍生产品超过 7000 个;截至 24M8, Llama 下载量已接近 3.5 亿次,相较去年同期增长了 10 倍。
我们依据是否对外提供 AI 服务将产业链划分为“AI+”与“+AI”两个部分。产业 链上游的基础设施供应商与中游的模型开发商以 AI 技术为核心,主动推动其他 领域的变革并从中获利,属于“AI+”的范畴。产业链下游的 AI 应用企业更多强 调将 AI 技术整合到现有系统中,通过赋能传统行业产生价值,属于“+AI”的范 畴。
复盘 2022 年末至今产业链企业的表现,商业化顺序为基础设施->大模型->应用。 我们发现本轮生成式 AI 浪潮下,产业链中最先且最多受益的为“AI+”基础设施 供应商,如 GPU 龙头英伟达以及云计算平台 Azure(微软)、AWS(亚马逊) 及 GCP(谷歌)。“AI+”模型供应商作为产业链的创新中枢,其中大部分企业 仍处于低价推广+高边际成本的亏损状态,通过订阅付费及 API 调用付费变现, 但尚未实现商业闭环。“+AI”的传统企业也紧随其后,借助 AI 实现原有业务场 景的降本增效,其中 2B 工具通过订阅提价提振原有产品 ARPU,2C 工具多采取 免费试用+后期按量付费的模式,兑现节奏整体晚于“AI+”企业。 展望未来,产业链价值或向模型及应用层转移。“AI+”计算芯片与云服务供应商 在算力需求高涨的背景下,收入增长的确定性与可持续性仍较高。“AI+”模型供 应商凭借数据+算力+算法壁垒构筑进入壁垒,行业集中度预计将随资源竞赛的进 行而逐步提升,头部企业有望基于领先的模型性能以及排他性的话语权迎来收入 与盈利拐点,市场空间与基础设施供应商相比具备更持续的增长性。传统企业发 展“+AI”变现天花板较低但可见度高,其中获取商业成功的关键在于原有业务护 城河深厚,并且能够基于数据和场景 Knowhow 建立壁垒。
“+AI”和“AI+”分别对应扎克伯格提出的核心 AI 与生成式 AI 两条路线,驱动 Meta 在短期变现的同时保障长期发展空间。如 3.1 所述,核心 AI 围绕 FoA 推荐 算法与广告投放准确度展开,并且已经开始贡献收入。Meta“+AI”赋能与变现 进度领先,主因庞大的社交平台用户群体为其提供良好的试验田,变现机会相较 其他科技企业天然更优,因此也提前展现出 AI 投资的 ROI。Meta 认为“+AI” 虽变现可见度高,但相应空间也较小,而“AI+”模型开发(对应生成式 AI 路线) 是长期的战略发展方向,公司计划在 Llama、Meta AI 等产品达到一定用户数量 后开始变现,预计在中长期提高 AI 收入的天花板。
三大云厂商资本开支在云计算需求推动下保持高增,Meta 算力主要自用。云厂 商 capex 主要服务自用及外供的计算资源。亚马逊/微软/谷歌分别自 2005 年 /2009 年/2012 年开始提供公有云服务,随后伴随着云计算技术逐步成熟、企业 陆续推进 SaaS 转型,外部计算需求推动公司云收入与 capex 高增,2022 年, 受公有云渗透率提升到较高位置及企业 IT 支出收缩影响,增速有所放缓。Meta 相对云厂商而言并未对外提供计算资源,算力主要用以维护 FoA 日常运转,因此 capex 规模随平台用户数增长保持增势。缺少公有云业务也使 Meta 在数据中心 向生成式 AI 工作负载转型的趋势中起步稍慢。
生成式 AI 推动云厂商基础设施进入新一轮建设周期,capex 高增彰显决心。2023 年生成式 AI 爆发,头部科技厂商均大力投入 LLMs 及多模态模型的训练,并通 过推理使模型适用于自身业务;训练+推理共同提振自用算力需求。而在外供方 面,云厂商也在自有云计算平台上提供大模型 API,MaaS 的商业模式带动外供 算力放量。在内外需均旺盛的前提下,公司均加速算力投入,推动 capex 高增。 根据 Omdiea Research 数据,2023 年 H100 出货量前四的终端用户为 Meta(15 万)、微软(15 万)、谷歌(5 万)及亚马逊(5 万)。根据 2024 年指引,微 软/谷歌/Meta capex 分别达到 444+/480+/370-400 亿美元。

Capex 短期内不会转化为收入,关键拐点在于资本开支密度的收窄。2022 年, Meta 增加生成式 AI 的基础设施投入,capex 同比增长 68%,对应资本开支密度 提升 11.1pct 至 27.0%,FCF Margin 下滑 16.7pct 至 16.3%。在 2023 年 capex 周期性放缓(23Q2 起连续四个季度下滑)后,公司于 2024 年进入新一轮资本开 支周期,上调全年指引至 370-400 亿美元(YoY+36%至 47%),预计年底将拥 有等效 60 万 H100 的算力;并指引 25 年将继续大幅增长。由于公司盈利增长极 具韧性,经营性现金流重回增长轨道,预计 capex 扩张对 FCF 的负面影响将小 于 2022 年。长期来看,capex 与收入的同步增长是 ROI 的增长拐点,资本开支 密度与 FCF Margin 的走稳趋势值得关注。