博通是全球 AI ASIC 和网络芯片的龙头企业。公司的历史上是一部通过精准并购实现价 值跃迁的商业史,其发展轨迹可分为三个关键阶段: 1) 惠普/安捷伦时期与 Avago 的诞生(1961-2015):公司的根源可追溯至 1961 年惠普 公司的半导体部门。1999 年,该部门随安捷伦科技(Agilent)分拆。2005 年,私 募股权巨头 KKR 和 Silver Lake 以 26.6 亿美元收购安捷伦的半导体事业部,成立安 华高科技(Avago Technologies)。这一阶段确立了公司注重现金流和高毛利的经营 基因。 2) “经典”博通的整合与重组(2016-2018):2016 年,安华高(Avago Technologies) 以 370 亿美元收购了无线通信巨头博通公司(Broadcom Corp.),并沿用了“博通” 这一品牌。这次合并是半导体历史上最成功的案例之一,通过剥离非核心低毛利业 务,保留了博通在网络交换、宽带和无线连接领域的资产,构建了强大的护城河。 3) 基础设施软件的版图扩张(2018 年至今):意识到半导体周期的波动性,博通开启 了向基础设施软件的战略转型。2018 年公司以 189 亿美元收购 CA Technologies(大 型机软件),2019 年以 107 亿美元收购赛门铁克(Symantec)企业安全业务,2023 年以 690 亿美元完成对 VMware 的收购。这一系列动作将博通打造成为“半导体+ 软件”的双引擎巨头,极大地平滑了业绩波动。
公司划分为多个拥有高度自主权的业务部门,每个事业部都是其细分领域的绝对领导者。 这些事业部主要归类为两大核心板块: 1) 半导体解决方案(Semiconductor Solutions):该板块贡献了公司 FY2025 财年约 58%的营收,是 AI 增长的核心引擎。
定制加速器(Custom Accelerators / XPU):服务于超大规模云服务商的 AI ASIC 业务。博通利用其 IP 核为 Google、Meta 等客户设计专用的 AI 训练和推 理芯片。 网络(Networking):包括以太网交换芯片 Tomahawk、路由芯片 Jericho 和网 卡/计算卸载芯片 Thor 系列,直接受益于 AI 数据中心对高带宽互联的需求。 无线(Wireless):主要为苹果等消费电子企业提供 Wi-Fi、蓝牙和射频前端模 组(FBAR),是稳定的现金牛业务。 服务器与存储连接(Server & Storage Connectivity):包括 PCIe交换芯片(PCIe Gen 5/6/7 Switch)、Retimer 芯片以及 HBA/RAID 存储控制器。 宽带与工业(Broadband & Industrial):包括光纤接入(PON)、电缆调制解调 器(DOCSIS)以及用于工业自动化的光耦合器和编码器等。
2) 基础设施软件(Infrastructure Software):该板块在 FY2025 财年营收占比达 42%。 其不仅提供了高额的经常性收入,还通过捆绑销售增强了对企业级客户的粘性。 VMware:私有云和混合云虚拟化平台,是企业构建 AI 私有云的核心底座。 Symantec:企业网络安全。 CA Technologies:IT运维管理(AIOps)和大型机软件。 Brocade:光纤通道存储网络交换机。尽管是硬件,但因其极高的软件壁垒和 在金融/政府数据中心的不可替代性,常被归类于高毛利的基础设施业务中。

截止 2025年 9月 30日,博通前五大机构持股合计 13.24亿股,占比 28%。其中,Vanguard (先锋领航集团)、BlackRock(贝莱德集团)、State Street 三家机构持股占比分别为 10.14%、 8.01%、3.92%,资本集团(Capital Group)旗下的两个基金合计持股占比近 6%。
2.1 下游资本支出高企,推理驱动 AI ASIC 蓝海市场
2.1.1 资本开支的晴雨表:北美科技巨头的算力军备竞赛
随着大模型的算法复杂度和训练/推理体量不断增长,算力基础设施的供给水平将直接影 响应用落地及其迭代的进程。反应各大互联网厂商对算力基础设施投入最直接的资本支出 (Capex)指标近三年来也在不断攀升。2023 年一季度至今,北美四大互联网公司(亚马逊、 微软、谷歌、Meta)的 Capex 总额基本实现每季度均环比增长的态势,2025 年三季度四家 公司的 Capex 总额达到 1133.2 亿美元,同比和环比分别增长 74.7%、18.2%,相比 23Q1 的体量增长了 2.2 倍。 资本支出的结构方面,微软率先在本轮 AI 周期中加大投资力度,从 23Q1 的 78 亿美元 增长至 25Q3 的 349 亿美元,增幅高达 3.5 倍;谷歌 23Q3 开始显著提升 Capex 力度,截至 25Q3 单季度支出近 240 亿美元;亚马逊 24Q1 开始扩张 Capex,从 24Q1 的 149 亿美元提 升至 25Q3 的 351 亿美元,目前其 Capex 体量与微软基本持平;Meta 从 24Q2 开始显著上 调 Capex,25Q3 其体量为 193.7 亿美元,同比增长 1.1 倍。

2.1.2 推理驱动 AI ASIC 蓝海市场
在人工智能的军备竞赛中,通用 GPU 虽然占据了早期训练市场的统治地位,但随着推 理需求的爆发,全球科技巨头正在大规模转向自研定制芯片 AI ASIC。超大规模云服务商正 在构建自己的芯片护城河,以追求极致的 TCO(总拥有成本)和供应链安全。
科技巨头的业务模型、应用场景等很多通过自身的云来承载,每个云承载了独特的应用 和商业模型,包括内部应用(比如搜索引擎、社交媒体等)、SaaS 服务(比如 AI 聊天机器 人、Copilot 等)、IaaS 服务等。ASIC 可以适应不同的业务场景和商业模式的需求:1)内 部工作负载的架构优化;2)更低的功耗,更低的成本;3)为 AI 工作负载定制的内存和 I/O 架构。 训练集群对 AI 加速计算芯片的需求已提升到十万卡级别。而在推理阶段,由于计算量 与业务和应用密切相关,单个推理集群对加速计算芯片的需求低于训练集群,但推理集群的 部署数量要远多于训练集群。AI 算力集群特别是推理集群对加速计算芯片的庞大需求,是 AI ASIC 快速成长的核心驱动力。
与 GPU相比,ASIC针对特定算法和应用进行优化设计,在特定任务上的计算能力强大, 例如在某些 AI 深度学习算法中实现高效的矩阵运算和数据处理。GPU 具有强大的并行计算 能力,拥有众多计算核心,可同时处理多个任务,在通用计算和图形处理方面表现出色,适 用于大规模的数据并行计算,如科学计算、图形渲染、视频处理等;但 GPU 在某些特定任 务上的计算效率可能不如 ASIC。 ASIC 在处理特定任务时,能实现高吞吐量,数据处理速度快,可快速完成大量的数据 处理工作。GPU 具有较高的带宽和并行处理能力,在图形处理和通用计算中能实现较高吞 吐量,但在处理一些复杂、非图形相关的特定任务时,其吞吐量可能会受到一定限制。 ASIC 在绝对算力和片间互联方面普遍低于 AI GPU,但 ASIC 的服务器间互联由于采用 以太网为主,具有生态开放、低成本等优势。
2.2 全球 ASIC 龙头,丰富的 IP 储备+XPU 平台工程经验构建 ASIC 护城河
博通是全球 AI ASIC 的龙头企业。公司广泛的 IP 储备可为其 XPU (ASIC)产品线赋能, 其 IP 产品主要分为 4 类:计算,存储,网络 I/O,封装。其中 SerDes、基于 AI 优化 NICs、 高端封装、交换机、CPO、内存等 IP 处于行业领先水平。SerDes(串行器/解串器)技术是 芯片间数据传输的咽喉,博通拥有全球领先的 SerDes IP,这是构建高性能 AI 集群的物理层 基础。博通在 IP 相关领域投入了至少 30 亿美元研发费用。
博通充分利用已经布局完成的 XPU 平台工程,实现了业界最快的 ASIC 产品落地时间。 XPU 平台涵盖了公司经过 10 年 ASIC 经验优化的 AI 设计流程、AI IP、SoC 封装等一体化 解决方案。ASIC 产品设计阶段耗费 7-9 个月的联合开发时间,再用 3 个月左右的时间完成 产品的生产和产能爬坡。
博通与客户在架构阶段就展开了深度的战略合作。在 ASIC 设计启动的前几年,完成了 关键组件的早期 IP 投资;并且为后两代 ASIC 同时进行技术、IP 和封装投资。
随着算力性能增长、网络和内存带宽提升、对电力输送、热完整度、机械可靠性等要求 的升级,ASIC 的复杂度在加深。博通积极响应了客户对更复杂的 ASIC 的需求。 博通的 ASIC 客户名单几乎涵盖全球 AI 领域的核心公司。博通是谷歌 TPU 的外部核心 设计合作伙伴,双方的合作从第一代 TPU v1 持续至今,已迭代至 TPU v7 产品。博通还与 Meta 深度绑定,为其设计自研的 MTIA 芯片。此外,OpenAI 也是博通的新晋的超级客户。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)