成本和兼容性驱动下,800G 以太网交换机迎来放量。
目前,交换机产业链的厂商较为集中,在 IB 网络领域,英伟达及其子公司Mellanox独占鳌头,在超以太网领域布局较为深入的厂商则相对较多,包括交换机芯片龙头厂商博通、Marvell 和思科,交换机龙头厂商 Arista 以及AI 巨头英伟达。在AI组网的过程中,交换机产品持续迭代升级。
首先看交换机芯片龙头博通。博通在 AI 领域的交换芯片主要包括Tomahawk5和Jericho3-AI,现已成为头部 CSP 厂商进行规模 AI 组网的必备芯片。根据博通FY3Q24 的法说会,第三季度 AI 领域表现亮眼,Tomahawk5、Jericho3 以太网交换机产品同比增长 4 倍;PCIe 交换机同比增长 1 倍,预计Q4 AI 收入达到35亿美元,环比增长 10%,FY24 AI 收入达到 120 亿美元,高于此前指引的110亿美元,AI 相关收入还将保持快速增长。
其次是 Arista,Arista 作为以太网交换机龙头,近年来在全球高阶交换机市场中的份额持续提升,按照金额口径,份额从 2012 年的 3.5%提升至2023 年的29.9%,已非常逼近思科。尤其在 100/200/400G 的交换机市场中,Arista 处于龙头地位,2023 年占据约 45%的份额。

2024 年 6 月,Arista 推出最新的 Arista Etherlink™ AI 平台,包含3 款AI 交换机:7060X6、7800R4 和 7740R4,基于博通 Tomahawk 5、Jericho3-AI 交换芯片,支持从数千到数百个 XPU 的 AI 集群大小,性能优越,且支持最新的UEC标准,未来随着 UEC NIC 推出,性能优势有望进一步凸显。
最后是英伟达,英伟达过去主要以 IB 交换机为主,现逐步转向以太网,并已加入超以太网联盟。 英伟达在 2023 年 5 月发布面向 AI 以太网的 Spectrum-X 方案,是全球首款专为AI打造的以太网网络平台,可将生成式 AI 网络性能较传统以太网网络平台提升1.6 倍。同时,NVIDIA 计划每年都推出新的 Spectrum-X 产品,为客户提供更高的带宽、更多的端口、更加强大的软件功能集与可编程能力,不断提高领先的AI以太网网络性能。 目前,率先采用 NVIDIA Spectrum-X 的 AI 云服务提供商有CoreWeave、GMOInternet Group、Lambda、Scaleway、STPX Global 和Yotta 等,另外,继戴尔科技、慧与、联想和超微等将 Spectrum-X 平台整合到他们的产品中后,又有多家NVIDIA 合作伙伴也发布了基于 Spectrum 的产品,包括永擎电子(ASRockRack)、华硕(ASUS)、技嘉科技(GIGABYTE)、鸿佰科技(Ingrasys)、英业达(Inventec)、和硕(Pegatron)、云达科技(QCT)、纬创(Wistron)和纬颖科技(Wiwynn)等。
构建 AI 网络大集群需要解决算力问题,除了要有充足的GPU 外,AI 集群的互联也需要交换机的支持,以 H100 集群为例,小规模的H100 集群通过1-2 层交换机将所有 GPU 以 400G 多模光收发器连接起来即可,大型的H100 集群则需要增加更多层交换机,而不同网络拓扑结构的设计会导致完全不同的资本开支。目前有三种主流网络方案可供选择:Broadcom Tomahawk 5、Nvidia InfiniBand 和NvidiaSpectrum-X,其中 Broadcom Tomahawk 5 和 Nvidia Spectrum-X方案都是以太网网络。 交换机网络有 3 层和 4 层两种设计,考虑到成本问题,我们主要比较3 层网络的成本差异。根据 SemiAnalysis 的测算,相比 Infiniband 方案,在大型AI 集群中,以太网 Spectrum-X 架构表现出明显的性能优势,也能显著降低成本,3层SpectrumX 网络的总交换机成本约 13.6 亿美元、3 层Infiniband 的交换机成本在16.9 亿美元左右。而 Broadcom Tomahawk 5 的方案与Spectrum-X相比,虽然在软件生态和优化方面略逊一筹,但其性价比优势更为突出,交换机成本仅7.92亿美元。因此总结而言,以太网方案的成本优势非常显著,性价比也会成为许多公司选择建设类似网络的主要原因之一。
在最新季度的法说会上,多家算力龙头厂商对 AI 的发展给出了乐观指引,例如NVIDIA 表示数据中心保持高增,Blackwell Q4 有望带动数十亿美元营收,Arista也重申 2025 年 7.5 亿美元 AI 指引仅为后端训练网络收入,思科已获得来自WebScale 客户的 AI 订单超 10 亿美元。 随着数据中心建设的逐步深入,交换机迭代升级节奏加快。根据Arista 援引的Dell’Oro 报告,交换机高速化趋势持续演绎,800G 交换机有望在2025 年左右起快速上量,并在 2026 年成为主流,AI 的加入还会使得800G 的放量更加提速。同时,1.6T 交换机也将延续 800G 的渗透趋势,在未来几年内逐步推出。
根据 LightCounting 的统计,2023 年 InfiniBand 交换机ASIC 的销售额增长了2.3倍,预计 2024-2029 年的年复合增长率为 25%。以太网方面,由于云数据中心内计算节点的投资减少,2023 年以太网交换机 ASIC 的销售额基本持平,但这一市场将在 2024 年恢复增长,之后将稳步增长,预计2024-2029 年以太网交换机ASIC 的销售额将以 14%的年复合增长率加速增长。
以 OpenAI 为首的各大公司密集推出 AI 应用,引发一轮又一轮AI 海啸。9月13日凌晨,OpenAI 发布最新“草莓”模型的部分预览版——OpenAI o1 预览版,相比前一代模型,o1 拥有进化的推理能力,会在回答前进行缜密思考,产生一个很长的内部思路链,并且能像人类一样完善自己的思维过程,不断尝试新的策略并认识到自己的错误。根据测评结果,o1 在物理、化学和生物学等基准任务上的表现与博士生相当,并且在数学和编程方面表现出色。
AI 需求不断提升,全球龙头公司微软、META、谷歌、苹果、亚马逊等纷纷加大数据中心资本开支,自 2023Q3 起连续四个季度上行,2024Q2 资本开支总额创季度历史新高,且各大 CSP 厂商对未来 Capex 的指引持续乐观。
随着 AI 时代到来,算力的需求将爆发式增长,全球AI 芯片龙头英伟达业绩持续超预期,彰显了算力的高景气。英伟达 FY25Q2 收入为300 亿美元,较上一季度增长 15%,较去年同期增长 122%,数据中心收入创下263 亿美元的纪录,较上一季度增长 16%,较去年同期增长 154%。公司预期FY25Q3 的收入将达325亿美元(上下浮动 2%),持续增长,证明了对 AI 需求的信心。

英伟达、AMD、特斯拉等巨头持续开展 AI 竞赛,新品更迭层出不穷。NVIDIAGB200 系列将于今年 Q4 开始量产,在具有 1750 亿个参数的GPT-3 LLM基准测试中,GB200 的性能是 H100 的七倍,训练速度是H100 的四倍。此外,AMD和特斯拉也不甘示弱,在“AMD 数据中心与人工智能技术首映会”上,AMDCEO苏姿丰公布了 MI300A,是全球首个为 AI 和 HPC(高性能计算)打造的APU加速卡,拥有 13 个小芯片,总共包含 1460 亿个晶体管,而根据特斯拉的算力发展规划,其超级计算机 Dojo 将在 24 年末达到 100 EFlops 的超级算力。
在 AI 芯片的快速迭代下,交换机放量可期。根据 TrendForce,2026 年AI 服务器年出货量有望超过 200 万台,2022-2026 年复合增长率约29%。而根据英伟达发布面向 AI 以太网的 Spectrum-X 方案,该方案中服务器:交换机约为3:1,算力需求的爆发将大幅拉动高阶交换机的需求增长。
随着传输速率的要求越来越高,PCB的损耗会变大,因此需要采用更低损耗的CCL板材匹配设备需求,并增加层数。以新华三 400G 交换机为例,其引入多款UltraLow Loss 层级板材以满足损耗要求,升级至 800G 甚至1.6T 后,对材料的要求只会更高。此外,类比通用服务器的升级,根据联茂的统计,每当通用服务器迭代一代,PCB 层数均会提升 4-6 层不等,也会带来 PCB 价值量的显著增长。根据产业链调研,800G 交换机的 PCB 层数在 30 层以上,采用M8 等级CCL材料,后续向 1.6T 迭代升级,PCB 层数和材料还有望进一步提升。
同时,PCB 规格提升后,制造难度也会大幅增加。对比常规线路板,高层线路板层数更多、线路和过孔更密集、单元尺寸更大、介质层更薄,在层间对准、压合和钻孔等工艺上都有更高的要求。 例如在压合时,多张内层芯板和半固化片叠加,压合生产时容易产生滑板、分层、树脂空洞和气泡残留等缺陷,所以在设计叠层结构时,需充分考虑材料的耐热性、耐电压、填胶量以及介质厚度。多层板在钻孔工艺上的难度也更高,层数越高厚度越高,容易导致斜钻问题,也更易产生毛刺。因此,高多层PCB板的制造需要长时间的 knowhow 积累,尤其是 800G 交换机及以上规格的产品,进入门槛极高,也带来价值量更明显的提升。
综上所述,在 AI 需求的拉动下,以太网交换机相关PCB 的需求及价值量都有望实现明显提升,我们认为 800G 交换机产业链有望拉动PCB 行业持续爆发。