2025年电子行业深度报告:从云端算力国产化到端侧AI爆发,电子行业的戴维斯双击时刻——电子行业2026年投资策略

1. 算力芯片

1.1. 云端算力芯片

1.1.1. GPU&ASIC:AI CapEx 大力投入,看好国产算力业绩释放

全球 CSP 资本开支持续抬升,国内需求空间广阔。随着 Token 调用量持续攀升, 在全球 AI 推理需求快速增长的驱动下,海外 CSP 进一步加大算力基础设施投入,AI 推 理相关资本开支持续上行。25Q3 海外四大 CSP 的资本开支合计 979 亿美元,qoq+10%, 延续了季度间上升的趋势。相较之下,国内整体算力资本开支仍处于追赶阶段。尽管国 内 CSP 与海外巨头在投入总量上仍存在一定差距,但从 Token 调用量与业务规模来看, 字节等头部厂商已接近谷歌体量。我们认为国内需求端的算力消耗快速增长,而当前供 给侧投入相对不足,为未来数年资本开支大幅提升奠定了扎实空间。

算力产业链自主化进程加速,看好国产算力业绩释放。中芯国际先进制程扩产稳步 推进,公司近几年产能利用率维持在 90%左右,表明订单需求与扩产节奏匹配度较高, 市场开拓进度良好。整体来看,国产先进制程扩产稳步推进叠加产业链自主可控进展加 速,将显著增强国内算力产业的供给保障能力。在 AI 推理和训练需求持续提升的背景 下,国产算力厂商有望充分受益,业绩释放可期。

1.1.2. Switch 芯片:超节点产业趋势下,看好国产厂商逆袭

推理时代性能瓶颈转移:从“算力”到“运力”。小批量、低精度、MoE 的推理任 务对计算本身要求不高,但在分布式部署下,多卡之间的通信延迟往往成为效率瓶颈。 为此,行业正在把互联方式从机柜之间的 Scale-Out 网络转向机柜内部的 Scale-Up 网络 (NVLink、UALink、PCIe 等),利用更短的传输距离实现更高带宽和更低延迟,从而提 升整体吞吐。在 Scale-Up 网络架构中,AI 服务器内部使用的 switch 芯片大致可分 CPU–GPU 连接与 GPU–GPU 互联两类。前者主要负责把 CPU 的有限上行通道扩展出来,连 接到多块 GPU、网卡以及存储设备。GPU–GPU switch 芯片则直接服务于 GPU 之间的 大规模数据面通信,是 GPU 集群实现高带宽、低延迟的核心。 国产自研超节点崭露头角,“运力”成为国产算力“赶超”海外龙头的关键一环。 25 年下半年是国产超节点方案陆续进入公众视野的阶段,无论是互联网厂商、交换机厂 商、GPU 自研厂商,各家均有亮眼产品陆续发布。我们看好接下来国产方案百花齐放, 一方面,以华为、曙光为代表的全栈自研路径已有重磅方案发布,另一方面,看好第三 方 Switch 芯片厂商绑定互联网大厂客户做进终端方案。核心在于产品顺利研发推进,以 及导入验证节奏。随着国产算力逐渐进入放量期,国产超节点产业链有望迎来更高确定 性的增长机遇。

1.1.3. 华为 Ascend:全栈协同构筑国产 AI 算力底座,引领核心基础设施价值重估

华为 Ascend 系列处理器持续迭代,致力于提供行业领先的 AI 算力。当前路线图显 示,从 2025 年第一季度的 Ascend 910C 开始,该系列处理器在微架构、算力和互联带宽 上实现跨越式升级。作为迭代主力,Ascend 950PR(2026 年 Q1 出货)和 Ascend 950DT (2026 年 Q4 出货)均采用 SIMD/SIMT 微架构,并将互联带宽从 910C 的 784 GB/s 大幅 提升至 2 TB/s,算力提升至 1 PFLOPS FP8/FP4。在内存方面,Ascend 950DT 配置 144 GB 内存和 4 TB/s 带宽,并开始导入 HiZQ 2.0 自研 HBM 技术。随后的 Ascend 960(2027 年 Q4 出货)进一步将算力翻倍至 2 PFLOPS FP8/4 PFLOPS FP4,互联带宽达到 2.2 TB/s,内 存容量和带宽也大幅提升至 288 GB 和 9.6 TB/s。到 Ascend 970(2028 年 Q4 出货),算力 再次翻倍至 4 PFLOPS FP8/8 PFLOPS FP4,互联带宽达到 4 TB/s。

随着大模型参数规模持续指数级增长,传统单柜算力已难以满足训练推理效率要求。 为实现算力集约化、降低通信损耗并提升集群利用率,华为率先提出“超节点”战略, 通过将多颗 Ascend NPU 和鲲鹏 CPU 高效连接,使集群在调度逻辑上如同一台超级计算 机运行。这一模式显著改善了 AI 计算资源碎片化问题,并成为 Cloud Matrix 战略落地 的核心形态。 当前华为主推的 Ascend 384 超节点(Atlas 900 A3 SuperPoD)基于 Matrix Link 高速 互联架构,实现 384 颗 NPU 与 192 颗 CPU 全对等通信。该架构支持“一卡一专家” MoE 推理模式,使单卡吞吐量达到 2300 tokens/s,同时通过训推一体的调度机制,使算 力利用率提升超过 50%。截至 2025 年 9 月,该型超节点已部署超 300 套,服务超过 1300 家客户,并可按板卡级扩展至 10 万卡规模的 Atlas 900 Super Cluster。与英伟达 GB200 NVL72 机柜相比,其总算力接近 2 倍,总内存容量和内存带宽分别达到 3.6 倍和 2.1 倍。 在此基础上,华为面向下一代 AGI 算力需求推出 Atlas 950 SuperPoD。该产品通过 器件级升级、晶间互联技术迭代和光电融合方案,引入递归直连拓扑(UB-Mesh),实现 从单板到机架间 NPU“无收敛全互联”,可按 64 卡步长线性扩展至 8192 卡,并结合零 线缆电互联与液冷浮动盲插技术显著提升系统可靠性和可维护性。Atlas 950 Super Cluster 由 64 个超节点构成,总计搭载超过 52 万片 Ascend 950DT 芯片,FP8 算力可达 524 EFLOPS,节点规模超越 xAI Colossus。

硬件演进之外,华为也同步在软件架构层面推出“灵衢”作为 AI 时代数据中心参 考设计。灵衢实现 I/O、内存及计算资源在总线级的统一互联(百纳秒级时延、TB/s 带 宽),支持 CPU、NPU、GPU 等多类型算力的无中心化协同,并通过全量池化和 UBoE 协议扩展实现百万卡级高效调度。该架构具备高弹性、高可用特性,是 Atlas 超算平台 从单柜向大规模矩阵型集群演进的核心软件支撑。 总体来看,华为超节点的迭代,不仅体现硬件算力密度和互联能力的跨越式提升, 更结合“灵衢”平台实现软件定义资源、算力智能调度和训推一体化运行,为大参数模 型、MoE 模型及 AGI 探索提供面向未来的基础设施底座。这一体系也为其进一步参与 全球 AI 基础设施竞争奠定战略优势。

在华为昇腾超节点持续推进算力集约化、互联架构不断升级的大背景下,高速连接 器正成为 AI 基础设施体系中不可或缺的底层支撑环节。背板连接器作为大型服务器和 超算系统的关键组件,承担高速差分信号传输及高电流承载功能,其对传输速率、信号 完整性及空间密度要求极为严苛。 华丰科技在高速互联领域具备较强技术储备,是国产替代中最具确定性的连接器龙 头之一。公司 112G 高速线模组已实现稳定供货,224G 产品完成客户验证,性能达量产 要求,正加速导入华为、浪潮、超聚变、曙光等设备厂及阿里、腾讯、字节等互联网客 户。伴随明年新一代算力平台放量、机柜架构复杂度提升,高速线模组单机价值量及单 价均有望上升,公司有望实现量价齐升,业绩进入高增周期。结合国产 AI 服务器扩张 及华为超节点战略推进,华丰科技有望成为算力互联系统国产化核心受益标的。

1.2. 端侧算力芯片

1.2.1. 海外大厂 AI 端侧布局下,看好海外链 SoC 龙头受益

从海外科技巨头来看,端侧 AI 的战略地位正快速抬升并进入全面落地阶段。2025 年 11 月 18 日,Gemini 3 正式发布,在“人类终极考试”中得分 37.5%,远超前代及竞 品。11 月 21 日,Nano Banana 2.0 Pro 随后发布,具备世界知识和逻辑推理能力,能精 准识别坐标、时间等信息并生成符合现实场景的图像,还能生成结构化信息图,展现对 知识的准确理解和视觉化表达能力。谷歌将模型集成到搜索、Gmail、Android 等核心产品中,并结合其既有硬件终端布局,形成从云端到端侧的体系化协同。随着模型能力与 终端设备的深度融合,其 AI 在端侧的渗透率有望加速提升。Meta 方面,管理层在业绩 会上将 AI 眼镜视为下一代计算平台核心形态。OpenAI 也已完成端侧能力的战略补位: gpt-oss-20B 模型可在 16GB 内存的端侧设备上运行,公司也已正式启动面向消费级 AI 设备的产品化布局。总体来看,端侧 AI 正逐步迈向大规模商业化部署,有望驱动未来 SoC 需求的结构性增长。

海外端侧 AI 已进入实质性落地阶段,建议关注海外链 SoC 相关厂商。晶晨股份在 谷歌智能家居生态中持续深化绑定关系。根据公司 25Q3 财报,晶晨已与谷歌合作推出 多款适配其端侧大模型 Gemini 的新品,包括智能音箱、可视门铃及室内外摄像头等, 推动谷歌智能家居全面向嵌入端侧大模型能力的下一代产品升级。恒玄科技方面,公司 面向智能眼镜场景的 BES6000 系列异构 SoC 正在加速推进;该产品需同时满足高性能 与低功耗的系统要求,公司 25Q3 公告显示,BES6000 研发进展顺利,预计 26H1 进入 送样阶段。整体看,海外链端侧 AI 需求的确定性增强,有望驱动 SoC 厂商在新一代轻 量化大模型终端中实现结构性突破。

1.2.2. 端侧独立 NPU 元年,看好泛 AIoT 市场加速 AI 渗透

端侧模型升级催生硬件架构向专用协处理器演进。随着 AIGC 和大模型在终端侧的 渗透加速,端侧 AI 的算力需求呈现出不同的结构性变化:一方面,模型推理从云侧部 分迁移到端侧,带来持续提升的本地计算、带宽与存储需求;另一方面,端侧设备对功 耗、成本与空间更为敏感,通用 CPU/GPU 已难以在能效、并行度及实时性之间取得平 衡。因此,以瑞芯微为代表的厂商正率先推出面向端侧 AI 的协处理器创新方案,端侧 算力协处理器系列芯片内置大算力 NPU 和高带宽嵌入式 DRAM,能够较好地满足端侧 模型部署的算力、存力、运力三者动态平衡需求;同时具有较高的灵活性和可扩展性,通 过与主处理器的灵活搭配使用,以较小的硬件升级成本满足端侧 AIOT 不同场景的产品选代与创新需求,以及相同场景不同定位的产品差异化算力扩展需求,大大节省终端客 户的时间成本和开发周期。 瑞芯微:协处理器布局完善、卡位优势明确。在端侧独立 NPU 的产业趋势下,瑞 芯微已提前完成端侧协处理器产品线的战略布局,并在性能、生态和产品组合上形成明 显卡位优势。公司已推出 RK182X 系列专用协处理器,能够承载 3B–7B LLM 的推理需 求,可与主处理器灵活组合,提升终端整机的 AI 性能密度。RK182X 已在车载座舱、智 能家居、会议终端、教育设备、机器人、机顶盒和边缘网关等场景中落地。公司同步规 划下一代高能效协处理器 RK1860,瞄准更大参数规模与更复杂的多模态场景,进一步 提升终端产品的差异化能力。

1.2.3. PHY&SerDes 芯片:国产替代细分赛道,诞生“小而美”优质标的

国产整机车厂正在促成汽车产业智能化渗透。随着汽车产业智能化、电动化与网联 化加速演进,汽车传感器作为感知系统的核心部件,正成为推动技术变革与产业升级的 关键要素。据佐思汽车研究,25H1 中国乘用车整体摄像头安装量达 5239.6 万颗,同比 增长 34.9%,主要受比亚迪、小米汽车、小鹏拉动;其中新势力摄像头安装量最高,达 3072.7 万颗。 看好 26 年国产车载 SerDes 进入导入放量期。车载 SerDes 用于大量高清图像和数 据的高速传输,凭借低延迟和高带宽特性成为 ADAS 和智能驾驶系统中不可或缺的组 件。据 QYResearch,2023 年 ADI(Maxim)和 TI 占有全球大约 92%的市场份额。我们 统计国产参与者包括一些通信 IC 和模拟 IC 厂商,部分领先厂商的产品经过前期的研发 积累已逐步进入客户导入阶段。龙迅股份针对汽车市场对于视频长距离传输和超高清视 频显示需求开发的车载 SerDes 芯片组目前处于全面市场推广阶段,公司把握新兴市场 发展机遇,已将 SerDes 芯片组拓展进入 eBike、摄像云台、无人机等新业务领域,我们 看好公司 2026 年持续取得突破。裕太微具备 MIPI-APHY 和 HSMT 两套协议开发能力 和经验,自研基于 HSMT 协议的车载高速视频传输芯片预计于 2025 年年底前问世,可 支持 200 万至 800 万像素摄像头的图像传输需求。

2. 存储:企业级存储发力,26 年迎接“超级周期”

2.1. 本轮周期有何不同?

存储板块本身为强周期板块,本轮周期自 25Q2 持续上行,有望持续至 26 年全 年。存储由于产品标准化程度高,大宗属性强,且供给格局集中。因此具较强周期性。 本轮周期自 25Q2 开始上行,9 月之前更多为转产导致 DD4 涨价,9 月之后由于 HDD 供给短缺,AI 推理带来的存储需求快速导入 SSD,推动 SSD 价格快速上涨。由于存 储供给短缺可能导致 AI 服务器出货下修,因此各下游 AI 客户对存储价格上涨不敏 感,推动存储价格涨幅持续超预期,造就“超级周期”。

Q3 存储现货价格持续上涨,中国台湾存储厂指引乐观。参考 DRAM 指数,其 25 年 9-11 月期间合计上涨 101%,而 NAND 指数同期亦上涨 79%。存储模组大厂威刚董 事长陈立白 11 月 24 日指出,AI 需求存储器的强度远超过历史上任何时期,DRAM 、 NAND 快闪存储器双缺持续升温,缺货深度与时间皆创 20 年来最严重,合约价将持续 上涨至少两至三季以上,2026 年上半年 DRAM 与 NAND 快闪存储器仍将呈现全面缺货 态势。对于市场疑虑客户可能重复下单(double booking)的问题,陈立白认为,各家终 端产品大厂包括美国、韩国、中国等,各家董事长、总经理都亲自出马与供应商谈货源, 市场完全没有“double booking”的状况,因为“下 2 张订单、3 张订单都不一定能拿到 货”,供应商拥有绝对议价权,多数客户连 1 年约都签不到,只能“每月谈”。

2.2. 国产厂商机遇何在?

在此趋势下,国产厂商积极布局企业级存储,受益(1)国产 CSP 厂商资本开支上 修(2)国产企业级存储份额提升双重逻辑。 25Q3 企业级 SSD 市场迎来显著成长。根据 TrendForce 集邦咨询最新调查,受益于 AI 需求快速从训练端外溢至推理端,以及北美云端服务厂商同步扩张 AI 基础设施与通 用型 Server 建设,25Q3 Enterprise SSD 出货量与价格强势上扬,前五大品牌厂合计营收 环比+28%,达 65.4 亿美元,创今年新高。TrendForce 集邦咨询表示,25Q4 市场氛围从 “复苏”转向“抢料”,主要因 NAND Flash 供应商有鉴于过往的市场波动,对产能扩张 采取审慎态度,将导致 Enterprise SSD 产能增长幅度远低于需求增速。为避免 SSD 短缺 延误昂贵的 AI Server 建置进度,CSP 买家近期积极建立库存。在供不应求的卖方格局 下,预计 25Q4 Enterprise SSD 平均合约价将季增逾 25%,产业营收有望再创新高。 同时,政策推动国产化率提升,本土存储企业通过大容量产品和主控芯片等技术创 新,以及产业链和服务本地化,缩小与国际品牌的差距,在份额上有较大幅度的提升。

3. 模拟:关注供需格局优化,AI 新品持续拓展

3.1. 供需格局持续优化,价格战压制逐渐解除

需求端:汽车持续增长,工业去库结束。模拟板块汽车需求持续增长,但今年预计 仍有降价压力。工业领域去库结束,目前处于复苏初期。通信领域(如基站)经历 22- 24 年去库,25 年开始有补库需求,26 年持续成长。除汽车外,各领域、各料号产品线 价格今年预计企稳。部分料号交期变长。 同时,我们认为中美围绕关税的博弈、对抗、和解或为 26 年的主旋律。后续关注 成熟制程反倾销等相关政策,仍有落地空间,极大改善模拟行业供给格局。价格为模拟 板块最核心的压制,无论是 TI 价格战趋缓亦或是成熟制程反倾销潜在出台预期,都将 极大优化模拟行业生态。25 年模拟需求、供给、库存、价格、竞争格局全面向好,乐观 看待模拟行业 25 年复苏趋势。思瑞浦等汽车工业占比高标的有望核心受益。

3.2. 2026 年迎业绩拐点,新品类再填动力

26 年伴随 AI 应用落地,我们认为围绕 AI 诞生的新兴模拟料号将有广阔发展机遇。 核心看好,Drmos、微泵液冷等模拟芯片发展机遇。 (1) Drmos:跟随国产算力芯片出货&功耗双重提升,26 年进入加速出货阶段。 GPU 的功耗提升,对 DrMOS 数量的需求增加。随着大数据、云计算、人工智能的 兴起,需要更大算力、更大功耗的 GPU/ASIC 的支持,同时也对负载电源提出了更 高的要求。英伟达 A100 功耗为 300W,DrMOS至少需要 16 颗。H100 功耗为 700W, 需要 40~50 颗 DrMOS。若按单颗 1 美金测算,单卡价值量约 300 人民币。B100 功耗为 700W,B200 功耗为 1000W,B300 功耗为 1400W,DrMOS 的需求数量有 望继续增加。

(2) 微泵液冷:功耗提升,散热需求增加,端侧主动散热新方案。AI 技术 爆发式迭代的驱动下,算力芯片及超轻薄终端的性能瓶颈日益凸显,液冷散热驱 动凭借主动温控强势崛起,通过冷却液循环带走热量,散热效率较被动方案提升 3 倍以上。例如,艾为电子发布的超低功耗高压 180Vpp 压电微泵液冷驱动产品, 通过高压 180Vpp 和中低频振动(10~5000HZ)驱动微通道内冷却介质实现超低 功耗、超小体积、超高背压流量以及超静音散热。 而从竞争格局看,目前全球仅 Boris、艾为、南芯有所布局,且艾为南芯均在 23 年投入项目研发,今年加大研发重视程度及优先级,竞争格局良好。

4. 晶圆制造:资本开支迈入新台阶,先进制程与封装加速突围

4.1. 半导体设备:Fab 厂资本开支增速显著,设备享受高景气

两存扩产再上一个台阶,294 层的 NAND 和 DDR5 的 DRAM 都来到了跟国际水平 相当的最新产品代际,帮助两存迎来新一轮扩产浪潮。长江存储与长鑫存储 26 年产能 持续扩张,在存储需求缺口逐步暴露的背景下,未来产能还有望进一步扩大。 先进逻辑扩产增长势头尤为显著,2026 年有望成为先进制程的“扩产大年”。中芯 南方、中芯东方、永芯、华力、ICRD 等核心主体均在加速产能建设,预计明年行业整 体扩产规模将实现爆发式增长,有力支撑国产先进制程产业链的快速突围。 成熟类设备公司享受β行情。北方华创、中微公司、拓荆科技、华海清科、盛美上 海等在各自领域份额相对稳定,将充分享受先进存储和先进逻辑扩产大年的β。同时, 北创的 CCP、中微的 on-on 和 CUBS,将为两个企业带来额外的增量。 成长类设备公司享受α+β行情。在优质β之下,亦有部分优质企业可以兑现自己 的α,这也是我们 26 年首推的设备公司:精智达、中科飞测、芯源微,此三家公司将于 26 年分别在存储+逻辑测试机、明场、Track 三个品类上迎来技术兑现和国产突破,其中 精智达更早一步已经实现了突破,明年将迎来放量元年。在戴维斯双击的帮助下,以上 三家公司的预期涨幅有望大幅跑赢板块。

4.2. 代工:先进逻辑扩产上一台阶,晶圆代工景气维持

先进制程扩产储备丰厚,晶圆代工催化不断。目前国内先进制程尤其是 7nm 及以 下供给严重不足,这也是制约两大代工厂该业务放量的主要因素,26 年先进扩产丰厚, 晶圆代工景气将继续维持。 一线代工厂核心受益于先进制程扩产红利。展望 2026 年,中芯系体内先进制程产 能建设持续推进,叠加前期扩产产能的逐步释放,预计公司先进制程业务营收量级将实 现可观增长。此外,随着先进制程良率的稳步提升,相关产线的盈利能力有望改善,并 表的少数股东损益表现亦值得期待。 二线代工厂有独立逻辑兑现,同样值得关注。晶合集成为首的二线代工厂 26 年有 望实现独立逻辑,55/40nm 预计稼动率饱满,28nm 也将在 26 年开始迎来放量。此外, 公司有望与长鑫存储达成合作,从成熟品类的代工做起,逐步渗透到更先进代际产品上, 潜在市场空间较大,值得关注。

4.3. 光刻机和先进封装:国产 AI 芯片供应链的重构与崛起

在 AI 算力爆发与地缘政治博弈的双重背景下,半导体产业链正加速构建“前道自 主可控+后道性能跃升”的双轮驱动格局。 一方面,面对美日荷对先进光刻机封锁的不 断加码,中国作为全球最大半导体设备市场,正倒逼产业链从整机(如芯上微装、上海 微电子)到核心零部件(光源、光学、镀膜等)实现全方位协同突围;另一方面,在后 摩尔时代,以 2.5D/3D 为代表的先进封装技术成为延续摩尔定律、提升算力密度的关键 基石,全球封测产能持续向亚洲集聚,国内先进封装市场 2024-2029 年 CAGR 达 14.4%, 结构性优化趋势显著。两者共同构筑了国产高性能芯片产业化的坚实底座。

4.3.1. 光刻机:自主可控迫在眉睫,整机与零部件加速突围

中国大陆稳居全球最大半导体设备市场,也是 ASML 最核心的客户来源。2023 年 中国大陆贡献了 ASML 总营收的 29%;2024 年,受益于晶圆厂积极扩产及超额备货策 略,这一比例爆发式增长至 41%。尽管 2025 年一季度受出口管制等外部因素影响,营 收占比回落至 27%,但展望后续,随着国内晶圆厂扩产计划的持续推进,中国市场对光 刻机的需求预计将依然维持强劲态势。

美日荷持续加码光刻机管制,加速国产替代进程。全球先进半导体设备市场主要被 美日荷垄断,光刻机领域更是由 ASML、尼康(Nikon)和佳能(Canon)三巨头统治。 由于国内技术相对落后,高精尖设备长期依赖进口。美国自 2018 起便施压限制高端光 刻机对华出口,随后相继出台“1007 新规”并联合日荷实施产业封锁,限制先进制程设 备流入中国。在封锁不断升级的背景下,突破以光刻机为代表的“卡脖子”关键设备, 加速国产化替代已迫在眉睫。

在政策的强力驱动下,国内光刻机产业正加速突围。近年来国产光刻机产业化成果斐然:2016 年上海微电子 90nm ArF 设备实现出货;2020 年华卓精科打破 ASML 双工 件台技术垄断;2025 年哈尔滨工业大学成功研制 13.5nm EUV 光源,中科院上海光机所 的全固态深紫外光源系统更是将芯片工艺推向 3 纳米理论极限。总体而言,国内光刻机 技术持续进阶,国产替代空间十分广阔。 芯上微装交付第 500 台设备,携手盛合晶微强化 AI 算力底座。2025 年 8 月 8 日, 国产步进光刻机领军企业芯上微装举办第 500 台设备交付仪式,充分验证了其自主创新 实力。作为公司拳头产品,该款先进封装光刻机凭借高分辨率、高套刻精度及优异的翘 曲/厚胶处理能力,完美适配 Flip-chip、Fan-out、2.5D/3D 等技术,2024 年已占据全球 35%、国内 90%的市场份额。此次交付客户为全球领先的晶圆级先进封测厂商盛合晶微, 后者致力于通过异构集成技术提升 GPU、AI 芯片等高性能产品的算力与能效,双方合 作将进一步巩固国产 AI 芯片产业链。

光学系统为光刻机中技术壁垒最高的零部件,也是国产化攻坚中难度最高的“深水 区”。不同于 DUV 的透射系统,EUV 光刻机必须采用原子级平整度的离轴反射系统, 其镀膜厚度误差需控制在 0.025nm 以内,面型精度误差低于 0.25nm,被誉为“宇宙中最 光滑的人造结构”,对真空环境、材料选择及超精密加工工艺提出了极限要求。尽管国内 企业如茂莱光学已在 i-line 光刻机光学器件上实现应用突破,但客观来看,在面型精度 (PV值)及表面光洁度等核心指标上,国产技术距离蔡司的EUV级水准仍有显著差距。 超精密光学部件的国产化任重而道远,极高的技术壁垒也意味着巨大的追赶空间。

茂莱光学作为精密光学综合解决方案提供商,产品线覆盖深紫外 DUV 至远红外全 谱段,广泛应用于半导体光刻与检测、生命科学及 AR/VR 等前沿领域,并已进入 Camtek、 KLA 等全球半导体巨头的供应链。尽管全球超精密光学市场长期被蔡司、尼康和佳能垄 断,且国内核心零部件尚高度依赖进口,但在国内光刻机市场规模扩张及存量设备维护 升级需求迫切的背景下,茂莱光学凭借在双面非球面、异形非球面及离轴非球面透镜等 高端产品上的精密制造能力,有望在国产替代的浪潮中加速突围,抢占更多市场份额。

汇成真空立足于真空镀膜与成膜工艺核心技术,全面掌握蒸发、磁控溅射及离子镀 膜等技术体系,产品广泛覆盖消费电子、半导体(含光刻掩膜版、传感器)、汽车及精密 光学等领域,并为客户提供从生产工艺支持到运维改造的全套增值服务,成功卡位核心 客户资源。在此坚实基础上,公司进一步向高端前沿领域延伸,于 2025 年 5 月 22 日与 浙江大学极端光学技术与仪器全国重点实验室签署战略协议,共建“联合实验室”;双方 将针对半导体检测用剪切干涉仪、大数值孔径显微物镜及先进制程光刻关键光学元件等项目展开深度合作。我们认为,这一产学研合作将加速科研成果转化,有力推动波长光 电在光刻机及半导体检测核心零部件领域的战略布局。

波长光电为国内精密光学元件及组件的核心供应商,长期深耕工业激光加工与红外 热成像领域,产品广泛覆盖激光、红外及消费级光学等赛道,并成功进入华工科技、大 族激光、高德红外以及 IPG、FLIR 等国内外行业龙头的供应链。在此坚实业务基础上, 公司于 2025 年 5 月 22 日与浙江大学极端光学技术与仪器全国重点实验室签署战略合作 协议,共建“联合实验室”,双方将聚焦半导体检测用剪切干涉仪、大数值孔径显微物镜 及先进制程光刻关键光学元件等高端项目展开实质性合作;我们认为,这一产学研深度 融合将促进科研成果转化,加速公司在光刻机核心零部件领域的战略布局与突破。 福晶科技作为光电元器件龙头,主营业务稳健增长且核心产品市占率领先,2024 年 非线性光学晶体、激光晶体及精密光学元件营收分别达 2.35 亿元、1.51 亿元和 3.11 亿 元,同比分别增长 14.89%、8.63% 和 24.18%,广泛应用于激光器、光通信、AR/VR 及 激光雷达等领域。在夯实主业的同时,公司通过持有至期光子 45.79%股份积极布局高端 赛道,至期光子聚焦纳米及亚纳米级超精密光学元件与复杂光机组件研发,瞄准半导体 量测等国家重大战略装备需求,致力于突破关键技术瓶颈,加速提供高品质的高端光学 元器件国产替代解决方案。

4.3.2. 先进封装:后摩尔时代的算力基石,国产封测迈向高端化

先进封装技术正向高密度互联演进,主要包括 2.5D 和 3D 集成两大核心路径。2.5D 集成主要利用转接板(分为硅转接板、有机转接板及硅桥转接板三类)作为中间介质, 实现多颗芯片的高密度水平互联;而 3D 集成(3DIC)则通过微凸块或混合键合等技术, 达成芯片间的垂直堆叠与互联,支持同质与异质芯片的系统级整合。在此基础上发展的 3D Package(新型扇出型封装)进一步融合了重布线与凸块等水平及垂直互联工艺,不 仅大幅缩减封装体积,更有效缩短信号路径、降低噪声延迟并优化散热性能,凭借其高 集成度与超薄特性,已成为高端消费电子及 5G 毫米波通信等领域的关键技术方案。

集成电路封测产能已逐步从欧美向亚洲转移,目前形成了中国大陆、中国台湾与美国“三足鼎立”的竞争格局。行业集中度较高,2024 年全球前三大封测企业占据了约 50% 的市场份额;其中,中国厂商处于优势地位,在全球前十大封测企业中,中国大陆与中 国台湾分别有 4 家和 3 家企业。

中国大陆封测行业呈现出由长电、通富、华天三大巨头领跑的竞争格局,其余新兴 企业多深耕细分领域。受益于政策与需求双轮驱动,中国大陆封测市场规模由 2019 年 的 2349.8 亿元稳步增长至 2024 年的 3319 亿元(CAGR 为 7.2%)。尽管当前仍以传统封 装为主(2024 年先进封装占比约 15.5%),但在全球产业转移背景下,未来市场将持续 扩容,预计 2029 年总规模将达 4389.8 亿元。更重要的是,行业结构正加速优化,2024- 2029 年先进封装预计将以 14.4%的复合增速(远超传统封装的 3.8%)成为增长核心引 擎,推动其占比在 2029 年提升至 22.9%。

盛合晶微已构建起覆盖硅转接板(TSV)、有机转接板(扇出型 RDL)及硅桥转接 板等所有主流方案的全流程 2.5D 技术体系,并具备成熟的量产能力。作为中国大陆在 芯粒(Chiplet)及多芯片集成封装领域起步最早、技术最先进、布局最完善且生产规模 最大的企业之一,公司在关键前沿领域已实现实质性突破,展现出追赶全球顶尖企业的强大竞争力。公司芯粒多芯片集成封装业务营收占比从 2022 年的仅 5.32%迅速攀升 2024 年的 44.39%,并于 2025 年上半年进一步扩大至 56.24%,公司先进封装业务需求持续强 劲,技术实力已位于国内领先水平。 作为国产 COWOS 技术龙头的盛合晶微,上市融资后,有望开启先进封装的扩产新 周期,建议重点关注盛合晶微产业链芯源微、强力新材等,同时建议关注其他先进封装 企业甬矽电子、长电科技、通富微电等。

CoWoP 区别于其他芯片封装形式,直接去除中间基板对 PCB 精度提出极高要求。 CoWoS、CoPoS、CoWoP 代表了先进封装技术演进的不同阶段,各自具有独特的结构和 应用。CoWoS 目前是高端人工智能服务器的主要解决方案,其核心是将 CPU/GPU 和 HBM 集成在硅中介层上,然后将其安装在 ABF 封装基板上,支持 CoWoS-L 的线宽/线 距达 5-8 微米,CoWoS-S 的线宽/线距达 10-15 微米,具备成熟的技术及高频、高速互连 能力。CoPoS 进一步引入了具有 RDL 的结构的面板级 ABF 基板,使得在方形或者大面 积封装上成为可能,从而提高生产效率并降低成本。线宽/线距为 8-15 微米,CoPoS 目 前处于早期研发阶段。 CoWoP 完全去除 ABF 基板,直接将芯片与中介层安装在高精度 PCB 上,例如 SLP, 理论上实现了最短的信号路径、最低的成本并改善了热管理的灵活性。其要求线宽/线距 精度 15-20 微米,甚至 10 微米以下。目前处于验证阶段,可能用于 Rubin Ultra 平台。 CoWoP封装方案对 PCB板各方面工艺提出极高要求,直接提升 PCB整体价值量。 1)对于板面平整度要求高,延伸出对于玻纤布的 Low-CTE 要求,目前石英布拥有极佳 的电性能与较低的 CTE 值;2)线宽/线距精度高,系统板必须承担此前封装基板的高密 度布线功能,线宽/线距必须达到 15-20 微米或更低,同时保持严格的板面平整度和尺寸 稳定性,延伸出 mSAP 工艺;3)热机械可靠性,直接安装在 PCB 上的裸芯片和中介层面临由于热循环与 CTE 不匹配而加剧的翘曲风险;4)制造良率挑战,传统 PCB 工厂需 要升级到接近先进封装标准的洁净室,并且装配良率必须很高。CoWoP 所需要的 PCB 对于材料、加工工艺都提出极高要求,加工设备也需使用高端设备,PCB 整体价值量有 望进一步提高。

5. 消费电子:科技巨头引领端侧创新大年

5.1. 端侧交互范式重构:模型能力跃迁,统一入口加速成形

5.1.1. 端侧模型进展:从技术演进到生态加速

端侧模型可以解决隐私、离线可用性、低延迟等核心问题,成为推动消费电子产业 周期的核心变量。AI 加速渗透消费电子终端,而智能终端对实时性、隐私性和成本功耗 要求更高,端侧模型成为推动 AI 在端侧落地的关键路径。端侧模型的成熟度成为 AI 能 否深入渗透终端,从而推动新一轮消费电子产业周期的核心变量。回顾 2025 年以来, 端侧大模型在技术路径、生态布局以及产品形态均取得明显进展,下面将分别展开介绍。

技术层面看:推理叠加模型压缩技术推动小模型高效落地。此前业界主流观点认为 模型智能程度与参数规模正相关,因此模型参数规模持续指数级扩张。具体到端侧,硬 件内存与带宽提升滞后于参数量提升,数据搬运成本成为主要瓶颈,从而限制了大模型 在端侧的部署,进而影响模型的智能程度、用户体验以及用户的付费意愿。2025 年 1 月, DeepSeek 通过“延长思考时间即可提升输出质量”的新 Scaling Law 及其蒸馏小模型展 示了小参数也能凭借强化推理能力脱颖而出的可行路径,随后微软在 3 月推出面向 Copilot+ PC 的 DeepSeek R1 蒸馏模型,端侧模型渗透开始加速。复盘 2025 年端侧模型 迭代可见,业内通过量化、稀疏化与蒸馏等压缩手段,将大模型能力下沉至端侧,同时 在推理阶段引入“快/慢双模式”以在时延与效果之间动态权衡。具体看,Phi 等小模型主 要依托教师模型的思维链蒸馏获得能力强化;低比特量化成为降低存储与算力开销的标 配。同时,MoE、稀疏注意力、KV cache 优化、以及多 Token 预测(MTP)等架构设计 进一步压缩计算量和解码时延。面壁、千问等厂商亦通过同一模型内置深推理/快速响应 切换机制,实现端侧场景下的自适应算力分配。

生态层面看:多方玩家加速布局端侧模型,鉴于端侧相较云端具备更强的用户黏性, 且本地智能能够为同类服务形成显著差异化,未来将有更多厂商持续加码。从玩家构成 来看,我们认为端侧模型参与者可大致分为互联网生态巨头、专业大模型厂商以及硬件 厂商三类,2025 年各家普遍强化了端侧模型的产品线。具体来看,OpenAI 于 8 月推出 gpt-oss-20b,这一端侧友好模型对其构建“全场景 AI 覆盖”具有战略意义;Meta Llama、 阿里千问、谷歌等互联网与 AI 头部厂商则在既有端侧布局基础上进一步迭代与补强。 各家部署端侧模型的共同目标在于增强自身业务能力:微软于 2025 年 5 月向 Edge 浏览 器开放端侧模型能力,有望显著提升浏览器侧的原生智能服务能力;小米在今年发布的 MiMo 与 MiDashengLM 系列则分别强化自身生态链产品的智能程度与语音交互体验。 展望未来,端侧智能与用户日常生活具有天然高频接触特点,其粘性高于云端形态;又 因 AI 模型的赋能可以为原本同质化的产品和服务打造差异化体验,未来将有更多厂商 加码参与。

从产品形态演进看,端侧智能的中长期主线将同时指向多模态虚拟智能与具身智能 两条路径。我们认为按是否与现实世界发生物理交互,智能终端可划分为虚拟智能与具 身智能两大类:前者主要覆盖手机、PC、可穿戴等数字化终端,后者对应机器人等需要 在真实环境中执行动作的物理载体。复盘 2025 年行业进展,大多数厂商仍以虚拟智能 为主要落点,沿“基础模型(文本能力)→推理模型(推理增强)→多模态模型(语音 /视觉/文本端到端理解与生成)”的路径持续迭代。相较之下,具身智能在多模态理解的 基础上还必须把感知与语言转化为可执行动作;同时受限于高质量动作标注数据获取成 本高、安全试错代价大等问题,研发难度显著高于虚拟智能。当前仅少数头部厂商推进 具身端侧模型布局,例如 Google 推出的 Gemini Robotics On-Device 采用 VLA 框架在机 器人本体离线运行,但整体仍处于早期探索阶段。若上述训练瓶颈逐步突破,具身智能 有望打开更广阔的端侧应用空间,成为下一阶段端侧 AI 渗透的重要增量方向。

5.1.2. 端侧 AI 统一入口:从单点助手到跨应用操作系统

从产业共识来看,端侧 AI 被视为下一代人机交互方式的革新。AMD 在白皮书中指 出,AI 从长期看将改变用户与终端的交互方式。谷歌也表达过“将 Gemini 打造为通用 人工智能代理”的愿景。要实现这种“系统级 AI”的统一入口形态,模型本身也在完成智 能体能力(Agentic application)的补齐,我们认为主要包括推理规划、工具调用与多功 能编排、记忆管理和多模态感知能力。2025 年以来,OpenAI 在 DevDay 发布 Agents SDK 等 agent 开发套件并披露其平台已拥有超 400 万开发者;Anthropic 等亦推出 Claude Agent SDK 等 agentic 开发框架的开源方案。从工具链和脚手架的完善情况看,我们认为智能 体能力已基本达到可以在企业与消费端场景中大规模落地和推广的阶段。 在此基础上,行业已围绕“端侧 AI 统一入口”展开布局与竞争。从当前进展看,主 要可分为应用侧与终端侧两类路径。应用侧玩家从 App 入口切入,借助自身生态或开 放生态构建统一界面。典型如微软 Copilot Agents 与阿里千问 App,均以 AI 为统一入 口,将自家生态中的文档、办公、搜索、服务等能力进行整合;而 OpenAI 等厂商则通 过在 ChatGPT 中纳入第三方应用,试图以开放生态的方式扩大自身的入口优势,实现跨 应用任务的统一调度。终端侧玩家则依托系统级能力,从硬件与 OS 层面推动跨 App 集 成。多数厂商以内置应用为主要载体实现系统级协同;同时,也出现了更深层的生态合 作,例如三星联合谷歌生态应用实现跨 App 操作,华为则在 HarmonyOS 6 中通过小艺 与支付宝健康等服务联动,完成端侧跨应用服务集成。展望未来,我们认为端侧 AI 的 交互形态将沿着统一入口的方向持续演进,并将覆盖手机、PC、可穿戴、车机等多终端。

5.2. 手机:OS Agent 启动,iPhone 先行

5.2.1. 苹果端侧智能生态加速成型

端侧基础模型向开发者社区开放、智能生态加速成型。iOS 26 在 Apple Intelligence 加持下,已经形成一套完整的 AI 能力体系。从文本写作、跨语言沟通、视觉理解,到 系统自动化、个性化内容管理,再到开发者可直接调用的端侧基础模型框架,苹果正将 AI 深度嵌入操作系统的每一层结构。在具体能力上,iOS 26 的写作工具显著降低用户 的时间成本;视觉智能可对相机画面与截图进行识别;叠加 Spotlight 的智能意图推理, 使 iOS 已然具备个人助手的素质和能力。此外,Genmoji、Image Playground 等轻量生成 式功能使创作门槛持续下降。Siri 依托 GPT-5 的复杂问答能力,也使系统具备更强的外 部知识补全能力。端侧模型向开发者社区开源意味着 AI 走向生态社区,有望催生更多 基于本地推理的创新应用。我们认为 iOS 26 的全面智能化升级有望刺激用户换机意愿, 并为苹果长期的 AI 生态战略奠定坚实基础。

OS Agent将构成苹果核心AI能力,通过屏幕理解、个人知识库与跨应用操作能力, 实现具备上下文记忆的全局智能交互模式。全局屏幕理解方面,系统将通过视觉智能实 时解析用户当前界面内容,并可直接将识别结果转化为结构化操作,如从海报自动生成 日程、对当前页面进行摘要、或基于屏幕出现的物品触发跨应用搜索等。其次,借助深 度个人上下文建模,Siri 能够在本地设备的全域数据中检索用户请求的信息,而无需用 户明确指定信息来源,实现如“查找某位联系人推荐的播客”或“查询家人航班信息”等复 杂语义请求。通过跨应用编排,系统可在用户无需提供明确路径的情况下,自动完成跨 App 的多步骤操作,例如发送先前编辑的邮件草稿或处理照片并写入指定笔记。这些能 力将通过后续系统更新逐步释放,构成苹果未来的核心 AI 能力。

5.2.2. OS Agent 有望掀起存量换机浪潮

苹果的用户理解、硬件产品矩阵、软件生态和变现能力都领跑行业,整合数据和资源的空间最大。系统级 AI 能力主要在于用户信息的调用、支配、处理和执行,而苹果 在个人数据和个人资料的智能管理和使用上优势明显。 1)丰富的大量个人数据使苹果端侧 AI 模型的用户理解度高。核心产品 iPhone 在 2024 年获得 18%的市场份额,在手机市场覆盖最多的高端机用户人群。苹果的大量第一 方应用存储着大量用户信息、行为历史记录等,如财务信息、健康数据、图库信息、社 交信息等,这是洞察用户需求的核心要件。 2)丰富的硬件产品矩阵使得苹果 AI 生态再强化。苹果拥有 iPhone、iPad、Macbook、 Airpods、Watch、HomePod 等丰富的产品矩阵。丰富的产品矩阵能够获取全面的传感器 数据,控制各种个人设备,协同配合完成任务。 3)丰富的软件生态优势。苹果有大量第一方应用,并对第三方应用有巨大赋能。这 让系统级 AI 不仅能够对 App 内部进行操作控制,AI 还能更好的完成跨 App 的任务。 同时App Store拥有强大的市场地位和高付费能力用户,在Apple AI生态的推进过程中, 开发者的高积极性将进一步扩大苹果 AI 的优势。

iPhone 存量基数大,AI 开启新一轮换机周期。AI 功能仅适配 iPhone15 Pro 以上机 型。iOS18 系统升级可以适用于 iPhoneX 以上的所有机型,但 Apple Intelligence 功能仅 适用在搭载 A17 Pro 芯片的 iPhone 15 Pro 及以上机型,而在 iPad 和 Mac 产品上,只有 搭载 M1 或往后芯片的机型才能支持。影响大模型能否在端侧运行的制约主要在算力和 运存。 1)A14 系列及以上芯片即可满足 11TOPS 算力需求。目前支持苹果 AI 功能的芯片 中,M1 芯片的 NPU 算力最低,为 11TOPS。横向对比来看,A14 及往后的芯片已经具 备 11TOPS 算力。算力并非制约 AI 功能更新的核心要素。

2)内存或为苹果 AI 适配性的关键因素:模型推理过程中需要占用较大的运行内 存,较小的内存会严重拖慢推理速度甚至无法完成推理。目前主流的 70 亿参数模型约 需要占用 4GB 的内存空间,需要采用至少 8GB 的 LPDDR5x。从现有 iPhone 的内存配 置来看,仅有 iPhone 15 Pro 以后的苹果手机能够达到 8GB 内存,因而 8GB 内存可能就 是当下苹果的 3B 端侧模型所需的最小内存数。

5.2.3. 硬件创新与 AI 迭代同步,核心硬件更新公司迎来量价齐升

2026 年苹果折叠屏手机问世,未来有望打开超 5000 万的放量空间。除了 AI 生态 的更新,苹果硬件产品也在 2026 年迎来变革大年,其中潜力最大的就是苹果折叠屏。 24 年全球折叠屏市场出货量约 1530 万部。目前仅安卓系&鸿蒙系手机推出了折叠屏, 且售价普遍在 600 美元之上。我们测算 2024 年,600 美元以上的非苹果的高端手机中, 折叠屏的渗透率约有 19%。

苹果折叠屏弹性测算:若按未来苹果手机每年 2.5 亿部左右出货量水平。由于苹果 手机售价除了少量 SE 系列外,基本都在 600 美元以上,因此我们参考安卓高端机中 19% 的折叠屏渗透率,给苹果折叠屏 20%的渗透率假设,那么到 2030 年,苹果折叠屏有望 打开约 5000w 部放量空间,是过去安卓&鸿蒙折叠屏市场的三倍。若考虑苹果对折叠屏 生态优化的潜力有望带动更多用户使用折叠屏,给苹果折叠更高的 30%渗透率,则苹果 有望在 2030 年打开 7500w 部折叠屏市场空间。潜力巨大!

UTG 盖板玻璃和铰链模组相关环节最为受益。参考三星的折叠屏和直板机的 Bom 拆分来看,折叠屏核心的价值增量在显示屏模组和机械/机电部件(核心为铰链),较直 板机均有翻倍增量。2026 年苹果折叠屏上量有望将折叠屏市场打开三倍向上空间,看好 UTG 盖板玻璃和铰链模组相关公司受益于苹果折叠放量迎来量价齐升大年。

5.3. 硬件形态更新:眼镜是大厂必争之地

5.3.1. 大厂的硬件布局,各类产品之中聚焦眼镜

终端厂商密集下海布局 AI 眼镜,AI 眼镜爆发在即。Ray-Ban Meta2 爆火之下,大 厂纷纷布局 AI 眼镜。2026 年,Meta、三星、苹果、小米等多家厂商都将发布 AI 智能眼 镜或 AI +AR 眼镜。大厂打样,白牌跟随,AI 眼镜有望快速放量。

1)AI 眼镜:轻量化+价格亲民的 AI 智能眼镜有望在 2026 延续放量之年。CES2025 上,不带显示的 AI 智能眼镜重量普遍<40g。同时,AI 眼镜售价进一步下探,雷鸟 AI 眼镜售价降低至 1800 元,闪极 AI 眼镜价格降低至 999 元。AI 眼镜赛道将在 2026 年延 续“从 1 到 100”的放量之年。预估 AI 眼镜 26 年达到 500w 出货量,28 年实现 5000w 放量。 2)AR 眼镜:具备成像显示的 AR 眼镜有望在 2026 迎来产品力的拐点之年。据 Wellsenn XR,2023 年和 2024 年全球 AR 销量均为 50w 台。AR 赛道的年出货量增速缓 慢,我们分析,应用场景简单、硬件技术不成熟、以及高昂的价格,是制约 AR 眼镜放 量的核心原因。

5.3.2. 明年 AI 眼镜增加显示有望带动场景升级打开出货量空间

我们推测,AR 眼镜的卡点有望在未来 3~5 年被逐个击破。 短期:2025~2026 年,观测 AI+AR 实现应用场景突破,从而到达产品力拐点。 模型视频理解/生成能力升级,端侧场景落地加速。Meta Live AI、豆包视频模型相 继迭代,2025 年 5 月的豆包视频模型中,用户可以“和豆包打视频电话”。豆包可以根 据摄像头实时拍摄到的现实场景,回答用户的提问。2024 年 12 月 Meta Rayban2 推出的LiveAI 功能也与此相似。AR 眼镜具备最短的模型唤醒链路和视频的输入输出能力,有 望成为模型视频理解能力提升最为受益的载体。 大厂陆续下海 AR 眼镜,AR 眼镜有望依托大厂生态进一步实现场景落地。从公开 信息看,Amazon、三星、Meta、Google 等均将在 2025~2026 年发布 AR 眼镜,这些厂 商具备丰富的软硬件生态,有望与 AR 眼镜行成联动,进一步延展 AR 眼镜的应用场景。

中长期:大厂入局+光学显示方案成熟带动 AR 眼镜硬件能力达到可放量水平。2025 年,Meta、Rokid、雷鸟、三星均将尝试将光学显示环节加入 AI 眼镜。我们预估随着光 波导、Micro-LED 等技术逐渐成熟,光学模组重量和成本下降。应用场景更广的 AI+AR 眼镜有望走向 C 端。预估到 2029 年,AR 眼镜有望达 3000 万出货量。

5.3.3. AI 眼镜核心硬件 光学、SoC 等

AI 眼镜核心硬件受益方向:1)SoC:AI 眼镜中性能、续航和重量的平衡是核心痛 点,SoC 厂商将持续受益于眼镜端低功耗 SoC 需求。2)ODM:短期受益于功能简单的 AI 智能眼镜的量增,中长期受益于高端 AI+AR 眼镜的 ASP 提升。 光学显示方向会是 AR 赛道的核心增量方向。光学模组是 AR 眼镜中的核心难点和 增量环节。同时拆分 AR 眼镜的 BOM 成本看,光波导和光引擎两个核心的零组件在 AR 眼镜中价值量各占 30%,是核心的价值增量环节。

1)光引擎环节关注终局环节 Micro-LED。Micro-LED 因为其具备高亮度、高分辨 率、小体积、低重量和低功耗,成为 AR 眼镜理想的光引擎方案。现阶段 Micro-LED 技 术尚未完全成熟,还存在价格高、亮度、分辨率较低、全彩化难度大等问题,预估未来 到 2028 年,随着这些难点问题逐步攻破,Micro-LED 将被陆续用于 AR 眼镜,打开近 300 亿元市场空间。

2)光波导环节关注几何阵列光波导和表面浮雕衍射光波导两条技术路径。从成像 效果看,几何阵列光波导因为采用折反射原理,光效更高,色彩均匀性更好。但劣势在 于容易出现鬼影和杂散光等现象。从量产降本空间看,几何阵列光波导基于光学冷加工 工艺,步骤繁多,镀膜和胶合环节的良率损耗大,因而整体良率提升和成本下降的难度 较大。

SiC 波导具备大 FOV、全彩化、轻量化等优势,有望成为衍射光波导的终局材料路 径。减少彩虹纹:碳化硅(2.7 折射率)折射率大,光栅的周期小,让环境光的衍射角度 变大,减少彩虹纹。FOV 做大:FOV 可以做到 70°,普通玻璃基衍射光波导普遍在 40~50°。减重:不用做多层波导方案,并且 SiC 的密度更低,因而相比玻璃波导,重 量更轻。Meta 从 2019 年开始尝试碳化硅方案,其 24 年 9 月发布的原型机 Orion 采用 碳化硅波导,FOV 达到 70°,其光机模组厚度降至 5mm 以下,重量减轻 40%,光效提 升 85%。

6. PCB:AI 算力基建加码,CAPEX 超级周期驱动 PCB 量价齐升

6.1. 全球资本开支共振架构升级,AI PCB 迎来量价齐升新周期

6.1.1. 全球 AI 巨头资本开支高增,算力“前置建设”引爆基础设施超级周期

当前全球 AI 产业正从技术验证期加速迈向规模化产业化阶段,算力、模型与应用 的联动推动产业链进入新一轮结构性扩张周期。过去一年,以生成式 AI 为核心的技术 突破带动搜索、广告、电商、办公、视频等核心业务模式重塑,AI 渗透率快速提升。各大科技公司普遍采取“前置投入、长期吸收”战略,资本开支由支持性投入转为核心资 源配置方向。随着大模型训练成本随参数量呈指数级上升、推理规模化推广至企业级与 消费级场景,AI 基础设施建设进入高密度扩张期,全球算力需求预计在 2025–2026 年 持续翻倍增长。数据中心、电力系统、冷却、网络互联、AI 芯片等领域全面进入投资高 峰,产业链已步入具有长期确定性的战略建设周期。 北美四大云服务厂商正共同开启 AI 基础设施竞争的资本密集期。谷歌依托“算力 —模型—应用”一体化策略,Gemini 3 Pro 与 Nano Banana Pro 推动业务多元化扩张, 2025 年资本开支有望延续 910–930 亿美元高位并在 2026 年仍具上调空间。微软通过 Azure 和自研 AI 平台强化算力供给,部署全球首个大规模 GB300 集群,计划未来两年 将数据中心面积翻倍,2025 年资本开支有望继续上修,2026 年维持高增趋势。亚马逊 在 Trainium 芯片、电力基础设施和 Rainier 集群上加码投资,2025 年预计支出约 1250 亿 美元,2026 年有望保持高位扩张。Meta 则提前建设算力以支持“个人超级智能”战略, 预计 2026 年资本开支或突破 800–850 亿美元,加速 AI 内容与商业应用孵化。四巨头在 AI 基础设施层面同步加速,构成全球算力扩张的核心驱动力。 基于此判断,AI 算力建设进入高增长阶段,将直接拉动上游核心硬件投资,尤其 是 PCB/CCL 领域。AI 服务器、GPU 高速互联、电力转换模块等环节对高端 PCB 的层 数、散热与可靠性要求显著提高,预计 2025–2026 年 AI 相关 PCB 市场需求将伴随算力 扩张实现倍增。随着 1.6T 光模块、先进封装、HVDC 电源系统快速放量,高端覆铜板、 铜连接等领域企业将充分受益。我们建议积极关注具备高端产能、算力服务器卡板布局 及供应头部云厂商能力的 PCB 产业链公司,认为 AI 时代的资本开支爆发将转化为上游 硬件端最具确定性的投资机会。

6.1.2. 机柜架构升级带动 PCB 价值量成倍增长,2026 年市场规模迈向 600 亿元

英伟达的机柜架构升级显著推动了 PCB 的量价齐升。在当前的 GB200/300 NVL72 机柜中,计算板(Bianca board)采用 22 层 HDI,交换板为 26 层通孔板,PCB 材料已使用了高性能的 M8 等级。迈入下一代 Rubin 系列机柜后,PCB 设计和规格发生了重 大飞跃:首先,Rubin NVL144 机柜新增了 Midplane,CPX-CX9 网卡模组,而计算板与 交换板也做了重大升级,极大地提升了单个 PCB 的价值量。另外,Rubin Ultra NVL576 (Kyber) 机柜引入了革命性的正交背板方案,替代了铜缆连接并大幅提升芯片密度。由 于数据传输速率要求超过 224Gbps,PCB 材料必须升级到 M9 或 PTFE 等更高等级的极 低损耗材料,同时层数和工艺要求也极高。Kyber 机柜所需的 4 块正交背板,结合更高 规格的计算板,将使单机柜的 PCB 总价值量实现成倍增长。 市场空间方面,2026 年 AI PCB 市场规模将达 604 亿元,同比增长 229.8%。GB200 NVL72 机柜中计算板由 5 阶 22 层 HDI 组成,整机柜使用 36 块,单板价值量约在 4000 元,交换板为 26 层通孔板,单板价值量 8000 元,对应单机柜 PCB 价值量约 21.6 万元, GB300 整体变化不大,总体 PCB 价值量与 GB200 相当。Rubin NVL144 机柜计算板为 5 阶 24 层 HDI,使用 M8 材料,交换板为 M9 级别 34 层通孔板,新增 CPX-CX9 模组板 (M8 级别 5 阶 22 层 HDI)与 Midplane(M9 级别 44 层通孔板),NVL144 全系机柜均 使用 Midplane 替换部分内部铜缆连接,对应整机柜 PCB 价值量(含 CPX 机架)预估提 升至约 65.7 万元。下一代 Kyber 机柜将采用正交背板,柜内 GPU 数量提升至 144 个, 整机柜 PCB 价值量或将进一步成倍增长。 ASIC 方面,谷歌 TPUv6/v7/v8 均为 64 卡机柜,其中 v6e/v6p/v7e/v8 的 PCB 制程分 别为 M6 级 22 层板/M7 级 22 层板/M8 级 36 层板/M9 级多层板(待定),对应的单张 PCB 价值量预计为 4500/7000/16000/25000 元。

6.2. CCL&上游材料:AI PCB 驱动 CCL 行业量价齐升,上游材料供不应 求

6.2.1. M9:Rubin/Kyber 驱动 M9 材料升级,224G 速率开启 PCB 极低损耗时代

正交背板核心在高速率信号传输低损耗,对 PCB 材料提出更高要求。今年 GTC 大 会上,黄仁勋展示了将于 2027 年下半年推出的 Rubin Ultra NVL576 产品,该产品使用 了英伟达全新的 Kyber 机柜架构。每个机架包含 4 个 Canister,每个 Canister 包含 18 个 计算板、6 个交换板以及 2 个机柜管理板。而正交背板取代了铜缆背板,为 Canister 中 的计算板和交换板提供扩展链路。英伟达 Rubin Ultra 芯片使用 224G SerDes,传输速率 较 B200/B300 进一步提高,正交背板树脂材料、玻纤布需要进一步升级以满足低损耗需 求,目前 M9 及 PTFE 材料能满足低损耗要求,PTFE 具备更好的电性能,但加工难度极 大,目前国内头部 PCB 公司正在进行产品验证。

随着数据中心对带宽需求持续提高,单通道 SerDes 速率升级到 224Gbps 已成为必 然趋势,这使得 M9 及以上等级的极低损耗树脂材料的应用成为刚需。目前,在英伟达 下一代 Rubin/Rubin Ultra 机柜架构中,M9 材料将正式投入使用:其中,Rubin 的 Midplane 和 CPX 模组,以及 Rubin Ultra 的正交背板,因信号传输距离和高密度要求,将主要采 用 M9+Q 布材料。ASIC 体系在成本效益和供给考量下,仍将以 M8 材料为主。

6.2.2. 铜箔、玻布:石英布与 HVLP4 铜箔市场需求持续旺盛,国产替代加速

石英布:高速通信升级下的市场爆发。电子玻纤布是高性能电路板中的关键增强材 料,其中石英布以其综合表现最出色,代表了高速数据通信需求向第三代低介电常数材 料升级的最高方向。随着 AI 服务器和交换机对低介电常数材料需求的激增,石英布的 市场规模预计将迎来爆发式增长,其市场空间预估从 2026 年的约 30 亿元,高速增长至 2027 年的 99 亿元,同比增长 230%。

铜箔方面,预计 2026 年全球 HVLP4 铜箔总需求量将达到 8600 吨,主要由英伟达 与亚马逊两大算力巨头的高端硬件放量驱动。其中,明年 Rubin 机柜预计出货 4 万台、 单柜 HVLP4 用量 100kg,英伟达侧总需求约为 4000 吨;明年 Trainium 3 芯片预计出货 230 万颗(对应 115 万个 UBB,单 UBB 用量 4kg),亚马逊侧总需求约为 4600 吨。 在全球科技巨头掀起前所未有的 AI 资本开支热潮下,以谷歌 Gemini 3 和亚马逊 Trainium2 为代表的算力需求正加速传导至上游硬件供应链,推动其结构性重构。英伟 达机柜架构的代际升级是这一趋势的核心体现:从 GB200/300 迈向 Rubin/Kyber 架构, 通过引入 Midplane 和正交背板,极大地提高了 PCB 的层数、阶数和技术复杂度,预计 将使单机柜 PCB 总价值量实现成倍增长,推动 AI PCB 市场规模至 2026 年达到 600 亿 元。为满足 224Gbps 等超高速率传输需求,核心材料必须升级,M9/PTFE 极低损耗树 脂材料将正式用于 Rubin 的正交背板和 Midplane,同时石英布等高端玻纤布和 HVLP4铜箔的需求也迎来爆发性增长。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告