(一)大模型 scaling law 持续,训练+推理双轮驱动
Scaling law是本轮生成式人工智能爆发的关键点,训练算力需求指数级增长。随着 生成式模型的规模迅速扩展,模型性能随着参数规模、训练数据量和算力投入的指 数级增加而持续提升,使得业内将目光聚焦于超大规模模型的训练。与此同时,训 练生成式大模型所需的算力硬件需求也呈指数级增长。当前的大模型训练往往依赖 数千甚至数万张高性能GPU或TPU协同工作,并要求先进的分布式训练框架和数据 中心基础设施的支持。这一趋势推动了芯片设计、云计算和基础设施领域的技术革 新,形成了强大的产业协同效应,带动了产业链上各个环节快速发展。
OpenAI o1模型开启推理的scaling law。OpenAI于2024年9月发布的新一代大模型 o1,旨在提升模型的推理能力。与传统模型不同,o1在生成答案前会进行更深入的 内部思考过程,类似于人类的推理方式,从而在复杂推理任务上表现出色,但是需 要消耗更多的推理时间。o1的能力提升显示出在推理阶段投入更多计算资源,模型 的推理能力可以显著提升。英伟达在FY25Q3业绩会上表示,o1模型带来了推理的 scaling law,并将显著带动推理对算力硬件设施的需求。
训练+推理双轮驱动,算力硬件持续爆发。一方面,训练Scaling Law强调模型性能 与参数规模、数据量和训练算力呈现非线性增长,促使云厂商追求更大规模的训练 任务,从而带动大规模高性能计算集群需求持续增长。另一方面,推理Scaling Law 通过在推理阶段动态增加计算资源,实现模型性能的实时扩展,这种对高效推理硬 件的需求推动了算力芯片(如ASICs)以及大容量存储的增长。训练和推理双轮驱 动形成的算力需求浪潮,加速了算、连、存等关键环节的技术迭代,激发了云计算 基础设施、分布式计算架构和数据中心布局的扩张,全面带动算力硬件上下游产业 链的蓬勃发展。

(二)北美 CSP CapEx 持续高增长,算力需求确定性高
2024Q3北美CSP大厂(谷歌、微软、Meta、亚马逊四家)CapEx总和(不包含融 资租赁)为588.6亿美元,同比+59.0%,环比+11.4%,持续高增势头不减,同比增 速连续五个季度提升。具体来看,(1)谷歌:FY24Q3 CapEx为130.6亿美元,同 比+61.3%,环比-1.0%。(2)微软:FY25Q1(Ended 24/09/30) 现金支付的PP&E 资本支出为149.2亿美元,同比+50.7%,环比+7.6%;根据微软的FY25Q1 Earnings Call,包括融资租赁在内的总资本支出为200亿美元,租赁支出维持高位。(3)Meta: FY24Q3 CapEx为82.6亿美元,同比+26.1%,环比+1.0%;根据Meta的FY24Q3 Earnings Call,包含融资租赁在内的总资本支出为92亿美元,主要由对服务器、数 据中心和网络基础设施的投资推动。(4)亚马逊:FY24Q3 CapEx为226.2亿美元, 同比+81.3%,环比+28.4%;根据亚马逊的FY24Q3 Earnings Call,2024前三季度 包含融资租赁在内的总资本支出519亿美元。
根据彭博,2024全年指引:谷歌、微软、Meta、亚马逊预计FY24年总CapEx投入 约2200亿美元,同比+49.2%。具体来看,(1)谷歌:根据谷歌FY24Q3 Earnings Call, 谷歌指引FY24Q4 CapEx与本季度持平(130亿美元左右),但现金支付的时间差可 能会导致CapEx的季度波动;CapEx主要用于投资AI相关基础设施,其中约60%投 入在服务器上,其余40%投入在数据中心和网络设施上。(2)微软:根据微软的 FY25Q1 Earnings Call,微软指引FY25Q2 CapEx继续环比增加(考虑到对云和AI 的需求以及现有的AI容量限制),且由于云基础设施建设和融资租赁的交付时间, 季度波动可能较大。(3)Meta:根据Meta FY24Q3 Earnings Call,本季度CapEx 受服务器交付时间影响。Meta上调FY24 CapEx指引至380~400亿美元区间(上季 指引370~400亿美元),以投资AI研究和产品开发工作。(4)亚马逊:根据亚马逊 的FY24Q3 Earnings Call,亚马逊指引2024全年CapEx(包含融资租赁)为750亿 美元,以支持对AWS的需求,同时还包括支持北美等地部门的技术基础设施。此外各家对ASIC芯片的持续投入和规划也是影响CapEx的重要因素。 2025年海外CSP对CapEx的态度:微软、Meta、亚马逊、Oracle等海外CSP厂商 均指引FY25 CapEx继续维持增长态势。根据微软的FY24Q3(Ended 24/03/31) Earnings Call,预计FY25(End 25/6/30) CapEx继续高于FY24,推动因素仍是云和 AI基础设施的进一步投资;根据Meta的FY24Q2 Earnings Call,指引FY25 CapEx 大幅增长,以投资AI研究和产品开发工作;根据亚马逊FY24Q3 Earnings Call,指 引FY25 CapEx继续高于FY24的750亿美元;根据Oracle的FY25Q1 (Ended 24/08/31) Earnings Call,指引FY25(End 25/5/31) CapEx较FY24翻倍。
(三)GB200 服务器渐入佳境,ODM 和 PCB 厂商深度受益
1. Rack服务器对ODM要求更高,GB200服务器渐入佳境
英伟达布局机柜级解决方案,GB200按照整机柜形式出货对ODM厂商提出更高要求。 英伟达发布GB200NVL机柜级解决方案,相比传统的八卡单服务器方案,机柜级方 案在基于NVLink的Scale-Up、系统级优化,降低TCO和能耗水平等方面优势更为明 显。英伟达作为AI数据中心方案的领导者和定义者之一,推动者机柜级解决方案成 为AI应用的主流形式之一。在GB200NVL时代,我们预计云服务商、NCP、品牌商 等客户会直接下服务器订单,出货则以整机的形式来进行。在这种情况下,拥有提供整体解决方案的能力成为了ODM厂商获取订单的关键能力之一。此外,由于单机 柜的价值量远高于此前的八卡DGX/HGX形式的服务器价值量,在buy and sell模式 下,承接Rack需要撬动的资金规模更大,对ODM厂商的现金流合营运能力提出了更 高的要求,因此规模越大、营运能力越强的厂商越具有优势。 工业富联核心优势为可提供完整AI服务器解决方案。公司已覆盖全产业链、包括价 值链上游的GPU模组、基板、以及后端AI服务器设计与系统集成等业务。公司是少 有的可提供、从GPU模组、基板、后端AI服务器设计、高速交换机、液冷系统、整 机到数据中心的全产业链服务的厂商。以为公司全资子公司鸿佰科技为例,在英伟 达GTC 2024大会上,鸿佰展出多种AI服务器产品,包括英伟达MGX和HGX平台服 务器、英伟达最新一代数据中心液冷机柜级解决方案GB200 NVL72、采用NVIDIA Spectrum-2以太网交换机的ES2100储存系统等。根据公司一季报,2024Q1,公司 AI服务器占服务器整体收入近四成,AI服务器收入同比增长近两倍,环比呈现近双 位数比率增长。此外,生成式AI服务器同比增加近三倍,环比也呈现双位数比率增 长。
我们在此前发布报告《AI的裂变时刻系列报告3:为什么H20的推理性价比高》 以及,利用我们搭建了一个用于理论推算算力系统推理能力的框架继续在报告《AI 的裂变时刻系列报告3:为什么GB200 NVL72推理性能相较于HGX H100提高30 倍?》中继续分析为何NVL72系统的推理性能显著提升了30倍。根据Nvidia Blackwell白皮书,与同规模H100相比,GB200 NVL72的成本和能耗最多可降低25 倍。过去,训练一个1.8万亿参数的模型,需要8000个Hopper GPU和15MW的电力, 在2万个Blackwell GPU(使用GB200 NVL72,约278个Rack)就能完成这项工作, 耗电量仅为4MW,即约为原有功耗的1/4。这其中重要原因包括,液冷GB200 NVL72 机架可减少数据中心的碳足迹和能源消耗。液冷增加了计算密度,减少了占地面积, 并促进了与大型NVLink域架构的高带宽、低延迟GPU通信。 GB200的TCO优势显著,预计给2025年带来两个结果:(1)采用GB200系统 进行模型推理或算力租赁的ROI预计更好;(2)可进一步带来算力租赁价格(单P 价格/时)降低,从而降低推理成本。尤其是对于微软AI Azure业务以推理为主的租 赁业务,若在2025年后开始将GB200资源放置于云上业务,有望带来推理成本的大幅下降,为推理应用的爆发奠定基础。
从进展看,GB200预计在2025年逐季上量。根据英伟达FY25Q3 Earnings call,公 司表示Blackwell生产正在全速进行,预计FY25Q4交付的Blackwell数量超此前预估, 包含鸿海、广达在内的供应链伙伴配合十分出色。从ODM视角来看,GB200第一批 核心ODM厂商,鸿海和广达均表示,GB200机柜未来几个季度随着技术成熟、供应 链整合提升,出货量提升,2025年出货量会逐季增长。
2. AI服务器中PCB量价齐升,GB200服务器中HDI占比大幅提升
面积:AI服务器中增加GPU模块,驱动PCB面积大幅提升。GPU模块加入使得AI 服务器新增GPU加速卡OAM和GPU模组板UBB,推动PCB整体面积增加。传统服务 器一般搭载2或4颗CPU,封装对PCB板面积要求较低。而AI服务器中除了CPU之外, 一般还需要搭载4颗至8颗GPU。以英伟达服务器为例,AI服务器DGX A100/H100 都以GPU模组的形式搭载8颗GPU。因此,AI服务器相比传统服务器增加了OAM和 UBB的面积,整体PCB板面积大幅增加。

层数:AI服务器高速传输需求下,总线标准提升促使PCB层数增加。英伟达AI服务 器基于NVLink技术构建了NVSwitch高速互联模组,为计算密集型工作负载提供更高 带宽和更低延迟,H100上总带宽达到了带宽的7倍之多,A100/H100/B100/B200的 双向带宽分别为600/900/1800/1800Gbps,NVlink连接规格快速提升。GPU模块高 速传输的需求,促使走线的密度提升、复杂性提高,要求PCB需要拥有更高层数。 AI服务器用PCB一般具有20-28层,相比之下传统服务器一般最多为16层。PCB每增 加一层,其价值量均有明显提升,层数大幅增加将带动AI服务器用PCB价值量大大 提升。
材料:AI服务器用PCB性能要求高,覆铜板(CCL)需要满足高速高频低损耗等特 征。覆铜板作为PCB的关键原材料,同样需要提升性能参数以适应服务器升级。AI 服务器要求信号传输高频高速、信号损耗较低,使得覆铜板的介质损耗等性能需要 不断提升。以PCIe5.0总线标准为例,其PCB使用CCL材料等级需要达到Very Low Loss,其对应的介质损耗因子Df值需要降至0.006-0.005。NVlink5.0传输速率更高, 因此需要更高等级CCL材料实现高频高速和更低损耗等性能。随着CCL材料等级提 升、Df值降低,制作技术难度越高,CCL单价与毛利率将显著上升。
DGX系列服务器中PCB量价测算:DGX系列服务器中单GPU的PCB价值量为 157~204美金。考虑到母版及UBB使用单位面积价值较低的多层板、OAM使用单位 面积价值较高的HDI板,根据不同类型PCB的层数及面积,我们假设DGX中1张母版 的价值量为196~350美金;8张OAM的总体价值量分别为400~480美金;1张UBB的 价值量分别为663~800美金。由于DGX系列服务器中含8颗GPU,计算得出,DGX 单GPU的PCB价值量为157~204美金,其中,单GPU的HDI价值量为50~60美金, 单GPU的多层板价值量为107~144美金。
GB200 NVL72中PCB量价测算:GB200 NVL72主板和NVLink switch模组板全面升级,单GPU价值量显著增加。由于GB200超级芯片性能大幅提升,compute tray 主板集成度更高、线路更复杂,制程要求和制造成本更高。同时,GB200芯片在信 号损耗方面标准更为严格,PCB板材料升级为损耗因子更小的M7+等级材料。同时, GB200 NVL72采用NVLink5.0,带宽达1800Gbps,相较NVLink4.0对传输速率的要 求大幅提升,更适合使用信号传输速率更高的HDI。通过使用HDI板与微孔结构搭配, NVLink switch模组板可以提高布线密度、提高空间利用率和散热效果,并且具有更 高的可靠性。因此,我们推测GB200 NVL72所使用的主板为22层5阶M7 HDI板, NVLink switch模组板为高阶HDI板或高多层PCB。 对GB200 NVL72所用PCB价值量进行敏感性分析,产业链微观层面来看,我们假设 GB200 NVL72中主板单价为408美金,Nvlink switch模组板若为高多层PCB则单价 为620美金,若为高阶HDI则价值量为809美金,中间板/网卡/DPU板单价分别为 25/20/35美金。由于GB200 NVL72中包含72颗GPU,计算得出,(1)若Nvlink switch 模组板采用高多层PCB方案,则GB200 NVL72单GPU的PCB板价值量为320美金, 单GPU的HDI板价值量为233美金,单GPU多层板价值量为87美金;(2)若Nvlink switch模组板采用高阶HDI方案,则GB200 NVL72单GPU的PCB板价值量为343美 金,单GPU的HDI板价值量为334美金,单GPU多层板价值量为9美金。
GB200 NVL72相较DGX架PCB用量及规格同步提升,驱动整机PCB价值量大幅增 长。经上述测算,DGX单GPU的PCB总价值量为157~204美金,GB200 NVL72单 GPU的PCB板总价值量为320~343美金。相比DGX系列服务器,GB200 NVL72中 单GPU的PCB总价值量增加57%~118%。 GB200 NVL72相较DGX架构HDI用量及规格同步提升。根据我们测算,DGX系列服 务器中OAM为HDI,单GPU的HDI板价值量为50~60美金,而GB200 NVL72中主板、 网卡、DPU均为HDI,Nvlink switch模组板可能为HDI,单GPU的HDI板价值量为 233~334美金,相比DGX系列HDI价值量增加288%~568%。 HDI和PCB比较:HDI技术能够进一步缩小PCB上的布线空间和元件间距,提高服 务器的集成度和性能。从数据传输角度来看,NVLink3.0/4.0/5.0双向带宽分别为 600/900/1800Gbps,对PCB传输速率的要求大幅提升,HDI内部布线密度高、信号 传输路径短,因此能够实现高速、高频率的信号传输;从空间利用角度来看,HDI 板与微孔结构搭配,可以采用更小的线宽/间距、更高的布线密度以达成更小的面积 和厚度以提高AI服务器空间利用率和散热效果;从电气性能角度来看,HDI板高密度 布线有利于先进SMT构装技术的使用,其电气性能和讯号正确性比普通PCB板更高。 从降低成本角度来看,当普通PCB板的层数增加超过八层后,以HDI微盲埋孔技术 来制造,其生产成本将较传统复杂的压合制程来得更低。此外,HDI板对于射频干扰、 电磁波干扰、静电释放等具有更佳的改善。
AI服务器PCB市场规模:AI服务器PCB市场规模持续增长,AI服务器HDI占比大幅 提升。具体来看,AI服务器中PCB主要包括CPU主板、UBB、OAM,随着AI技术的 不断进步和应用场景的日益拓展,AI服务器的渗透率持续提升,推动PCB产品的市 场规模不断扩大。另一方面,随着AI服务器的持续迭代升级,PCB规格与性能的相 应提升,带动HDI占比大幅增长。根据前文测算,A系列中母板、OAM、UBB的价值 量分别为196/400/663美元,假设A系列出货量在2023/2024年分别为9/2万台,其市 场规模在2023/2024年分别为1.2/0.2亿美元;H系列中母板、OAM、UBB的价值量 分别为300/400/700美元,假设H系列出货量在2023/2024/2025年分别为13/41/6万 台,其市场规模在2023/2024/2025分别为1.8/5.8/0.9亿美元;B系列中母板、OAM、UBB的价值量分别为350/480/800美元,假设B系列出货量在2024/2025年分别为3/6 万台,其市场规模在2024/2025年分别为0.4/1.0亿美元;此外,若Nvlink switch为高 阶HDI方案,则GB200中主板/中间板/网卡板/DPU板/Nvlink switch板价值量分别为 408/25/20/35/809美元,假设其在2025年的出货量为8万台,其市场规模在2025年 可达15.3亿美元。在上述AI服务器PCB中,采用HDI的有OAM和GB200的主板、网 卡板、DPU板和Nvlink switch板。因此,根据我们测算,AI服务器PCB的市场规模 预计将从2023年的3.3亿美元增长至2025年的18.0亿美元,占整体服务器PCB比例 将从2023年的4%上升到2025年的17%;AI服务器HDI的市场规模预计将从2023年 的0.9亿美元增长至2025年的15.3亿美元,占AI服务器PCB比例将从2023年的1%上 升到2025年的15%。

(四)CPO 加速推进落地,先进封装是关键技术
AI数据传输需求推动CPO加速落地。随着AI对数据传输的需求迅速增加,数据接口 的能源需求以及对数据传输延迟的敏感度也随之增加。数据中心网络交换机和算力 芯片中降低功耗和增加带宽密度的需求推动了CPO(Co-Packaged Optics,共封装 光学)加速发展落地。当前的光纤数据传输利用包括光学引擎(OE)的可插拔光学 模块实现光电信号之间的转换。然而,随着数据网络速度不断提升,从芯片到前面 板上的可插拔光模块间的PCB连接距离造成的功耗和延迟也成为了不可忽视的问题。 CPO是一种创新的光通信技术,通过将光学模块集成到芯片封装中,直接以光信号 完成高速数据交换,从而大幅提升传输速率,降低能耗。
CPO的核心是先进封装技术。CPO的核心在于先进封装技术的应用,以实现光学器 件与电子芯片的紧密异构集成,从而实现高带宽、低功耗的数据传输。目前,CPO 有多种技术路线,包括使用中介层的2.5D封装、3D封装、嵌入式多芯片互连桥(EMIB) TSV)等,需要用到多种先进封装技术,如TSV、微凸块、铜-铜混合键合等。台积 电在2024年北美技术研讨会上更新了其3D光学引擎路线图。根据路线图,台积电计 划在2025年在可插拔光模块中应用3D先进封装技术SoIC-X,并在26年推出通过 CoWoS和交换机芯片共封装的CPO,未来将进一步延伸至和处理器芯片通过中介层 共封装的CPO。随着先进封装技术的持续突破,CPO有望成为数据中心、高性能计 算和超大规模AI集群的核心互联方案,加速推动计算与通信深度融合,为未来算力 基础设施提供高带宽、低延迟、低能耗的解决方案。
(一)AI 手机持续迭代,期待激发换机周期
从AI大模型技术层面看,全球AI企业加速布局,AI大模型不断更新。当前,AI手机 正处于飞速发展阶段,全球各大智能手机制造商与AI公司正积极加速AI手机大模型 的技术研发与市场部署,各自推出自主研发的NLP大模型及多模态大模型。NLP大 模型擅长理解和生成自然语言内容,能够胜任翻译、摘要、问答等任务,典型代表 有vivo的蓝心大模型和百度的ERINE 3.0。多模态大模型则兼容文本、图像、音频等 多种形式的输入输出,如三星的Gauss和华为的L盘古大模型,它们能够应对复杂的 多模态任务,进一步拓宽了AI手机的应用领域。 从AI端侧落地进程看,手机厂商加速推进AI功能落地,AI手机应用领域多元化。小 米与三星等公司发布的AI智能手机均具备智能场景辨识与优化能力;OPPO与华为 着重于AI图像编辑与美化功能;百度推出AAI学习手机,强调个性化教育支持;vivo 和中兴则聚焦CoT推理技术,推动文本创作功能的进步。此外,通过智能调度芯片 资源实现高水准的游戏体验,也成为了当前AI手机的一大重点应用领域。
苹果发布Apple Intelligence,开启端侧AI新篇章。2024年6月11日,苹果召开全球 开发者大会WWDC 24。此次大会上,苹果完全聚焦于软件,发布了新一代操作系统, iOS 18、iPadOS 18、macOS 15、watchOS 11、visionOS 2 悉数登场,最后,苹 果聚焦AI,发布个人智能化系统Apple Intelligence,正式宣布与OpenAI合作,Apple Intelligence将为iPhone、Mac等设备提供一系列AI功能。 多个大模型调用,Apple Intelligence性能强劲。当前,苹果端侧AI的落地是借助 Apple Intelligence的自有模型以及ChatGPT 4o的共同作用来实现的。算力充足的条 件下,计算任务主要依赖于用户终端完成,而面对更为复杂的场景,则会启用私密 云进行计算。相比之下,ChatGPT则是相对靠后的调用选择。苹果公司的高级副总 裁Craig Federighi透露,苹果未来计划进一步与OpenAI以外的其他第三方模型,如 谷歌的Gemini模型开展合作。
苹果端侧AI落地优势明显,激发新一轮换机潮。苹果此次发布的端侧AI 为诸多使用 场景设计了更为便利的体验,相较前期的安卓AI手机的类云端AI以及单点APP AI, 在实用性上有较大提升。 功能层面,Apple Intelligence赋予Siri屏幕内容感知能力,同时结合用户语音指令, 灵活判断给出更为精准的指令操作。生态层面,Apple Intelligence赋能Siri,可以打 通多个APP的输入输出,具备AI Agent的雏形。如编辑表格使用场景中,可通过Siri 控制读取相册图片中的文字,并输出至Excel。如苹果未来将这一生态开放给第三方 APP,则可实现:通过APP订机票,Siri可获取航班起落时间,并输出给打的软件, 酒店软件,从而实现一键安排行程。目前,仅iPhone 15Pro以上机型才支持AI功能, 这无疑将激发iPhone的新一轮换机潮。
从供应商层面看,端侧AI驱动硬件升级,果链供应厂商有望受益。未来,端侧AI手 机的算力永远是首要的升级方向,除了算法模型层面的不断优化,端侧AI手机的硬 件也将随算力的升级而不断优化。首先是主芯片技术的提升和内存容量的扩充,其 次是PCB板件与散热技术的升级,高性能AI芯片在运行过程中会产生大量热量,缺 乏优良的散热性能会制约AI算力,甚至会影响设备的稳定运行。因此还需要更大容 量、更高频率和更大内存带宽以及更优良的散热性能。随着AI手机硬件价值量的全 面提升,果链供应厂商有望充分受益。

(二)AI 眼镜拐点已至,重点关注 SOC 方案
AI端侧应用落地需要寻找硬件载体,AI眼镜赋能视觉、听觉、语言和大脑。眼镜是 靠近三大重要感官的穿戴设备,物理位置靠近嘴巴、耳朵和眼睛,可以实现声音、 语言、视觉的输入和输出。以Ray Ban联合Meta推出的AI智能眼镜为例,通过摄像 头、音频和语言,结合视觉、听觉并内置AI,用户可通过AI智能眼镜实现拍摄图片 或短视频、听音乐、对话内置大模型等功能,并将图像、音频等感知信息共享给大 模型,实现全面高效信息处理。 AI智能眼镜方案多点开花,产业链日趋成熟。根据Wellsenn XR的《AI智能眼镜白 皮书》,当前主流AI智能眼镜产品的类别大致可分为三类:无摄像头智能眼镜、带摄像头智能眼镜和带显示屏智能眼镜。目前前两种方案相对成熟,而带显示屏智能 眼镜还亟需突破技术工艺。 (1)无摄像头智能眼镜:在基础眼镜的功能上集成音频模块、无线通讯模块、Al 加速器等器件用于实现音频功能、无线通讯功能以及人工智能应用,主要交互手段 依靠语音交互和触摸交互。 (2)带摄像头智能眼镜:在无摄像头智能眼镜的基础上,集成摄像头器件,用于提 供图像拍摄能力,同时可依据内置的人工智能算法,配合摄像头实现图像识别等功 能。 (3)带显示屏智能眼镜:在带摄像头智能眼镜的基础上,集成显示模块,用于提供 实时内容的输出,配合摄像头模块可实现手势交互等3DoF识别功能。
近期多家厂商陆续发布AI智能眼镜产品,AI眼镜拐点已至。(1)百度于11月12日 发布全球首款搭载中文大模型的小度AI眼镜,重量45g,搭载1600万像素超广角摄 像头并采用自研AI防抖算法,4麦克风阵列设计用于进行声音的捕捉,具备第一视角 拍摄、边走边问、识物百科等六大功能。(2)Looktech于11月16日发布AI智能眼 镜,重量仅37g,集成了眼镜、耳机、相机和AI助手四大核心功能。AI助手Memo基 于大语言模型,具备自然对话和记忆功能,可实时查询新闻、天气、电影等信息, 也有识别博物馆展品、外语路牌和植物等功能。(3)Rokid于11月18日发布与BOLON 眼镜联名的新一代AI+AR眼镜Rokid Glasses,采用一体化结构布局,重量49g。借 助光波导技术的支持,该款AR眼镜能够在不影响正常视线的前提下,通过透明镜片 展示出清晰细腻的虚拟界面,实现信息叠加显示效果,开辟全新的人机交互模式。 我们认为,随着AI端侧应用的推进,国内外多家大厂积极布局AI智能眼镜,产业链 日趋成熟,AI眼镜拐点已至。 在带摄像头的AI智能眼镜方案中,硬件的核心是SOC,目前有三种方案:系统级SOC 方案、SOC+ISP方案、SOC+MCU方案。(1)系统级SOC方案集成度较高,功能 较多,内置支持拍摄功能的ISP模块,比如高通的AR1 Gen1芯片。(2)SOC+ISP方案集成度较低,需外接ISP芯片实现拍摄功能。(3)SOC+MCU方案适用性广, 兼顾低功耗和高功耗应用,可通过系统调度有效控制续航时间。我们认为,随着AI 智能眼镜进入创新周期,作为硬件控制载体SOC有望迎来新一轮机会,推荐关注可 穿戴低功耗领域SOC厂商恒玄科技。
(三)汽车智能化加速渗透,国产车规芯片厂商受益明显
高端智能化趋势渗透加速。汽车行业智能化升级趋势明显,根据据汽车之家和交强 险数据统计,2023年12月标配L2级(1V1R)实销渗透率达到49.5%,标配L2级(1V5R) 实销渗透率29.0%,具备L2+硬件实销渗透率达到7.8%,同比分别+8.35pct、 +10.10pct和+4.0pct,可见具备更高智驾硬件车型的渗透率正处于加速渗透的阶段。
智能化配置下沉趋势显著。智能化配置下沉至10-15万级车型趋势愈发明确,以起售 价为11.98万元至15.58万元小鹏MONA M03为例。基础版智驾硬件配置包含2个毫 米波雷达、12个超声波雷达和7个摄像头;而对于顶配MAX车型,则会额外增加4个 摄像头和1个毫米波雷达,并搭载两颗英伟达Drive Orin智驾芯片,采用XNGP智驾 系统(目视方案),支持高速和城区的领航辅助、自动泊车等功能。同时,于11月6 日上市的广汽埃安RT,起售价为11.98-16.58万元,同样以高阶智驾作为卖点,于广 州车展中收获较高的关注。
智能化硬件成长空间广阔。根据中汽协数据,2024年9月,新能源轿车分价格段销 量占比中,10-15万售价车型占整体销量36.7%,在智驾配置向该价格段渗透的趋势 逐步加速的背景下,将有望打开智驾硬件成长空间。 以智能化所需硬件中重要部分CIS为例。在智驾渗透率以及智驾级别持续提高的趋势 下,车载摄像头的出货量将持续上升。同时,摄像头的技术水平也将不断提升以满 足更高级别的自动驾驶功能和安全要求。根据Yole数据,2023年全休车用CIS市场 规模为23.75亿美元,预计至2029年,整体市场规模将达40.88亿美元,复合增速为 9.5%,为整体CIS市场中,复合增速最快的下游领域。
在智驾渗透加速的背景下,国产供应链有望进一步深度参与,车规芯片厂商经过多 年车厂认证后,已逐步实现汽车业务放量,成长前景广阔。
(一)CoWoS 从 1 到 10,HBM 从 0 到 1
先进封装超越摩尔定律提升算力,出口管制加码背景下有望成为算力芯片重要突破 口。当下摩尔定律趋于放缓,单个芯片尺寸受到光刻掩模版尺寸限制,晶体管尺寸 微缩逼近物理极限。在美国对中国高科技领域的出口管制日趋严格趋势下,先进制 程的高性能算力芯片,尤其是大尺寸AI芯片,面临严峻的供应链挑战。Chiplet是一 种微电子设计理念,它涉及将传统单芯片设计中的不同功能划分成多个小型、专用 的芯片,这些小型芯片被称为Chiplets。这些Chiplets通过先进封装技术组合在一起, 形成一个完整的系统。Chiplet设计允许更灵活地组合不同类型的处理单元,从而突 破晶圆制造工艺的限制提升芯片算力,并提高芯片的效率和灵活性。 CoWoS实现多芯片高密度互连,持续向更大封装尺寸演变。CoWoS(Chip on Wafer on Substrate)是一种2.5D先进封装技术,通过硅中介层实现多个逻辑和存储芯片 的高速互连,具有高密度集成、高带宽、低延迟等优势。中介层尺寸的扩展是CoWoS 技术发展的主要方向。随之硅中介层CoWoS-S技术尺寸扩展面临瓶颈,CoWoS-L 成为大尺寸中介层解决方案。当CoWoS-S扩展至4倍掩模版尺寸,即12个HBM,3300 mm2面积时,复杂的多掩模版拼接在技术和产量上都具有很大的挑战性,大尺寸的 硅中介层也面临着良率问题。台积电开发了CoWoS-L以解决大尺寸硅中介层中的技 术瓶颈和良率问题。CoWoS-L中介层由多个再分布层(Redietribution Layers,RDL) 和局部硅互连(Local Si Interconnect,LSI)组成。顶部SoC和HBM通过μBump 并排连接在中介层上,芯片之间通过嵌入在中介层中的LSI实现互连。
CoWoS自主可控需求急迫,国产封测厂商积极扩产先进封装产能。目前,国内主要 先进封装厂商包括盛合晶微、武汉新芯、长电科技、通富微电等,均已开展2.5D/3D 封装技术布局,并积极扩产先进封装产能。AI算力需求快速增长,制裁加码背景下 CoWoS产业链自主可控紧迫性不断提升,有望为封装测试环节带来显著价值增量, CoWoS产业链相关晶圆厂、封测厂、设备及材料供应商成长空间广阔。

HBM已经成为AI算力芯片最重要升级方向。大模型的参数指数级增长,不仅推升了 处理器的算力需求,同时也对与处理器匹配的内存系统提出了更高的要求。一方面, 大量模型数据的传输要求更大的内存带宽,以缓解“内存墙”问题,提升HPC系统 计算效率;另一方面,内存系统的容量需要大幅拓展,以存储千亿参数乃至更大规 模的大模型。HBM是目前带宽最高的内存标准,其中领先的HBM产品12-16层HBM4 预计将于2026年推出,将每个堆栈的带宽提高至1.4 TB/s以上,容量提升至36-48 GB, HBM4E预计将于2028年推出。
HBM价值量显著高于传统DRAM,本土HBM亟待突破。根据Yole,2024年全球HBM 市场规模将达到141亿美元,同比增长超过150%。HBM产业链目前主要以海外厂商 为主。其中HBM颗粒由海力士、三星和美光三家海外大厂垄断,根据Trendforce数据,2023年三者所占市场份额分别为53%、38%和9%。在HBM生产环节,HBM的 制造技术带动了相关工艺设备的发展,尤其是层间键合和TSV等关键环节,因HBM 颗粒厂商主要以海外厂商为主,大部分半导体设备材料公司也主要存在于海外市场, 如BESI、ASMPT、K&S等设备厂商占据了混合键合、TCB等先进封装关键设备大部 分市场份额,技术处于领先地位。HBM是AI算力芯片的核心环节,有望成为本土AI 算力产业链的重要突破口,本土市场空间广阔。国内相关厂商有望凭借已有的产业 发展基础,加速产业链各环节的技术突破,提升在HBM市场的份额。
(二)产能扩张稳步推进,半导体设备/材料持续国产替代
中国成熟制程晶圆制造产能稳步扩张,全球占比持续提升。根据TrendForce的 数据,2023年,中国大陆成熟制程产能的全球占比为29%。得益于国产替代和国内 需求的推动,2027年,预计中国大陆成熟制程产能的全球占比有望提升至33%。
2025年全球300mm晶圆厂设备资本支出强度预计提升,中国投资规模有望维 持在300亿美元较高水平。从资本支出角度来看,根据SEMI的数据,预计2025年全 球300mm晶圆厂设备支出有望达1165亿美元,首次突破1000亿美元,同比增长20%, 2025-2027年的CAGR为8%。其中,中国300mm晶圆厂设备支出有望保持在300亿 美金以上,投资规模维持在较高水平。
先进技术持续升级,推动半导体设备更新迭代,打开更广阔成长空间。随着先 进逻辑、DRAM、NAND等制程节点的不断更新突破,以及先进封装技术的持续涌 现,配套半导体设备的采购占比快速提升,设备种类更加丰富,进一步增加了半导 体设备的增长弹性。
在产业配套、国家战略和产业自主可控等多重因素的驱动下,半导体上游设备、 材料环节的国产替代加速突破,推动相关市场快速增长。中国是全球最大的电子终 端消费市场和半导体销售市场,承接了全球半导体产业向国内的迁移;从产业链配 套层面来看,在中游晶圆制造环节,中国具备成为全球最大晶圆产能基地的潜力, 并对半导体设备、材料等本土上游产业链的建设提出了更高的要求。特别是在中国 打造制造强国的战略下,政府在产业政策、税收、人才培养等方面大力支持和推进 本土半导体制造和配套产业链的规模化和高端化。近年来,中美贸易摩擦凸显出供 应链安全和自主可控的重要性和急迫性。半导体设备、材料等产业环节作为半导体 产业的基石,国产替代势在必行,并于近些年加速突破,推动国产设备、材料市场 快速增长。 半导体设备市场空间广阔。在本土晶圆产能持续扩张、半导体制造技术迭代升 级和国产替代加速突破的趋势下,国内半导体设备市场持续扩容,根据Wind的数据, 2023年,中国半导体设备市场规模为356.97亿美元,同比增长29.47%。

半导体材料市场规模稳步扩张。在本土晶圆产能持续扩张、国产替代加速突破 和国产半导体材料高端化的趋势下,国内半导体材料市场规模稳步扩张,根据中商 情报网的数据,2023年,中国半导体设备市场规模为1024.34亿元,同比增长12.02%。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)