2025 全年计算机板块走势受 AI 产业趋势影响较大。1)2025 年初,Deepseek R1 开源模型正式发布,在整体性能对齐 OpenAI o1 等国际顶尖大模型的同时使用成本大幅降低,促使国内应用厂商竞相接入尝试Deepseek,对 AI 产业的乐观情绪在全市场蔓延,刺激计算机指数在 2 月底至3 月初达到阶段高点,随后随着主题情绪降温叠加财报季来临以及中美贸易摩擦加剧,计算机指数开始冲高回落,呈现蓄势调整走势;2)2025 年 6 月下旬以来,市场风险偏好提升,AI 赛道投资热情逐步回升,AI 应用及算力板块实现普涨,叠加政策助推下的稳定币行情,推动计算机板块持续走强。但自 8 月下旬开始,软件端由于中报AI 业绩兑现总体不及预期,应用板块进一步上涨动能不足,呈现持续震荡走势。2025 年全年申万计算机指数累计涨幅为23%,低于创业板指数 55%的涨幅,但高于沪深 300 指数 21%的涨幅。

计算机板块的营收增长进一步加速,同时净利润已显著改善。随着宏观经济企稳,同时财政政策逐步落地,叠加人工智能领域相关政策刺激,计算机行业下游需求有所回暖,2025 年前三季度计算机行业营收达 9289 亿元,同比增长 9%,较 24 年的营收增长进一步提升,而截至 2025 年9 月底,申万计算机行业成分股的平均合同负债金额较 24 年底的 3.63 亿元提升至 4.46 亿元,未来行业的下游需求有进一步提振可能,有望推动计算机板块营收进一步改善。得益于企业控费效果显著,25 年以来企业盈利显著反弹,25年前三季度行业归母净利润达到 231 亿元,同比增长 33%,而 24 年行业归母净利润同比减少54%,同时,25年前三季度计算机板块净利率为 2.5%,较上年同期提高 0.6 个百分点,预计随着企业控费力度持续加大,板块净利率也有望继续提升。
当前计算机板块估值处于近 5 年的历史高位,但随着板块盈利能力持续提升,将逐渐消化高估值。24年 9 月以来,随着市场流动性和风险偏好改善,计算机板块估值大幅提升,截至24 年底,行业估值为67倍,近 5 年分位数为 74.15%。同时,在 AI 技术推动各行业加快数字化转型趋势下,市场对计算机板块营收和净利润的未来增长空间保持乐观,愿意为行业内优质公司给予更高的估值溢价,截至25 年12 月31日,计算机行业估值为 85.71 倍,近 5 年分位数达 92.77%。我们认为,虽然目前计算机板块估值已处于历史高位,但随着宏观环境恢复以及在信创、AI 等因素驱动下,未来计算机板块的盈利能力有望持续提升,并逐渐消化高估值。
计算机板块的基金持仓处于近十年最低位,且处于低配状态,未来随着高景气赛道催化,计算机板块配置比例有望逐步回升。自 23Q2 达到 7.4%的高点后,计算机板块的基金配置比例持续下降,24Q3板块基金配置比例达到 3.2%的阶段性低点,随后基金对计算机板块的配置有所增加,25 年前两个季度配置比例分别为 4.2%、4.6%,仍处于历史低位,并在 25Q3 开始基金再次减配计算机板块,25Q4 计算机板块配置比例为 2.5%,达到了近 10 年来的基金配置比例最低水平。根据 Wind 对基金公司资产配置数据的统计,25H1计算机板块配置比例为 4.51%,而计算机行业在全行业中的市值占比为 4.83%,则计算机板块仍低配了0.32%。未来随着 AI 应用、信创等细分赛道的催化,计算机板块的基金配置比例有望逐步回升。

展望 26 年我们依旧坚定看好 AI 产业链投资机会,并重点关注应用侧的爆发,同时关注信创、自动驾驶、量子计算等板块。1)AI 算力:26 年国内算力需求仍将保持高景气,同时在中美博弈背景下国产芯片份额将快速提升,并且在供给端国产算力芯片在性能+生态+产能上正全面突破;2)AI 应用:C端应用正快速成熟,大厂占绝对主导,而 26 年 B 端应用在产业聚焦算力 ROI 情况下有望迎来爆发,营销、客服等高频、高可行性的场景率先落地,AI+工业制造等具备高壁垒的垂直领域将在未来为独立软件厂商贡献重要业绩增量;3)信创:近两年信创进展不及预期,而随着 27 年政策验收节点临近,未来2 年信创招投标有望提速;4)自动驾驶:国内自动驾驶正处于 L2 向 L3 过渡阶段,随着 AEBS 系统或升级为强制性国标、工信部公布首批 L3 准入许可以及头部厂商单车 UE 模型转正,预计未来高级别自动驾驶的商业化进程有望加速;5)量子计算:目前产业处于技术攻坚及商业化探索阶段,随着国内相关产业政策不断出台,政府持续大力支持,国内企业正加速技术探索和布局,产业保持高速发展。
作为国内 AI 算力需求的最大来源,2025 年头部互联网厂商资本开支仍保持高速增长,展望2026年,在训练及推理算力需求持续高景气的背景下,大厂的资本开支有望继续攀升。在渡过2021-2023年的下行周期后,受 AI 需求驱动,以 BAT(百度、阿里、腾讯)为代表的国内互联网大厂开始大量采购AI 芯片并进行数据中心建设,在 2024 年的资本开支出现显著增长,进入 25 年,以 BAT 为代表的互联网大厂总资本开支仍保持高速增长,25Q1 和 Q2 BAT 合计资本开支分别同比增长 100%、168%,三季度合计资本开支同比增长 32%,主要是受 AI 芯片采购受限导致大厂被迫放缓资本开支计划实现节奏及上年同期高基数影响。目前模型军备竞赛仍在持续,大厂仍将不断投入大模型训练,同时近一年底层大模型的token 调用量大幅提升,推理算力需求高景气持续,预计 2026 年随着国产芯片及服务器产能快速爬坡,国内互联网大厂的资本开支将继续攀升,其中,阿里管理层在最新财报业绩交流会上表示,目前服务器上架速度远跟不上客户订单的增长速度,未来可能上调此前给出的三年 3800 亿的资本开支投入计划。
中美科技博弈下 AI 芯片国产化进程将持续提速。自 2022 年 10 月美国商务部更新出口管理条例以来,近年来美国对高性能 AI 芯片的出口管制不断收紧,2025 年 4 月特朗普政府宣布“对等关税”政策,中美贸易摩擦进一步加剧,同时在 4 月美国通知英伟达,无限期禁止对中国等地出口H20 芯片。虽然随后中美贸易摩擦有所缓和,并在 7 月美国放开 H20 的出口管制,近期又批准了英伟达H200 的对华出口,但在中美科技博弈的大背景下,实现 AI 芯片的自主可控重要性愈发凸显,目前中国已要求政府资助的数据中心和部分科技公司限制采购英伟达芯片,并将针对 H200 设置采购限制。根据 Trendforce 预测,2026 年国产AI芯片(包括国内互联网大厂自研的 ASIC 芯片和本土芯片供应商的产品)在国内高端AI 芯片市场的供应份额将达到 70%,而英伟达 H200、AMD MI325 等同级海外产品的份额仅为 30%。

以华为昇腾、寒武纪、海光信息、昆仑芯为代表的国产 AI 芯片厂商正持续突破单卡性能上限,其中华为旗舰产品已可对标英伟达 H100。华为于 2025Q1 推出昇腾 910C 芯片,FP16 稠密算力达到约800TFLOPS,接近 H100 算力的 80%,同时华为公布了昇腾系列芯片的三年迭代路线图,预计26Q1 和26Q4 将陆续推出昇腾 950PR 和昇腾 950DT,算力将达到 1PFLOPS(FP8)/2PFLOPS(FP4),并预计27Q4 和28Q4将分别推出昇腾 960 和昇腾 970。此外,寒武纪、海光等厂商也在快速升级 AI 芯片产品,其中,寒武纪主力产品MLU590 已能对标英伟达 A100,预计下一代产品 MLU690 性能将实现翻倍提升;海光在深算二号基础上推出了深算二号 AI 版,正式切入 AI 场景,而新一代量产的深算三号 AI 性能实现进一步显著提升;25年第三代昆仑芯芯片 P800 上市,FP16 性能较昆仑芯 2 代提升了近 2 倍,同时百度披露了未来5 年的产品迭代路线图,预计 26 年初发布针对大规模推理场景的 M100,27 年初上市 M300,面向超大规模多模态模型的训练和推理需求。
2025 年 4 月华为发布 CloudMatrix 384 超节点,通过架构创新实现以量换质,直接与英伟达最新一代机架级解决方案展开竞争。CloudMatrix 384 超节点由 384 颗昇腾 910C 芯片组成,具体而言,CloudMatrix384包括 16 个机柜,其中有 12 个计算机柜,单机柜配置 32 颗昇腾 910C;有 4 个交换机柜,放置Scale-Up交换机。每个昇腾 910C 芯片通过 UB 交换机进行连接,实现节点间通信性能接近节点内水平,节点间带宽退化不足 3%,并且节点间延迟增加不到 1 微秒。相较于英伟达 GB200 NVL72,CloudMatrix 384 的AI 芯片数量是其 5 倍,足以弥补每颗芯片性能仅为 Blackwell 1/3 的不足,一套完整的CloudMatrix 384 超节点可提供300PFLOPS 的 FP16 稠密算力,接近 GB200 NVL72 的 2 倍。同时,根据华为在技术论文中披露的数据,在使用 CloudMatrix 384 部署 671B 参数的 DeepSeek R1 模型时,在 prefill 阶段,每个NPU的吞吐量达6688tokens/s,而在 decode 阶段,每个 NPU 的吞吐量也达到了 1943 tokens/s,对应的计算效率分别为4.45和1.29tokens/s/TFLOPS,均优于英伟达 H100 和 H800 的表现。
国内头部云厂商、传统服务器厂商以及 AI 芯片厂商纷纷布局超节点,基于自身基因选择差异化竞争策略,形成体系化算力输出。其中,1)头部云厂商中阿里和百度已率先布局超节点,阿里磐久AI Infra2.0AL128超节点基于行业领先的散热技术在极致密度集成能力上实现突破,传统服务器机柜可容纳128 张加速卡,同时软硬协同优化能力突出,超节点与自研的 HPN 8.0 高性能网络、AI 平台PAI 等深度集成,通义千问模型基于此实现训练端到端加速比 3 倍以上提升;而百度采用“芯片+架构+应用”的闭环策略,超节点使用自研的昆仑芯芯片,实现单卡性能提升 95%、单实例推理性能提升 8 倍,目前已大规模应用于百度搜索、自动驾驶等核心业务;2)传统服务器厂商具备工程优势,凭借多年硬件集成经验,在高密度部署、散热优化等工程难题上快速突破,中科曙光 scaleX640 为全球首个单机柜级 640 卡超节点,并采用“一拖二”高密架构设计,2 台 scaleX640 可组成 1280 卡的计算单元,支持十万卡集群部署;新华三H3CUniPodS80000实现单机柜 64 卡高密度部署且支持向 1024 卡扩展;中兴通讯自研超节点采用框柜一体设计,GPU间时延降至百纳秒级;3)AI 芯片厂商以光互联等技术为突破口,比如沐曦自研高速光模块将机柜间时延压缩至微秒级,其 Shanghai Cube 超节点单机柜支持 128 颗 GPU 部署,凭借长距离集群扩展优势,成为DeepSeek等大模型团队的核心供应商。
国产 AI 芯片厂商目前主要通过兼容 CUDA 以及自研两种方式来构建生态,逐渐突破CUDA生态壁垒。1)海光信息、摩尔线程等厂商采用兼容 CUDA 生态的方式,一方面,这类厂商在硬件层面上大多采用与英伟达类似的 GPGPU 架构,另一方面,这类厂商投入研发具备较高转换质量的编译器,用于CUDA代码转译,因此能够降低 CUDA 迁移难度并减少效率损失。短期来看,通过兼容 CUDA 构建生态的优势在于能够实现 CUDA 应用的低成本迁移,从而使开发者在不改变使用习惯的情况下逐渐过渡为使用国产芯片;2)华为昇腾、寒武纪等厂商致力于构建自主生态,这类厂商会针对自身 AI 芯片的特性通过自研构建软件栈,以通过软硬件协同更好发挥芯片性能,同时自主可控程度也更高。但在短期内,自建生态难度较大,这类厂商也会通过编译器实现对 CUDA 的兼容。而由于这类厂商多采用 ASIC 架构,CUDA 迁移难度相对较高,在一定程度到会导致更大的性能损失。

国产芯片厂商正在加快解决国内晶圆代工等供应链问题。一方面,中芯国际正在积极推进产能提升,公司正在上海、深圳和北京扩建先进制程的产能,并且由于能够持续获得国外设备以及缺乏有效的制裁和执法措施,其产能仍在不断扩张,根据 Semianalysis 测算,到 2025 年底,保守估计中芯国际7nm及以下的先进制程节点总产能将达到 4.5 万片/月,2026 年将增至 6 万片/每月,2027 年将增至8 万片/月。与此同时,华为正在自建晶圆厂,成立了自己的工具公司 SiCarrier,专门复制国外公司的工具,并与中芯国际在工艺技术方面开展合作,有望显著提升中国先进制程产能,而中芯国际也开始将部分生产外包给华为,将在一定程度上释放其产能分配给其他国产芯片厂;另一方面,部分国产芯片厂商开始研发Chiplet 技术,采用国产14nm+先进封装的技术方案来实现等效 7nm 的性能,目前沐曦等厂商已验证该路线的可行性。
以华为昇腾、百度昆仑芯等为代表的一线芯片厂商开始快速放量,同时沐曦、天数智芯等二线芯片厂商也从产品打磨快速向规模化落地过渡。其中,1)根据 Semianalysis 数据,2025 年昇腾910 系列芯片出货量从 50.7 万片提升至 80.5 万片,其中昇腾 910C 成为出货主力,出货量达到65.3 万片;2)根据IDC,24年昆仑芯出货量达 6.9 万片,25 年上半年百度成功点亮昆仑芯 P800 三万卡集群,并全面应用于百度内部;3)根据 IDC 数据,24 年寒武纪芯片出货量达 2.6 万片,全年营收 11.74 亿元,而25 年前三季度营收就达到46.07 亿元,同比增长 2386.38%,25 年芯片出货量预计也将有数倍增长;4)25 年海光信息深算三号已顺利实现量产出货并在主要商业场景落地,深算四号目前研发进展顺利,今年有望实现量产,并有望在头部互联网厂商等客户中获得青睐;5)此外,沐曦、摩尔线程、天数智芯等二线芯片厂商累计产品出货量均已突破万卡,其中,截至 25 年 8 月末,沐曦 AI 芯片累计销量超过 2.5 万卡,已在多个国家人工智能公共算力平台、电信运营商智算平台和商业化智算中心实现规模化应用;截至 25 年 6 月30 日,天数智芯已向金融、医疗、交通等行业的 290 名客户交付 5.2 万片 AI 芯片;截至 25 年 9 月,燧原AI 加速卡及模组合计销量达9.72 万张。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)