2024年全球AI算力行业专题报告:从云到端,云端协同,AⅠ开启科技行业超级成长周期

全球 AI 算力行业投资要点

2022 年 11 月底,OpenAIOpenAI 发布 ChatGPT 3.5。紧随其后,AI 相关的行 业在 2023 年进入爆发式发展期。无论是 OpenAI 随后发布的 ChatGPT 4.0, 还是谷歌、Meta 等多家厂商发布的 Gemini、Llama 等 AI 大模型,正是这一 轮 AI 行业爆发式发展的体现。中国的玩家,包括互联网头部企业和初创公 司,都相继投入到大模型的研究和发布中。根据调研,中国的 AI 大模型的 能力有望在今年年底逼近 ChatGPT4.0。 我们清晰地看到,大模型的到来成为了 AI 行业发展的奇点,当前行业处于 加速上行的高速发展阶段。这个阶段比较接近当年 iPhone 4 发布之后,大 量安卓品牌相继跟进进入智能手机行业的阶段,也同样比较接近特斯拉进 入中国量产后,多家中国新势力、传统车企的新能源车品牌相继涌入该赛道 的阶段。因此,我们对 AI 行业未来的成长趋势持相当程度的乐观态度。 同时,AI 大模型正在快速向新能源车、智能手机等端侧快速渗透,从而促进 AI 进入 C 端领域,并进一步打开市场空间。 因此,我们在这篇报告中试图回答三个问题:1)在 AI 大模型发展大爆发之 后,目前行业发展处于怎样的阶段,是否还有上行空间?2)AI 大模型会给 端侧带来多少的空间增量,可以拉动多大的存量空间?3)如何看待当前全 球头部 AI 玩家的预期、估值和股价空间?

第一,在 AI 大模型发展大爆发之后,目前行业发展处于怎样的阶段?短中 长期,AI 算力行业是否还有较大的上行空间? 我们认为 AI 行业仍然处于发展较为早期的快速增长阶段。这个基本判断可 以从两个方向来看,一是最能贴近 AI 行业的服务器出货量中 AI 的渗透率, 目前只有个位数;二是全球相关的资金/资本正在快速涌入,包括巨头和初 创公司。 这两个指标都将推动 AI 大模型在供应端为保持性能和技术领先进入快速迭 代和发展,从而推动行业大幅上行。在这个过程中,AI 大模型背后所需要的 AI 算力服务器/芯片都会处于需求持续增长期。 根据 MIC,2023 年全球 AI 服务器出货量超过 125 万台,同比增长 47%,预 计 2024 年 AI 服务器出货量将达到 194 万台,同比增长 55%,同比增速上 行。根据中商产业研究院,中国 AI 服务器 2023 年规模达 134 亿元,同比增 长约 101%,预计 2024 年中国 AI 服务器规模达 307 亿元,同比增长 128%, 同比增速也在加速上扬。 从渗透率来看,2022 年、2023 年、2024 年,全球 AI 服务器出货量渗透率 达到/预计达到 5%、6%、8%。与科技新兴产业发展趋势类似,目 前 AI 服务器渗透率也处于加速上扬阶段。展望未来展望,AI 服务器渗透率 有望持续上扬。

从大模型供应商的角度,即 AI 算力芯片的直接需求方,正在大量采购 AI 算 力芯片。在近期新闻中,英伟达最新出货的 GB200 上调订单预测。大模型 厂商为了取得行业初期成长红利,以及潜在进入成熟期之后更大的份额,需 要保持自身产品性能领先和体验的差异化。 AI 算力背后最核心的是 GPU。GPU 是重要的计算芯片,也是重要的半导体 逻辑芯片。AI 服务器渗透率的提升以及市场资本持续的涌入确实可以作为 中长期行业增长动能的判断指标。但是,即使如此,分析 AI 算力芯片这种 处于初期的高成长行业时,我们依然会在意半导体产业的周期性动能带来 的影响,这也是短期去跟踪 AI 算力芯片行业的重要参考。短期看,AI 算力 芯片增长动能强劲,下行风险较小。

从长期的时间维度,例如 3-5 年甚至更长,AI 算力行业的竞争格局会产生 演变。 当前 AI 大模型处于百家争鸣的阶段,行业初期红利叠加大量市场/巨头资金 支持,推动行业加速发展。高增长、高容量的行业也会孕育较激烈的竞争环 境。根据浦银国际互联网团队的调研结果,今年以来 AI 大模型厂商收费单 价大幅度下滑,较降价前下滑 90%。当然,目前阶段并没有进入 AI 大模型 厂商的“生死”时刻。 在行业商业模式落地和商业变现的过程中,行业对 AI 大模型厂商综合能力, 包括技术、产品、营销、管理,提出更高的要求,也对厂商的利润能力提出 要求。在这个阶段,部分或者大量的 AI 大模型厂商退出行业。 这会在一段时间内对 AI 算力芯片行业造成大量供给释放的冲击。即头部的 AI 大模型厂商有望以较低的价格获取已经退出市场的 AI 大模型玩家的算力, 从而导致 AI 算力芯片短期的拉货动能下滑。我们认为在这个阶段,投资人 应该保持更加谨慎的投资态度,等待行业消化剩余产能。

从 AI 算力芯片行业来看,英伟达接近垄断的市场格局也可能因为市场规模 的大幅增长而发生改变。一方面,头部的 AI 大模型玩家会有意愿开发并自 研 AI 算力芯片以取得客制化差异化性能和成本优势。特斯拉的 Dojo 超算、 谷歌的 TPU 芯片、百度的昆仑 AI 芯片等,都存在取代/部分取代当前英伟达 算力芯片的可能。另一方面,在 AMD 以及其他初创公司 GPU 等 AI 算力芯 片性能存在部分优势的情况下,AI 大模型厂商也会有意愿增加非英伟达芯 片使用量以促进 AI 算力芯片的竞争,平衡供应商之间的成本。 当然,从长期维度看,尽管英伟达的 AI 算力芯片份额下行风险大于维持近 乎垄断地位的风险,但是基于头部优势,英伟达在维持大多数产品的性能和 成本优势的同时保持相对健康的利润率是比较有保障的。

第二,AI 大模型会给端侧带来多少的空间增量?端侧 AI 的应用可以拉动多 大的存量空间进入增长? 端侧 AI 大模型会逐步拉动 AI 算力需求,并且逐步扩大对于云侧 AI 算力需 求量。端侧对于 AI 大模型的需求主要有两个来源:一是对于 AI 大模型厂商, 例如 OpenAI 的技术需求,二是端侧品牌自身构建更贴近用户需求的 AI 大模 型。 由于 AI 大模型仍然处于发展的初期阶段,AI 大模型的商业闭环尚未完美形 成。根据我们的估算,OpenAI 在 2023 年年化收入已经达到 10 亿至 20 亿美 元,但是距离整体盈利仍有较大距离。因此,AI 大模型厂商仍然需要一定时 间才能形成规模化稳定的盈亏平衡或者盈利。 AI 大模型从云侧向端侧渗透和延伸,会有效拓展 AI 大模型在 C 端用户的使 用。端侧载体,包括电脑、智能手机、新能源车、ARVR 等,都能有效触达 最广泛的人群。

以智能手机为例,全球智能手机用户超过 60 亿人,因此 AI 大模型在该终端 的渗透和普及可以更有效地触达 C 端用户,促使 AI 大模型从供应驱动向需 求驱动转型。同时,对于 C 端用户的有效触达,更有可能形成商业闭环。 此时,商业模式有两种。一种类似当前 ChatGPT 的付费使用模式,即消费者 直接付费使用性能更优的 AI 大模型。另一类是将 AI 大模型的成本加入智能 手机、新能源车等终端售价中。 微软、苹果借助与 OpenAI 的合作,快速地将 AI 大模型带入自身电脑和手机 等电子终端,从而给消费者带来生产力的提升和用户体验的改善。 我们认为 AI PC、Gen-AI 智能手机、高阶智驾新能源车、ARVR,都是较强的 触达用户的端侧 AI 落地载体。AI 大模型正在端侧加速渗透。

根据 Counterpoint 的预测,2024 年、2025 年具备高阶 AI 能力的笔记本 电脑渗透率将达到 5%、15%。生成式 AI 最有望在笔记本电脑作为生产力 工具。

根据 Counterpoint 的预测,2024 年、2025 年具备生成式 AI 能力的智能手 机渗透率将达到 11%和 24%。作为触达 C 端用户最广的电子终端,AI 将 有望带动智能手机换机需求,从而反哺对于云侧的 AI 算力的需求增长。

根据车百智库,2023 年中国高阶智驾的 NOA 的渗透率为中低个位数, 而 2024 年该渗透率有望到达两位数。我们认为中国新能源车企对于智 驾的推动将是带动 AI 大模型落地端侧最快最大的应用场景。并且,中国 新势力已经搭建自身的 AI 算力平台,以促进 AI 大模型在智能座舱和智 驾的应用。

AR 作为热度很高且也正在不断发展的电子计算平台,与 AI 大模型的结 合,相互促进、相互提高,对行业扩张有很大帮助。

所以,从今明两年的时间维度看,能够支持端侧 AI 大模型算力的芯片都将 取得较高增速,包括智能手机上高通骁龙 Gen 系列、联发科天玑系列,智 能驾驶中使用的英伟达 Orin 或 Thor 等。同时,这些端侧 AI 需求会一定程 度拉动整体 AI 算力芯片训练端的需求,拓展 AI 算力芯片的增长边界。

第三,当前全球头部的 AI 玩家的股价已经反映了多少市场预期?如何看待 当前全球头部 AI 玩家的估值和股价空间? 我们认为回答这个问题的核心在于海外 AI 主题相关的标的热度已经持续了 很长一段时间,在高成长的预期中,估值也没有那么便宜,那么此时估值会 不会面临较大的下行风险? 我们认为当前美股 AI 算力芯片的估值依然有小量的上行空间。AI 算力的估 值可以拆解为 2 个部分:1)半导体周期层面,2)AI 大模型初期爆发层面。 首先,从半导体周期层面来看,AI 算力芯片,不管是云侧还是端侧,都处 于全球半导体上行周期中。而 AI 算力增量是本轮全球半导体上行的最重要 的动能。我们观察到费城半导体指数在 2022 年 10 月触底上行以来,已经 持续 20 个月,跟历史上约 2 年的上行周期比较,还有一些上行的空间和机 会。但是,由于 AI 大模型对于多个科技子行业的带动,本轮周期估值上行 的高度可能会较以往峰值更高。

另外,全球半导体基本面周期,即全球半导体月度销售额同比增速,在 2023 年 4 月触底,随后开启迅速上行。这轮基本面上行的斜率比较陡,可以支撑 更高的估值峰值。同时,本轮半导体基本面上行才 12 个月,还有接近一年 的上行空间。非 AI 相关半导体基本面上行将推动估值上行,给与 AI 相关的 估值高溢价做好支撑。 其次,本来 AI 行业再次爆发,不仅将带动各家巨头入局,也同样带动 OpenAI 等初创企业的估值水涨船高。根据新闻报道,2024 年 OpenAI 最新一轮的估 值已经达到 800 亿美元。如果 OpenAI 或其他 AI 大模型初创企业在近两年上 市,有可能会带动二级市场 AI 板块估值中枢上移,已经上市的 AI 标的估值 则有进一步上行空间。 目前,英伟达的未来 12 个月市盈率为 43.6x,高通的未来 12 个月的市盈率 为 19.1x。这两家公司的估值不便宜,但是估值距离过去 5 年周期顶部的峰 值还有小量距离。进一步看,我们认为本轮 AI 带动科技产业革命有望带动 行业估值突破历史新高。 另外,美国处于利率高点对于高成长的科技股的估值不利。未来美国进入降 息通道后,美股的科技股有望享受估值加成上扬。 因此,综上来看,我们认为在 AI 算力芯片行业,云侧需求短期供需平衡基 本面推动股价上行,端侧需求拉动新增应用领域有望持续贡献增量,估值不 便宜但是依然具备上行空间。

全球 AI 算力行业概览:发展初期,高 速增长

全球 AI 大模型具备较大的成长空间

人工智能(AI,Artificial Intelligence)指通过计算程序或机器来模拟实现人类 智能的技术和方法。伴随着 OpenAI 将人工智能再次推上风口浪尖,二级市 场股价大幅上扬。 本轮 AI 大模型的技术,与前几年的 AI 技术路径有所不同。此前,AI 技术中 提及比较多的是卷积神经网络(CNN,Convolutional Neutral Network),在图 像识别等领域已经较为成熟,更多还是规则制。而 OpenAI 则使用大语言模 型(LLM,Large Language Model),针对自然语言处理(NLP,Natural Language Processing),实现文本生成、翻译、问答等能力。 OpenAI 发布的 ChatGPT 的核心是 Transformer 架构,特别是自注意力机制, 这使得模型能够并行处理输入数据,理解和生成具有上下文依赖性的文本。 而这与前几年提及比较多的卷积神经网络技术有差异。此前,图片识别技术 依赖于卷积神经网络等深度学习算法,通过特征提取和分类器来识别图像 内容。

ChatGPT 通过预训练和微调的方式进行训练,预训练阶段使用大量文本数据, 微调阶段则针对特定任务进行优化。因此,大模型数量和参数提升推动 AI 服务需求提升。 大模型推陈迭代,参数及语料提升带动算力需求提升。过去几年,大模型参 数呈现出指数型增长。为了实现更高的精度,大模型参数从 2018 年 GPT-1 的 11.7 亿,提升到 2020 年 GPT-3 的 1,750 亿,再到 2023 年 GPT-4 的约 1.8 万 亿。训练集大小也由 GPT-3 的 3,000 亿 tokens 显著提升至 GPT-4 的 12 万亿 tokens。我们预计未来模型参数将持续高速增长,从千亿级到万亿级提升。 从长期展望来看,全球生成式 AI 有望迎来万亿美元市场空间。自 2022 年底 Chat GPT 面向公众开放以来,生成式 AI 带动了新一轮的生产效率提升,也 开启了新一轮 AI 投资机遇。根据 IDC 数据,2020 年至 2023 年全球生成式 AI 市场空间上涨了约 6 倍,预计 2024 年至 2030 年期间复合增长率达到 40%,2030 年有望接近 10,000 亿美元。

经过分析,我们认为 IT 基建开支、服务器收入、云服务收入,可以用来追 踪 AI 产业链的成长趋势和动能。 从商业模式来看,AI 产业链由三个部分组成。最上游为 IT 基建开支。IT 基 建开支主要来自于互联网企业、电信运营商和政府投入。IT 基础设施主要包 括用于传输、存储、管理、分析数据等,为用户提供数据计算、网络连接、 网络安全等功能。 中游环节涉及 IT 基建开支投入的具体方向,基本组成为硬件、软件、网络 连接。硬件主要包括服务器、数据中心、个人终端设备;软件主要包括管理 系统和应用程序;网络包括路由器、交换机等。中游环节的主要受益厂商包 括服务器、半导体、光模块等。 下游应用环节,包括 Chat GPT、端侧 AI 大模型、互联网企业 CSP(Cloud Solution Provider)云服务商。IT 基建的投资者在下游应用推广的过程中受益 获得回报,并依据回报的多少和对未来的预期再进行下一轮 IT 基建投入。

全球 IT 基建支出正在加速上行。2023 年美国四大互联网厂商(谷歌、微软、 亚马逊、Meta)资本开支在全球 IT 基建占比超三分之一。全球 IT 基建支出 由 2009 年的 1,388 亿美元增长至 2023 年的 4,140 亿美元。其中, 2017 至 2023 年进入加速上行阶段,期间复合增长率达到 14%。美国四大互 联网厂商在全球 IT 基建中占比最高达到 42%,2023 年占比 36%,是推动全 球 IT 基建上行的重要力量。 美国四大互联网厂商资本支出的同比增速和全球 IT 基建支出同比增速大体 保持一致。美国的头部四家资本开支存在一定的周期。从季度频率看,这四 家公司资本支出同比增速在经历了 10 个季度的下行后,在 2023 年二季度 见底触及-9%的增速,随后就开启上行,并在今年一季度实现+30%增长。本轮美国互联网大厂资本开支投向主要集中在 AI 算力的部署。 我们预期美国互联网厂商以及其他初创企业都在加速部署 AI 大模型算力, 以避免在新技术商业落地过程中落后于同行和竞争对手。所以,我们预期这 些企业的资本开支上行动能会推动 AI 算力需求大幅上扬。

全球云服务收入稳步增长,过去四年全球云服务收入年复合增长率达 25%。 2019 年至 2023 年,全球云服务年收入规模由 2,724 亿美元增长至 6,655 亿 美元,期间年复合增速高达 25%,2023 年下半年全球云服务同 比增速 19%。全球云服务收入最大的三家公司及份额分别为微软 17%、亚马 逊 12%、谷歌 5%,CR3 合计份额为 34%。根据 IDC 预测,2024 至 2028 年全球云服务收入有望从 8,000 亿美元增长至 1.6 万亿美元,期间 复合增长率 19%。 从经济角度出发,并不是所有的 AI 大模型厂商都适合自建 AI 算力。在考虑 成本和规模效应时,规模较小的 AI 大模型厂商将可能使用租赁算力的方式 来打磨自身大模型能力。因此,我们认为全球云服务行业规模和 AI 算力行 业规模都将保持同步增长。

AI 应用助力服务器市场加速增长。2018 年至 2023 年,全球服务器收入规模 由 934 亿美元上升至 1,362 亿美元,期间复合增长率为 8%。其中,2022 年 四季度 Chat GPT 推出后,全球服务器收入规模加速上行,4Q23 对比 4Q22 同比增长 23%。服务器市场中,除去占比最高的原厂直销的白牌服务器外, 收入占比前三的玩家及份额分别为戴尔 12%,超微电脑 8%,惠普 7%。 根据 IDC 预测,2024 年、2025 年全球 AI 服务器收入规模分别为 393.5 亿美 元和 529.4 亿美元,同比增长 51%、35%,对应渗透率 8%、9.5%。

AI 算力及 GPU 需求测算:需求空间仍旧巨大

训练侧: 影响 AI 训练端算力需求的参数主要有 2 个,模型参数量和训练集大小。根 据 OpenAI 的 Kaplan 发布的论文 Scaling Laws for Neural Language Models,AI 模型训练所需的浮点运算次数计算公式为:6×模型参数规模×训练集大小 (PFLOPS)。根据 OpenAI,ChatGPT-3 包括 1,750 亿参数,在 3,000 亿 tokens 的训练集中完成训练。通常,1,000 个 tokens 约合 750 个英文单词,约合 500 个汉字。 我们假设 GPT-3 由英伟达 A100 训练完成。由于 GPU 参数标注为理想条件下 的最高算力,我们需要效率乘数来还原真实的算力及服务器需求数量。GPU 的有效算力比率取决于 GPU 硬件型号及大语言模型架构等多方面因素。根 据 OpenAI 论文,英伟达 A100 在 GPT-3 上的有效算力比率为 21.3%。根据英 伟达官网,A100 服务器包含 8 个 A100 GPU,最高性能可达 5 petaFLOPS。由 此,我们计算出 GPT-3 需要单个英伟达 A100 服务器计算 3,423 天。 根据我们的产业链调研和专家访谈,业内拥有 200-300B(B=bn)参数的大 语言模型,在英伟达 A100 上通常需要 30 多天的训练。我们假设 GPT-3 目 标训练用时为 30 天,如果同时训练一个模型,那么我们对 A100 服务器的 需求为 114 台,折合 912 块 A100 GPU。

ChatGpt3 向 ChatGPt4 的迭代,训练集大小提升拉动算力需求明显提升。根 据 SemiAnalysis 的测算,GPT-4 采用了 1.8 万亿参数,训练集大小约 12 万亿 个 tokens。我们假设 GPT-4 采用 H100 服务器,有效算力比率为 30.2%,如 果想要在 30 天内完成训练,需要的 H100 服务器数量上升至 5,174 个,H100 GPU 需求数量上升至 41,391 个。 2023 年 12 月,谷歌发布 Gemini 大模型。Gemini 的训练数据库为 Youtube 上 93.6 亿分钟的视频字幕,根据 SemiAnalysis 的测算,总数据集大小约为 GPT-4 的两倍。2024 年 4 月,Meta 旗下 Llama-3 发布,采用了 4,000 亿参数 量和 15 万亿的训练集,数据量是 Llama-2 的七倍。模型训练集大小的快速 提升,拉动训练算力需求及 AI 服务器需求成比例的快速提升。

推理侧: 应用级爆款 AI 将会推动训练侧算力大幅增长。根据 OpenAI 论文,AI 模型 推理算力需求和模型参数规模及训练集大小正相关。公式为:AI 模型训练所 需的浮点运算次数等于 2×模型参数规模×训练集大小。 根据 Similarweb,2024 年 5 月前三周 GPT-4 的日均访问量为 7,700 万次。我 们假设单次对话 token 数量为 500(约 375 个单词、250 个汉字),每次访问 对话次数为 10 轮。由于 GPT 返回答案的时长对用户体验的影响较大,我们 假设目标用户等待时间为 1 秒,那么仅仅 GPT-4 就需要等同于 424,945 个 H100 GPU 的算力进行推理运算。我们预计,未来伴随着应用级爆款 AI 的 APP 的出现,访问人数、访问时长的激增还将推升推理侧 AI 训练集和推理 侧算力的需求大幅增长。

AI 算力芯片产能瓶颈逐步解决,供需趋于平衡

HBM(High Bandwidth Memoery,高带宽内存)和先进封装 CoWoS(Chip on Wafer on Substrate)的产能是此前制约 AI 算力芯片 GPU 的瓶颈。 为实现逻辑芯片的最大效率,存储器到逻辑芯片的传输速度必须大于等于 逻辑芯片的运算速度。同时,由于逻辑芯片的迭代速度更快,内存传输速度 决定了一块芯片的算力速度上限。HBM 存储芯片是 GPU 想要实现高速计算 的必需品。HBM 芯片通过纵向堆叠 DRAM 裸片的方式减少内存的表面积, 由此来减少传输距离,实现更快的内存传输速度。当前 HBM 领域全球主要 玩家为 SK 海力士、三星和美光三家。 HBM 为了将多层 DRAM 芯片相互连接、垂直堆叠,并安装在逻辑芯片旁, 需要使用 TSV (Through Silicon Via) 和 3D 芯片堆叠等先进封装技术。由于制 造难度极高,必须使用先进封装技术。

先进封装方面,主要产能来自于台积电,三星等其他晶圆厂也有部分产能。 根据我们的调研,台积电的 CoWoS 产能在 2023 年年底达 1.2 万片/月,预计 2024 年台积电 CoWoS 产能将达到 3 万片/月,并在 2025 年继续扩大产能。 单片 CoWoS 产能能够封装的 GPU 数量取决于良率和裸片大小。例如,单片 CoWoS 产能可以用于封装约 30 片英伟达 H100 GPU。但由于英伟达 B100 是 通过连接两个 GPU 裸片和 8 个 HBM 组成,其芯片面积约为 H100 的两倍, 单片 CoWoS 可满足 15-18 片 B100 GPU。 我们认为伴随 AI 服务器需求爆发初期产能供不应求,HBM 和先进封装 CoWoS 产能成为制约 GPU 的瓶颈的困境正在得到改善。

中国的 AI 大模型快速跟进:AI 需求大幅上扬和大模 型能力快速追赶

在 OpenAI 发布 ChatGPT 3.5 之后,中国互联网厂商、初创企业、手机品牌、 新能源车企等,都开始加速进入布局 AI 大模型相关内容。这也大幅提升全 球对于 AI 算力芯片的需求。 根据 IDC 预测,中国 AI 市场 IT 基建支出 2023-2027 年期间复合增长率约 20% 。中国 IT 基建开支由 2013 年的 146.5 亿美元,增长至 2023 年 的 900.2 亿美元,期间复合增长率约 20%。根据 IDC 的预测,中国 AI 市场 IT 基建支出将有望从 2023 年约 190 亿美元增长至 2027 年约 400 亿美元,期 间复合增长率约 20%。 作为中国比较大的云服务厂商,中国运营商都在加大对于 AI 算力的基建投 入,奠定新质生产力基础。中国的四家互联网公司(腾讯、阿里、百度、京 东)资本支出在中国 IT 基建中占比于 2018 年达到峰值 43%,而后下行至 2023 年占比 18%。

根据公开资料,今年前四个月,全国规划、开工、落成或启用的智算中心项 目约有 40 个。其中,由中国电信、中国联通、中国移动投资建设的项目 14 个。中国电信计划 2024 年总投资 960 亿元,在云和算力相关投资 180 亿元, 智算算力提升 10EFLOPS,达到 21EFLOPS 以上。中国联通规划 2024 年总投资 650 亿元,投资重点由稳基础的联网通信业务转向高增长的算网数智业务。 再以中国移动为例,中国移动正在加快算力多元供给,不断完善新型基础设 施。截至 2023 年,中国移动已经布局的算力包括通算 F32 8.0 EFLOPS,增长 14%,和智算 F16 10.1 EFLOPS,增长 206%。公司将重点布局智算与超算算 力的建设,预计在 2024 年,实现增加通算算力 1 EFLOPS 和智算算力 7 EFLOPS 以上(增长 70%)。中国移动 2024 年算力规划投资达 475 亿元,累计智算算 力超过 17 EFLOPS。 我们认为中国三大运营商在这个方向的投入也有望带动相关 GPU 算力芯片 的需求的增长,包括潜在的英伟达针对中国市场的“特供版 H20 芯片”,以 及部分中国 GPU 算力国产化需求。

2023 年下半年中国服务器市场收入显著增长。中国服务器市场规模由 2018 年的 188.6 亿美元增长至 2023 年的 325.2 亿美元,期间复合增长率 11.5%。 2023 年下半年,中国服务器收入同比增速明显提升,4Q23 收入同比增长 28.8%。我们认为 2023 年下半年中国服务器市场收入增长主要由 AI 相关需 求拉动。中国服务器市场前三大玩家及份额分别为浪潮信息 21%、新华三 12%、超聚变 8%,均为中国本土玩家。

国产大模型的性能及算力需求在向 GPT-4 靠拢。我们假设国产大模型在性能 向 GPT-4 靠拢的同时,其参数和算力也会向 GPT-4 靠拢。以当前国内可以购 买到的英伟达 H20 为例,约合 H100 算力的 20%。如果国产大模型同样希望 在 30 天完成单个模型的测算,即需要 44,840*5=224,200 块英伟达 H20。 当前国内约有 200 个大模型。在 Llama 开源后,很多公司以 Llama 模型为基 础进行精调,但发展也受限制于 Llama 模型的迭代。我们认为相当一部分的 大模型厂商会选择自训练。

2024 年 6 月 25 日,OpenAI 向部分地区开发者发送警告信,表示从 7 月 9 日开始不再支持访问,收信者主要来自中国地区。我们认为该事件机遇大于 挑战。国内外大模型在中文内容生成能力的差异较小,这将会促使更多的开 发者转向国产大模型。智谱 AI 已经表示,将向 OpenAI API 用户提供“特别 搬家计划”,并且将为高用量客户提供与 OpenAI 使用规模对等的 token 赠送 计划。 同理,类似我们在海外大模型推理侧算力需求的测算,我们认为伴随更多的 AI 应用和爆款 AI APP 的出现,国内大模型的推理侧算力需求将显著提升。

AI 算力供应链解析:价值量集中度高, 算力芯片端垄断竞争

AI 服务器价值量集中度高,提升幅度大

英伟达 AI 服务器产业链环节涉及 GPU 代工、封装、存储(HBM)、光模块、 散热、电源管理、服务器组装等等。其中,GPU 代工和先进封装主要交给台 积电完成,部分订单交由三星完成。2024 年以前,英伟达 HBM 均由 SK 海 力士供应,但今年三星和美光都将加入 HBM 供应商队列。 AI 服务器的价值量大头集中在芯片成本本身。AI 服务器中,GPU 芯片成本 占比高达 72.6%,是新增价值量最大的模块。因此,在这轮 AI 需求爆发过程 中,AI 算力芯片供应商英伟达是当前的最大受益者。 而且,与传统服务器相比,GPU 芯片新增价值量最高。根据 SemiAnalysis 的 拆分,我们对比了典型的 AI 服务器和通用服务器的 BOM(Bill of Materials)。 典型的 AI 服务器英伟达 DGX H100 总售卖成本约 26.8 万美元,是通用服务 器的约 25 倍。AI 服务器中,GPU 芯片成本占比高达 72.6%,是新增价值量 最大的模块。智能网卡 NIC、存储的价值量占比也较为靠前,分别为 4.1%和 4.2%。其他单机价值量增幅较高,值得关注的环节包括电源+300%,组装测 试+200%,CPU +181%。

中国 AI 算力产业链

受到美对中半导体限制,英伟达 A100、H100 等芯片性能超过美国商务部性 能密度阈值要求,芯片无法进入中国大陆。因而尽管中国大陆具备强大的电 子制造和组装能力,但是在英伟达 AI 服务器产业链中的占比较少。AI 服务 器的组装中中国台湾厂商是供应主力。 美对中半导体限制也为中国 AI 芯片国产替代带来机遇。华为是国产 AI 加速 卡主要玩家。根据 IDC 的数据,2023 年,中国加速芯片的市场规模达到近 140 万张,其中 GPU 占 85%的市场份额,约 119 万张。中国本土品牌 AI 芯 片出货量超过了 20 万张,占整体 AI 芯片市场的 14%。根据 IDC 数据,2022 年华为在中国 AI 加速卡市场的市占率约 10%,是国产 AI 加速卡的最大玩 家;百度、寒武纪、燧原科技也有少量份额。 除计算芯片外,我们同时看好在 DDR5 和 HBM 市场有布局的相关中国企业。 根据 TrendForce 的调研显示,2022 年三大原厂 HBM 市占率分别为 SK 海力 士 50%、三星约 40%、美光约 10%。国产 HBM 芯片处于起步阶段。

AI 大模型:从云侧向端侧渗透

AI 端侧大模型正在快速落地中

端侧 AI 距离用户更近,是 AI 大模型商业化闭环重要的应用之一。 端侧 AI 打造个性化助手,提升用户体验。端侧大模型实现 AI 个人助手功能。 端侧 AI 模型可以实现多种大众期待的 AI 功能,打造了解个人习惯,能够有 针对性地调整回答的个人助理,功能包括健康监测、实时语音翻译、摄影时 的自动修图等。对比云侧 AI,端侧 AI 具备更低的回答延时、离线 AI 功能、 个人信息保密等优势。 大模型算力及内存需求庞大,通过两方面实现落地。一方面,通过模型量化 处理来减少精度,从而达到减少模型大小、减少内存消耗、加快模型推理的 目标。比如,将 32 位的浮点数据,通过量化处理将数字映射到 8 位浮点数 据,在最大限度保留信息的同时,模型大小将会降低到原有大小的约 1/4。 在模型大小减少后,存储空间和内存耗用都会自然减少,需要计算的浮点数 量降为原来的 1/4,推理速度和设备功耗也会自然减少。根据我们的调研, 一个端侧模型压缩后可能需要 7-9G 的内存。

另一方面,可以通过采用混合专家模型 MoE(Mixture of Experts)架构,在 推理中调用大模型中的部分小型专家模型来实现。MoE 架构由多个小型专 家模型组合而成,在推理过程中,只需要调用大模型中的部分小型专家模型, 而非整个大模型,这样可以大幅减少推理过程中的参数量和算力成本。例如, 在其他条件不变的情况下,如果一个 1,000 亿参数的大模型通过 MoE 架构 在推理时将参数减少到了 50 亿,那么根据推理算力计算公式,推理算力需 求也减少到了 1/20。 端侧 AI 模型落地有两种可能的方式,一是手机搭载手机厂自研大模型,允 许各 APP 进行调用。二是 APP 自带大模型。我们认为,由于压缩后单个端 侧模型对内存的占用仍然为 7-9G,而当前手机内存通常为 8-24G,所以 APP 自带本地化端侧 AI 模型较为不现实。我们认为未来的发展路径可能主要为 APP 调用手机厂本地大模型,或者调用云端模型。 手机厂、SoC 芯片厂共同合作助力体验升级,苹果自研 SoC 或将占据优势。 我们认为苹果等具备自研 SoC 能力的手机品牌,将会具备更加顺滑的跨应 用平台调用能力。苹果在 WWDC2024 中发布 Apple Intelligence。除具备其他 AI 终端具备的理解和创建语言、图像的功能,Apple Intelligence 还可以实现 ChatGPT 跨苹果平台的调用和集成,将大幅提升苹果终端设备的智能化程度 和用户体验。

具备 AI 能力的手机芯片价格或将大幅提升。近期,高通宣布骁龙 8 Gen 3 芯 片售价从 160 美元上涨至 200 美元,2024 年下半年即将发布的 8 Gen 4 定 价达到 250 美元,人民币价格约 1,700 元,涨幅达到 25%。而 2016 年发布 的旗舰 SoC 高通骁龙发售价格仅为约 40 美元,约人民币 300 元。2016 年至 今高通旗舰 SoC 单价提升 5.6 倍,期间年复合增长率超过 21%。联发科也有 类似的价格上涨趋势,联发科 2020 年 5G SoC 均价在 40-45 美元左右,而 4G SoC 在 15-20 美元左右,价格提升幅度超 100%。 我们认为高端芯片价格的持续上涨,主要由于芯片性能不断大幅提升,以及 制造工艺升级带来的成本提升。AI SoC 芯片的设计及工艺难度较普通高端手 机 SoC 更大,我们认为具备 AI 能力的手机芯片价格或将大幅提升。 今年上半年,在 CES、MWC 等全球电子展会上我们看到越来越多具备 GenAI 功能的智能手机亮相。例如,三星的 Galaxy S24 可实现通话实时翻译功 能,小米 14 Ultra 可实现 AI 计算摄影功能。三星、小米等高端机型在今年 上半年也有较好的出货量表现。 高通和联发科分别发布的高通骁龙 8 Gen3 芯片和天玑 9300+芯片都具备 AI 功能。高通的 8 Gen3 芯片支持终端设备运行 100 亿参数模型。联发科的天 玑 9300+芯片具备 22 TOPS 性能算力。这些 SoC 厂商都在为 Gen-AI 端侧手 机提供算力基础,这些产品将在今年下半年和明年逐步上市,推动行业成长。

AI 算力芯片竞争格局:云侧 vs 端侧

在云侧 AI 算力芯片市场中,英伟达处于并且未来一段时间都将保持垄断地 位。英伟达潜在的竞争对手为 AMD 以及 AI 大模型厂商。但是,这些竞争对 手的体量合起来仍比较小。虽然中国有华为这种形成一定体量和规模的 AI 算力芯片玩家,但是中美关系紧张使得英伟达和华为几乎无法处于直接的 竞争中。 在云侧向端侧渗透的过程中,原来的手机 SoC 设计厂商,例如高通、联发 科、苹果等,仍旧保持寡头竞争。在这个领域中,英伟达想要渗透的难度比 较高,因此端侧更多还是原智能手机 SoC 厂商之间的竞争。 我们认为云侧和端侧玩家有望同台竞技的领域是新能源车的智能驾驶和智 能座舱领域。由于英伟达牢牢把控云侧训练用的算力芯片,因此中国新能源 车企有较强意愿采用其新能源车端侧算力芯片,例如 Orin 系列芯片,来实 现智能驾驶。而智能座舱更多涉及接近智能手机用户体验,以及手机端 APP 移植到车机的体验,因而高通的 8295 等芯片更受到车企青睐。

从新能源车长期发展来看,舱驾一体是未来趋势。因而,使用单一 SoC 实现 智能驾驶和智能座舱功能将使得英伟达和高通进入更加直接的竞争中。英 伟达下一代的 Thor 系列芯片和高通的 8755 芯片可能形成直接的对抗竞争。 在这场竞争中谁能取得相对优胜,就看哪一个可以更快地补足相对劣势,提 供整体解决方案。而在形成明显优势之前,两种方案都将在市场取得一席之 地。 在 2024 年 6 月 18 日,英伟达收盘市值达 3.3 万亿美元,登顶全球市值第 一。在 AI 大模型渗透端侧的过程中,各个品牌仍然需要英伟达的云侧算力 来训练模型。这也隐含了英伟达未来一段时间收入利润增长幅度可能更大。 英伟达这两年收入端增长大爆发,收入绝对值也快速超过手机芯片领域最 重要的玩家高通。这在一定程度意味着科技产业最前沿的技术正在从手机 向 AI 大模型转移。

AI 算力芯片竞争格局:云侧产品比较

在今年 3 月的 GTC,英伟达发布了新一代 Blackwell 平台的 GPU(Graphics Processing Unit,图形处理器),包括 B200 和 GB200 等产品系列。B200 由两 个超大型裸片封装组合而成,内含超过 2080 个晶体管。这颗芯片还封装了 192GB 的高速 HBM3e 的显存。与前一代 H100 相比,B200 的每秒输出 token 数量提升 15 倍,Supercharged AI 训练表现提升 3 倍。与当前市场上量产的 AI 算力芯片比较,英伟达的产品仍然具备明显的性能优势。 从未来两年来看,英伟达计划在 2025 年推出 Blackwell 平台 Ultra 芯片,并 在 2026 年推出 Rubin 平台的产品。我们预期英伟达有能力在 AI 算力芯片领 域保持较强的产品迭代和升级能力,保持性能和成本的优势。 从更长期的竞争格局看,我们预期英伟达在 AI 算力近乎垄断的份额会有所 减少,但是,英伟达在维持大多数产品的性能和成本优势的同时保持相对健 康的利润率是比较有保障的。一方面,头部的 AI 大模型玩家会有意愿开发 并自研 AI 算力芯片以取得客制化差异化性能和成本优势。特斯拉的 Dojo 超 算、谷歌的 TPU 芯片、百度的昆仑 AI 芯片等,都存在取代/部分取代当前英 伟达算力芯片的可能。另一方面,在 AMD 以及其他初创公司 GPU 等 AI 算 力芯片性能存在部分优势的情况下,AI 大模型厂商也会有意愿增加非英伟 达芯片使用量以促进 AI 算力芯片的竞争,平衡供应商之间的成本。

美股科技股价值投资回顾

美进入降息周期有利于成长科技股估值上行

浦银国际的策略组今年发布两篇关于降息周期与科技革命交汇下的资产配 置(上、下)报告,重点回顾了 1995-1996 年的降息周期,当时 的宏观背景与当下类似,而且遇上了互联网的第一波投资热潮。 与策略组的判断类似,我们认为 1995-1996 年美联储实施的降息更多是预防 性降息,美国经济也有望实现“软着陆”。当前美股走势有望接近 1995-1996 年降息结束后,取得较好正回报。与 1995 年互联网浪潮的起点 类似,当前我们正在经历由 AI 引发的全球科技革命的新阶段。在未来两至 三年内,AI 技术有望在应用和普及上迎来爆发,或将带来难得一遇的投资机 遇。在上一轮科技革命,互联网技术迭代与资本市场的走势息息相关。目前 的投资者情绪和风险溢价水平与当时的水平也较为接近,这或能为我们布 局这一轮 AIGC 引发的全球科技革命带来了一些启示。 去年至今美股估值持续扩张,可能已经提前反映了美联储即将降息和通胀 持续下滑的利好,降息周期开始之后实际利率下降给估值释放带来的空间 可能已经有限。但是,盈利有望接棒成为支持美股向上的核心驱动力。在 AIGC 的驱动下,科技龙头公司的盈利增长预计仍较强劲,有望驱动股价向 上。

美股纳斯达克以及 M7 具备长线的基本面推动成长的 能力

Magnificent 7(M7)指美国 7 大科技巨头,即英伟达、苹果、谷歌、亚马逊、 Meta、微软和特斯拉,这 7 只股票具备庞大的市场规模、技术能力和财务 实力,在美国科技市场占主导地位。 我们复盘了 M7 过去 30 年的股价表现,我们发现 M7 的股价主要由每股盈利 (EPS)驱动。2012 年 5 月,M7 全部完成上市。2012 年 5 月至 今,M7 股价上涨了 16 倍,其中 EPS 上涨了接近 10 倍,市盈率提升了 1.6 倍。 纳斯达克股价表现也和 M7 类似,2003 年 1 月至今,纳斯达克股价上涨了 12 倍,其中 EPS 上涨了 26 倍,市盈率为当时的 0.5 倍。

2022 年底开启的 AI 行情也主要由 EPS 驱动。当前 M7 股价较 2022 年 12 月 低点上涨了 114%,其中 EPS 增长 62%,股价剩下部分由市盈率驱动。 我们认为纳斯达克包括 M7 持续科技创新与技术进步带来的 EPS 提升,是美 国纳斯达克指数及 M7 股价长牛最重要的因素。现在是新一轮 AI 革命的起 点,人工智能对于社会生产力的提升已经初具苗头,预计美股纳斯达克以及 M7 股价将会长期受基本面推动成长。因此,英伟达和高通都有望享受这波 AI 带动的科技成长动能。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告