英伟达在 GPU 市场保持着绝对的龙头地位。除了不断推出的性能强大的 GPU,英伟 达还凭借其 CUDA 生态不断拓宽自身护城河。
根据 JPR 统计数据,2Q23 英伟达在独立显 卡市场中份额为 80%,在 GPU 市场了保持着领先的市场份额。英伟达 GPU 产品主要分为游戏、设计、数据中心三条线,Hopper 架构的 H200 是目 前数据中心条线最强 GPU。英伟达 GPU 产品线主要分为面向游戏娱乐领域的 GeForce GTX/RTX 系列显卡、面向专业设计和虚拟化领域的 NVIDIA RTX/Quadro 系列显卡,以及 面向数据中心的高算力 GPU。根据英伟达官网,数据中心产品线目前在售产品主要包括 Ampere 系列,Hopper 系列,Ada Lovelace 系列和 Turing 系列。其中,最新推出的 H200 是首款采用 HBM3e 的 GPU,显存配置较上一代显著提升。H200 显存 141GB,是 H100 的1.8 倍,显存带宽 4.8TB/s,是 H100 的 2.4 倍,在处理 700 亿参数的大语言模型 Llama2 时,H200 的推理速度是 H100 的 1.9 倍。
英伟达护城河之一:算力,持续架构迭代提升 GPU 性能。2010 年,英伟达推出世界 上第一个完整的 GPU 架构 Fermi,此后,英伟达不断通过扩展 Cuda 核心种类,增加 CUDA Core 数量,引入并升级 Tensor Core & RT core 等等途径,增强 GPU 在深度学习、AI 运算方面的性能。2022 年英伟达推出全新的 Ada Lovelace 架构和 Hopper 架构,其中专 为数据中心打造的 Hopper 架构采用了台积电 4nm 制造工艺,与上一代相比,Hopper 将 TF32、FP64、FP16 和 INT8 精度的 FLOPS 提高了 3 倍。

英伟达护城河之二:生态,CUDA 工具降低开发门槛。CUDA 是英伟达 2006 年推出的 并行计算框架,本质是一系列用于优化计算的编程函数,通过提供包括数据索引、内核 函数、线程分配等在内的完整的工具套件,方便开发者针对不同任务对处理器进行编程, 从而让 GPU 的功能由图形处理拓展至通用计算,具有了解决复杂计算问题的能力。但 CUDA 并非开源生态,英伟达拥有大量专利壁垒。随着不断迭代,CUDA 在针对 AI 或神经 网络深度学习领域推出了非常多的加速库,构成了 CUDA 的软硬件生态站。完善的功能 吸引更多开发者使用,大量的开发者亦不断完善 CUDA 生态,从而形成正向循环。截至 2023 年 5 月,CUDA 注册开发者增加至 400 万人。 在算力和生态双重支撑下,英伟达 H100 毛利或高达 90%。英伟达作为芯片设计公 司,主要制造成本为购买 BOM(物料清单)的支出和委托第三方的制造封装成本。根据 晚点 LatePost 的测算,收入方面,一颗 H100 售价超 3 万美元,制造成本方面,BOM 支 出主要为从 SK 海力士采购的 HBM3 内存芯片约 2000 美元,委托台积电制造封测预计花 费 878 美元,粗略测算英伟达 H100 毛利或高达 90%。
英伟达高端芯片供不应求,货期最长可达 52 周。在庞大的需求与紧张的供货下, H100 最长需要 52 周才能交付。同时,大多数服务器 GPU 都供应给了超大规模云服务 提供商,而服务器原始设备制造商(如戴尔、联想、HPE)目前还无法获得足够的 AI 和 HPC GPU。根据 Omdia 数据,Meta 与微软是 H100 最大的客户,预计 2023 年订购量为 15 万张,谷歌、亚马逊等预计订购 5 万张。