英伟达经营亮点在哪?

最佳答案 匿名用户编辑于2024/12/25 14:02

股价历史复盘,多轮业绩超预期驱动股价快速抬升。

英伟达凭借其技术优势,夺得绝大部分AI GPU市场份额,成为收获AI算力红利的主要受益公司。AI算力需求帮助英伟达数据 中心业务营收高速增长,同时高价值量的AI GPU帮助英伟达盈利能力爬升。

Blackwell全新架构实现单卡芯片算 力密度及峰值算力较上代Hopper跃 升。Blackwell GPU实 现两 个GPU die 双 芯 片 堆 叠 , 晶 体 管 数 量 较 Hopper GPU提升160%,B200同精 度的峰值算力也较H200均提升至少 一倍(除FP64精度外)。 弱化单独GPU芯片,英伟达推出当 前 最强AI芯片GB200。GB200通过 NVLink-C2C接口连接两个Blackwell GPU和一个Grace CPU,GB200推理 速度为 H100 的7 倍 , 训练速度为 H100的4倍(基于GPT-3模型)。 互联技术帮助GB200机架系统实现 通信速度和整体性能的大幅提升。 GB200还可扩充至机架系统级产品, DGX GB200 NVL72机 架 通 过18个 NVLink Switch芯片连接36个GB200, 帮助Blackwell机架级系统推理性能 较Hopper算力集群提升至30倍(基 于GPT-MoE模型)。

英伟达自研通信芯片,实现通信能力持续增强。1)NVLink 5.0在B200上实现1.8TB/s的数据传输,较4.0提升一倍;2) NVLink Switch是第一款机架级交换机芯片,能够在无阻塞计算结构中支持多达 576 个完全连接的 GPU。

 

NVLink和NVLink Switch是英伟达创建无缝、高带宽、多节点GPU集群的关键。NVLink Switch互连技术帮助已连接的GPU 共享计算结果,提高通信速度,降低集群损耗。NVLink Switch可组建连接GB200 NVL72的GPU实现全通信连接,并可进一 步扩展、最多连接576个GPU,从而形成高效的数据中心大小的GPU算力集群。

英伟达产品形态包括芯片、服务器和机架系统三个层级,存在依次组成构建的关系。  芯片级:英伟达官方当前公布的芯片款式包括B100、B200和GB200三类,其中GB200由2个B200和1个CPU构成;  服务器级:8个B100或B200芯片组成对应8卡服务器,GB200超级芯片服务器则配备两个GB200超级芯片;  机架系统:服务器通过机架式设计,可实现多个服务器连接形成更多GPU互连,例如72个GPU连接的GB200 NVL72。

机架系统组成:1)GB200 NVL72:计算部分由18个GB200 服务器构成(36个GB200超级芯片,即36个Grace CPU+72 个Blackwell GPU),中间通过9个NVLink Switch Tray实现通信共享;机架还可横向拓展,如8个GB200 NVL 72机架 可组成一个SuperPOD,创建一个576个GPU互连的大型算力集群。2)GB200 NVL36:单机柜形式,计算部分由9个 GB200服务器构成,其中机架上方放置5个、机架下方放置4个,中间通过9个NVLink Switch Tray连接。

CUDA成英伟达生态护城河,AMD依赖迁移+开源追赶。英伟达CUDA具备丰富训练框架和强大算子库,开发者使用粘性强。 CUDA支持JAX、PaddlePaddle、MXNet、PyTorch Geometric、DGL等深度学习框架,且CUDA-XAI软件加速库具备丰 富的数学、数据处理、图像视频、通讯等库,以及TensorRT、cuDNN两个专门绑定英伟达GPU的深度学习核心库。 英伟达打造软硬一体解决方案。1)DGX平台,打造从硬件到软件的企业级AI平台;2)AI Enterprise软件套件,帮助客户 灵活部署、加速降本,提供包括NeMo、Riva、NIM容器式微服务等应用。