CES 2025 英伟达推出多款产品,引领行业创新。
英伟达发布新一代 RTX Blackwell 系列显卡。北京时间 2025 年 1 月 7 日,英伟 达在 CES 2025 上发布了 GeForce RTX 50 系列产品,包括 RTX 5090、RTX 5080、RTX 5070 Ti、RTX 5070 等。性能大幅提升:RTX 5090 D GPU 的 AI 算力最高可达 2375 TOPS,性能是 上一代产品 RTX 4090 D GPU 的 2 倍。提升原因为 Blackwell 架构和 AI 加持:除了 Blackwell 架构相较上一代技术 优势外,英伟将 Transformer 模型实时应用在了图形行业,在 AI 赋能下, DLSS 4 多帧生成技术与传统渲染技术相比,性能提升至高可达 8 倍。
通用机器人领域的 ChatGPT 时刻即将到来,英伟达推出 Physical AI 大模型 Cosmos。CES 2025 上,黄仁勋推出了 NVDIA Cosmos 世界基础模型平台,旨在 让大模型理解现实世界的物理规律,并称“通用机器人领域的 ChatGPT 时刻到 来”。Cosmos 模型会提取文本、图像或视频提示,并以视频形式生成虚拟世界 状态,即通过 AI 创造数字孪生,来模拟现实世界,进行多元宇宙模拟,未来会 优先考虑自动驾驶汽车和机器人的应用场景,首批用户包括 Agile Robots、小鹏 汽车、Uber 等。
Thor 芯片正式发布,且已开始全面生产。英伟达在 CES 2025 上正式发布了 Thor 芯片并称已在全面生产,Thor 可为自动驾驶汽车、自主移动机器人(AMR)、人 形机器人等提供算力支撑,其处理能力是上一代 Orin 芯片的 20 倍。此外,黄仁 勋还发布了基于全新 NVIDIA AGX Thor 系统级芯片(SoC)的 NVIDIA DRIVE Hyperion 自动驾驶平台,专为生成式 AI 模型设计,并提供卓越的功能安全和自 动驾驶能力。
英伟达推出个人 AI 超级计算机 Project Digits。Project DIGITS 由 GB10 Grace Blackwell 超级芯片驱动,GB10 采用 Blackwell 架构,能以 FP4 计算精度提供至 高可达 1 PFLOPS AI 性能。利用 Project DIGITS,开发者可以运行包含高达 200B参数的大语言模型,且使用标准电源插座即可,同时就能提供强大的性能,相当 于将 AI 超级计算机置于每位数据科学家、AI 研究员和学生的办公桌上。
英伟达或将在 2025 年 3 月发布 GB300。根据中国台湾经济日报报道,英伟达预 计将在2025年 3月的GTC(GPU Technology Conference)大会上推出下一代 GB300 产品线,距离 GB200 发布仅 6 个月。
GB300 综合性能明显改善。根据 Semianalysis 报道,B300 GPU 是基于 TSMC(台 积电)4NP 工艺的全新流片,与 B200 相比,在 GPU 显存、计算性能、TDP 热设 计功耗、网卡等有所差异。
显存提升 50%。B300 拥有 12-Hi,较 B200 的 8-Hi 显著提升,使得 B300 GPU 的HBM容量增加到了288GB,显存提升50%。HBM(High Bandwidth Memory, 高宽带内存)采用 3D 堆叠设计,通过存储堆栈将芯片垂直堆叠在一起,拓 宽内存容量,HBM3e 8-Hi 和 12-Hi 分别采用 8 层和 12 层堆叠方式,单个 Hi 容量为 24GB。
计算性能提升 50%。基于新的 ultra 架构,B300 较 B200 在 FP4 浮点运算能 力(FLOPS)上提升了 50%。
功耗提升 20%,但机柜能耗保持不变。B300 的热设计功耗 TDP(Thermal Design Power)为 1.2kW,B200 为 1kW。单卡功耗提升,但是得益于动态功 耗分配技术(power sloshing),GB300 NVL72 整个机柜的能耗仍保持在 132kW。
网卡升级至 CX8。GB300 采用 800G ConnectX-8 SNIC,而 GB200 采用的是 400G ConnectX-7 BF3,CX8 相比 CX7 在带宽上提高了一倍,且拥有 48 条 PCIe 通道,在相同数据量传输需求下,CX8 速度更快,能耗更低。
光模块升级至 1.6T。在 GB300 上,光模块将从 800G 升级到 1.6Tbps。
提高定制灵活性:GB300 在一张 board 上增加了内存模块和 GPU 插槽,让 客户可以根据自己实际需求定制化配置。
超级电容和 BBU:GB300 整合了超级电容器和电池备份单元 BBU,显著提 升了电源质量和系统可靠性,同时优化了能效和空间利用率。

GB300 提升显存,专为推理大模型优化。从 OpenAI 发布的 O1 模型到 O3 模型, 让我们看到推理模型和思维链 CoT 的价值。随着计算能力的提升,推理模型可以思考更多步骤,从而增加找到正确答案的可能性。但是推理模型思考步骤越多, 对于上下文长度需求越高,即对显存的需求越大。因此,GB300 将单卡的显存提 升了 50%(单 die 从 8Hi 提升至 12Hi),在 NV Link 的加持下 GB300 NVL72 可 以让72个GPU以极低的延迟处理同一问题并共享内存,从而实现更长的思维链, 更有利于 OpenAI O3 类型的 LLM 释放潜力。 Blackwell 供应链优化,模块化设计提升客户配置灵活性。
GB200:英伟达提供整个 Bianca 板,包括将 Blackwell GPU、Grace CPU、 512GB LPDDR5X、VRM(Voltage Regulator Module,电压调节模块)集成在 一块 PCB 上,同时还提供交换托盘和铜背板。
GB300:英伟达不再提供完整的 Bianca 板,仅提供 B300 的 SXM Puck 模块 (模块化插槽式的 B300 GPU 子板)、Grace CPU 的 BGA 封装、HMC(High Bandwidth Memory Controller,高带宽存储器控制器),以及交换托盘和铜背 板,其余计算板上的组件可以由终端数据中心客户自主购买。
GB300 的供应链调整让终端客户能够更灵活地定制主板、冷却系统等,同时也有 望将更多厂商引入 NV 产业链。 从 Bianca 板向 SXM Puck 的转变,为更多 OEM 和 ODM 厂商提供了参与 Blackwell 计算托盘的机会。 VRM(电压调节模块),将由终端客户或 OEM 直接向 VRM 供应商采购。 英伟达不再提供 512GB 的 LPDDR5X,帮助其节省 HBM 增加的成本。