全球服务器市场有何表现?

最佳答案 匿名用户编辑于2024/08/05 11:41

2024 年全球市场规模超 110 亿美金,行业供不应求加速成长。

绝大多数现代计算机都是基于冯·诺依曼架构原理构建的。在这种架构中,程序 和数据存储在内存中,处理器(CPU)从内存中提取指令和数据并顺序执行它们。 将数据从主内存移动到 CPU 的过程会产生较长的延迟和功耗。处理器的发展基本 遵循了摩尔定律(在 2010 年之前),性能每年大约提高 60%,但 DRAM 的性能每年 只提高了不到 10%,由此导致了逻辑和内存性能之间的差距越来也大,内存成为 处理器效率实现的瓶颈,也就是所谓的“内存墙”。 HBM 打破内存带宽及功耗瓶颈。HBM 不同于传统的内存与处理器基于 PCB 互联的 形式,而是与处理器基于“Interposer”中介层互联实现近存计算,显著减少数 据传输时间,且节省布线空间。而基于 TSV 工艺的 DRAM 堆叠技术则显著提升了 带宽,并降低功耗和封装尺寸。根据 SAMSUNG,3D TSV 工艺较传统 POP 封装形式 节省了 35%的封装尺寸,降低了 50%的功耗,并且带来了大幅的带宽提升。

HBM 正成为 HPC 军备竞赛的核心。英伟达早在 2019 年便已推出针对数据中心和 HPC 场景的专业级 GPU Tesla P100,当时号称“地表最强”的并行计算处理器, DGX-1 服务器就是基于单机 8 卡 Tesla P100 GPU 互连构成。得益于采用搭载 16GB 的 HBM2 内存,Tesla P100 带宽达到 720GB/s,而同一时间推出的同样基于 Pascal 架构的 GTX 1080 则使用 GDDR5X 内存,带宽为 320GB/s。此后英伟达数据中心加 速计算 GPU V100、A100、H100 均搭载 HBM 显存,容量及带宽持续提升。 作为加速计算领域追赶者,AMD 对于 HBM 的使用更为激进,其最新发布的 MI300X GPU 搭载容量高达 192GB 的 HBM3 显存,为 H100 的 2.4 倍,其内存带宽达 5.3TB/s, 为 H100 的 1.6 倍。2024 年 3 月,英伟达又推出最新的 Blackwell 架构 GPU,搭 载 HBM3e 内存,GB200 由 1 颗 GRACE CPU 和 2 颗 Blackwell GPU 组成,GB200 的 HBM 最高容量达到 384GB,带宽 16TB/s,HBM 正成为 HPC 军备竞赛的核心。

统计全球龙头发布的 AI 加速芯片,我们看到 HBM 成为标配,且随着加速芯片的 升级迭代,搭载的 HBM 总容量、带宽等规格也持续升级。SK 海力士预计 HBM 市场 规模在 2022 年到 2025 年的复合增速有望达到 109%。

综合考虑全球 CoWoS 产能(估计台积电 2024 年 CoWoS 全年产出约 351 千片)、客 户份额、以及不同 AI 加速芯片配备的 HBM 规格,我们预计 2024 年全球 HBM 需求 量约 4725 万颗,容量合计约 811M GB,市场规模有望达到 113.2 亿美金。

供给端,三大原厂加速扩产 HBM。 SK 海力士:HBM3E 已实现量产,资本开支同比回升。公司预计 2024 年 TSV 产能 同比翻倍,同时拓展 AI 服务器模组如 MCR DIMM 产品。2023 年公司资本开支同比 下降 50%以上,2024 年资本开支同比回升,重点关注 HBM 等先进工艺的高需求高 附加值产品,保障产品扩产及研发动作顺利进行,优先考虑扩大先进工艺产品量 产及 TSV 与基础设施建设。 携手台积电,合作开发 HBM4。SK 海力士制定“一个团队战略”,其重要组成部分 是与台积电建立 AI 芯片联盟,合作开发第六代 HBM 芯片(HBM4),HBM4 拟升级到 更宽的 2048 位内存接口,以解决 1024 位内存接口“宽但慢”的问题,需要台积 电先进封装技术验证 HBM4 的布局和速度,预计台积电将负责封装工艺,以提升 产品兼容性。根据目前规划及进展,海力士将于 2026 年实现 HBM4 量产。同时 SK 海力士计划在美国印第安纳州建立 HBM 内存封装工厂,届时有望与台积电亚利桑 那州工厂合作,助力英伟达实现在美国生产 GPU。

三星:扩大 TSV 产量,加速推出 HBM 产品。三星通过推出业界首个基于 1Bnm 的 行业最高容量 32G DDR5,增强公司在高密度 DDR5 市场的领导地位。生成式 AI 的 普及拉动市场对先进 HBM 性能和容量需求的不断增长,公司计划利用 TSV 产能的 竞争力,进一步扩产以巩固公司 HBM 的竞争力。此外,公司将适时推出新一代 HBM3E,并于 24H2 加速向 3E12Hi 过渡。 美光:DRAM/NAND 价格走强,AI 及数据中心业务驱动业绩增长。美光在 24 年一 季法说会预计伴随搭载 AI 的智能手机、PC 等产品的大规模生产,终端存储库存 进一步调整,2024 年 DRAM/NAND 价格将持续走强,供需结构进一步健康化。公司 利用业界领先的数据中心解决方案组合来把握人工智能激增带来的机遇,其中包 括 HBM3E、D5、多种类型的高容量服务器内存模块、LPDRAM 和数据中心 SSD,其 中 HBM3e 目前处于在 NVIDIA 下一代 Grace Hopper GH200 和 H200 平台验证的最 后阶段,有望在 2024 年初量产,预计 2024 年 Capex 位于 75-80 亿美金,以支撑 HBM3E 产量提升。

预计到 2024 年底三大原厂 HBM(含 TSV)产能合计至少达到 270K/月。根据 TrendForce,从芯片尺寸来看,HBM 的 die size 通常比相同工艺节点和容量的 DDR5 大 35-45%,HBM 的良率(包括 TSV 封装)比 DDR5 低 20-30%,生产周期(包 括 TSV)比 DDR5 长 1.5-2 个月。从产能角度看,TrendForce 估计三星 HBM 的总 产能预计在 2024 年底达到 130K 左右(包括 TSV);SK 海力士约为 120K。

三星:2024 年 HBM 产量将同比增长 2.5 倍,2025 年再翻倍。三星已在 2023Q4 为 客户提供 8 层堆栈的下一代 HBM3e 样品,并计划在 24H1 开始量产。负责三星美 国半导体业务的执行副总裁 Han Jin-man 在 CES 2024 上表示,2024 年三星的 HBM 芯片产量将比 2023 年增长 2.5 倍,预计 2025 年将再翻一番。公司计划在 24Q4 前将 HBM 最高产量提高到 15 万到 17 万片/月。此前,三星电子斥资 105 亿韩元 收购了位于韩国天安市的 Samsung Display 工厂和设备,以扩大 HBM 产能,公司 还计划投资 7000 亿到 1 万亿韩元(约 5040-7200 万美金)建设新的封装产线。 SK 海力士:2024 年 HBM 产能翻倍。公司在最新财报交流会中表示计划在 2024 年 增加资本支出,重点是高端存储产品,如 HBM。与去年相比,2024 年 HBM 的生产 能力预计将增长一倍以上。SK 海力士规划 2024 年资本开支约 10 万亿韩元(约 76 亿美金),与 2023 年预计的 6-7 万亿韩元的资本支出相比,同比增幅 43%-67%。 此外 SK 海力士还将在美国印第安纳州建造一座最先进的制造工厂。根据《金融 时报》,SK 海力士将在该工厂生产 HBM 堆栈,将用于台积电生产的 NVIDIA GPU。 美光:押注最新一代 HBM3e。美光计划在 2024 年早些时候开始大规模出货 HBM3e。 同时美光已经发布了其下一代 HBM 存储器,暂时命名为 HBM Next,预计 HBM Next 将提供 36GB 和 64GB 的容量,可用于各种配置。