数据中心等产生更多服务器需求,AI 服务器出货量占比 1%增速超服务器行业整体。
未来全球数据中心的建设将是数字经济时代的硬件基地,数据中心的购置花费中服务器占比最大,达到 70%,预计 未来服务器市场长期成长空间十分可观。根据英伟达官网给出的数据,通常一个数据中心的购置预算花费由服务器、 存储、软件和服务构成,其占比分别为 70%、20%、10%,服务器在购置预算中的占比最大,凸显数据中心中服务 器的核心地位。
随着计算能力需求的逐步提升和应用场景的不断增多,当下服务器可以按照外形和应用场景进行分类。此处我们参考 浪潮信息对于其服务器产品的分类,进行详细讲述: 按外形:可以分为机架和塔式、刀片和多节点、整机柜服务器等类型。伴随着数据中心的大型化和专业化变革,以数 据为核心的创新应用的不断涌现,在服务器设计过程中,需要考虑应用场景和部署环境的具象要求,对服务器产品的 形态、密度、能效、性能等以更为细致的维度进行仔细考量。以浪潮 M5 新一代服务器为例,可以分为机架和塔式服 务器、刀片和多节点服务器、整机柜服务器,可以根据不同场景和空间、算力等多方面需求进行合理部署。 按应用场景:可分为数据中心、存储、AI 加速计算等类型。智慧时代下的业务场景与传统信息化应用相比,对计算 能力的需求有显著不同。传统的信息化应用主要以基于数据库事务的业务为主,像 OA、ERP、邮件等,计算量随着 业务量的增长呈线性增长,但是以云计算、大数据和深度学习为支撑的智慧计算则突破了认知、学习和预测的边界, 对计算能力的要求呈指数级增长。浪潮信息将服务器分为大规模云数据中心、海量数据存储、AI 计算加速、企业关键 应用和开放计算,可以分别满足数据中心等多种应用场景和不同企业客户的需求。

全球服务器年度出货量约超 1300 万台,其中 AI 服务器 2022 年占比 1%,未来 AI 服务器出货增速高于服务器整体。 根据 MIC,预计 2022 年全球服务器出货量达 1362 万台。根据 TrendForce 信息,截至 2022 年,预估搭载 GPGPU (General Purpose GPU)的 AI 服务器年出货量占整体服务器比重近 1%,而 2023 年预估在 ChatGPT 相关应用加 持下,可望再度刺激 AI 相关领域的应用,预估 2023 年出货量年同比+8%,2022~2026 年复合成长率将达 10.8%, 结合我们上一章对于未来 AI 服务器需求的测算,我们预计行业实际增速有望高于 TrendForce 的预测值。
全球服务器市场中白牌厂商和主要品牌商份额占比较高,AI 服务器领域国内的浪潮信息占比较大。根据 IDC 数据, 22Q4 全球服务器市场份额构成中,ODM 厂商占比超过 28.2%,品牌厂商中占比超过 5%的有戴尔、惠普、联想、浪 潮和 SuperMicro,国内服务器品牌商在全球市场和国际厂商占比差距相对较小。在 AI 服务器市场,21H1 全球 AI 服 务器市场中,浪潮信息以 20%的占比拔得头筹,戴尔和惠普分别以 14%和 10%的占比紧随其后,当前国内 AI 服务器 的能力在全球市场处于前列位置。
单计算节点来看使用 GPU 的成本高于纯 CPU 方案,但是对于数据中心整体来看,使用 GPU 方案实际有望将购置成 本降低 40%,因此未来数据中心有望采用更多搭载 GPU 的服务器。根据英伟达的官方测算,对于纯 CPU 节点和使 用 GPU 加速卡的节点,以英伟达 V100 为例,对于单服务器节点,假设 NIC、存储、网络连接都费用一样,纯 CPU 服务器只需要采用 2 颗单价 2000 美金的 CPU 即可,相比之下,搭载 4 颗单价 8500 美金的 GPU 方案单节点成本会 高出不少,相对于纯 CPU 方案的 9000 美金提升至 44000 美金。但是如果从数据中心整体购置成本来看,假设纯 CPU 方案有 1000 个节点,服务器成本会达到 900 万美金,如果采用 GPU 加速的方案,那么只需要 300 个 CPU 和 35 个 Tesla V100 GPU 即可,同时服务器成本能够降至 420 万美金。从总体购置成本上来看,纯 CPU 方案需要 1350 万 美金而采用 GPU 混合的方案只需要 810 万美金,相比于纯 CPU 方案成本降低将近 40%。