工业富联AI服务器领域布局情况如何?

最佳答案 匿名用户编辑于2024/08/13 15:04

与客户共同开发并量产,AI 服务器成为新增长引擎。

行业地位方面,公司服务器出货量稳居前列,并在产业链关键环节处于行业领先地位。2023 年,AI 的快速发展为公司带来 了显著的发展机遇,公司与全球主要服务器品牌商、国内外云服务商的合作进一步深化,与客户共同开发并量产高性能 AI 服务器,并向客户提供数据中心先进散热解决方案,有效提高数据中心运转效率及可持续性。 公司在 AI 服务器市场份额上实现显著增长,有效推动了营业收入、利润及盈利能力的提升。2023 年云计算板块收入已达 1943.1 亿元,占总营收比重超过四成。其中,云服务商占云计算收入比重提升至近五成,业务持续提升。AI 服务器业务占 云计算收入比重也增至三成,高于 2022 年 20%水平,呈现出强劲增长势头。根据公司业绩说明会披露的信息,以 2024Q1 表现来看,云计算业务已经占整体收入近五成,创下单季新高;AI 服务器占板块整体收入近四成,收入同比增长近两倍,环 比呈近双位数比率增长;生成式 AI 服务器同比增加近三倍,环比亦呈双位数比率增长;通用服务器同比实现双位数比率增 长,同时实现个位数比率环比增长。公司预计 2024 年AI 贡献占云计算总收入的 40%,AI 服务器占全球市场份额的 40%。

公司为主要客户新一代数据中心产品和算力中心产品导入提供设计开发服务,具备领先 AI 服务器及数据中心机柜的客户定 制化研发能力,充分利用全产业链智能制造及研发优势,为全球顶级云服务商提供生成式AI 全产业链解决方案,专注于AI 产业价值链上游的GPU 模组、基板及后端 AI 服务器设计与系统集成等业务。自 2017 年起,公司即开始与客户进行共同研 发,联合客户推出了全世界第一台AI 服务器,处于领先地位的 HGX系列产品已经发展至第四代,成为了新一轮技术革命的 参与者和推动者。2023 年,随着全球AI 服务器需求的爆发,公司紧抓机遇,持续加大技术和产品研发,不断获得全球顶尖 客户的认可,于 2023 年开始为客户开发并量产英伟达的 H100 及 H800 等高性能 AI 服务器。AI 服务器出货量节节攀升,成 为公司新的增长引擎。 公司将继续以 AI 技术为核心驱动力,推动 AI 生态系统的发展及应用,完善全球产能布局,积极加大研发投入,与全球客户 及生态伙伴深化联合研发,更好地满足客户在新产品开发、快速量产、全球交付等方面的需求。

算力建设的飞速增长使 AI 服务器的效能、散热和迭代速度面临前所未有的挑战,液冷成为下一代服务器散热技术的必然选 择。公司在早期透过数据中心的运营,就注意到先进散热领域,一直积极探索液冷领域的前沿技术,为此打造了一系列从零 部件、服务器到系统的全系列浸没式液冷解决方案,不断提升数据中心效能及可持续性,覆盖从边缘到数据中心全场景需求。 工业富联与英特尔联合研发的超流体液冷技术,通过有效降低冷却液的黏度和摩擦力,提升热对流系数和热浮力效果,打破 单相浸没式液冷散热技术瓶颈,进一步提升液冷系统的散热性能。目前这项技术已完成先进性散热系统的设计、开发和测试 验证。事实上,自 2018 年起,工业富联就与英特尔联合开展了一系列技术创新项目,发布了多项液冷规范、白皮书等行业 标准指南,助推技术规模化应用。根据实验数据,采用超流体液冷技术可以满足超 800W TDP 的散热需求,通过系统优化 和散热器设计的进一步提升,可以实现 1500W TDP 的散热目标。超流体技术适用于单点冷板液冷服务器和浸没式液冷服务 器的散热方案,同时满足现有或新建数据中心的液冷部署需求。

在英伟达 2024 GTC 大会上,工业富联旗下子公司鸿佰科技(Ingrasys)出席了展出与英伟达合作开发的新一代 AI 服务器 与液冷机柜等多项技术和解决方案。展出的 AI 服务器产品包括 Ingrasys NVIDIA MGX 服务器,提供市场上最多样化的 1U/2U/4U NVIDIA MGX服务器产品组合,采用模块化设计架构,实现高灵活、高扩展的 GPU、DPU 及 CPU 组合,用符合 成本效益的方式打造多种服务器配置,同时缩短上市时间,满足客户不同加速运算需求;搭配液冷解决方案的 AI 加速器 GB6181,具备高效散热能力,搭载八个 NVIDIA H100 Tensor Core GPU,适用于高效能的 AI 训练,提供每秒 32 千兆次浮 点运算(PFLOPS)的高性能算力,同时可轻松集成到客户数据中心部署的OCP ORv3 架构中支持下一代强大 GPU,为高 性能人工智能数据中心提供强大算力支持。 在节能高效的先进设计前提下,鸿佰开发的 AI 数据中心液冷解决方案 GB200 NVL72,搭载 72 个高性能 Blackwell GPU 和 36 个 Grace CPU,通过第五代 NVLink 互连技术实现单一大规模 GPU 串联,显著提升大语言模型推理速度。先进液冷解决 方案还包括液态对气态的side car 解决方案和液态对液态 CDU 解决方案,具备高达 1300kW 的强大散热能力,适用于不同 的数据中心环境。 会上同场亮相的还有 ES2100 储存系统,该高吞吐和低延迟的 NVMe-oF 存储系统采用 NVIDIA Spectrum-2 以太网交换机, 采用模块化和创新的无背板设计,只需更换两个交换机模块即可轻松实现系统升级,更高的吞吐量可实现极致处理性能,实 现数据高速交换。