1.1. 内存接口芯片位列全球前三,持续拓展新品类
澜起科技 2004 年成立于上海,是全球领先的内存接口芯片企业。公司目前 拥有互连类芯片产品线和津逮服务器平台两大产品线。其中,互连类芯片产品主 要包括内存接口芯片、内存模组配套芯片、PCIe Retimer 芯片、MXC 芯片等, 津逮服务器平台产品包括津逮 CPU 和混合安全内存模组(HSDIMM)。公司在内 存接口芯片方面处于领先地位,能够提供从 DDR2(Double Data Rate)到 DDR5 内存全缓冲/半缓冲完整解决方案,客户覆盖三星电子、海力士、美光科 技等领先 DRAM 厂商。公司在 DDR4 世代就逐步确立了行业领先优势,是全球 可提供 DDR4 内存接口芯片的三家主要厂商之一。在 DDR5 世代,公司继续领 跑,可为 DDR5 系列内存模组提供完整的内存接口及模组配套芯片解决方案, 是目前全球可提供全套解决方案的两家公司之一,并参与 JEDEC 国际标准制定。 公司目前包括互连类芯片和津逮服务器平台两大产品线。互连类芯片产品主 要 包 括 内存 接 口芯 片、 内 存 模组 配 套芯 片、 PCIe(Peripheral Component Interconnect Express) Retimer 芯片、MXC 芯片,津逮服务器平台产品包括津逮 CPU 和混合安全内存模组(HSDIMM)。同时,公司正在研发基于“近内存计算 架构”的 AI 芯片。
1.2. Intel 及三星战略入资,公司高管及核心人员多拥有 20 年以上行业 经验
据 2023 年三季报显示,公司无控股股东及实际控制人,Intel 及三星战略入 资。截至 2023 年三季报,中国电子投资控股有限公司为公司第一大股东,持股 7.24%。Intel Capital 为公司第二大股东,持股 6.65%。2006 年及 2012 年以来, Intel 及三星电子分别与公司建立了稳定的业务合作关系,2018 年,英特尔旗下Intel Capital、三星电子间接控制的 SVIC No. 28 Investment 通过增资战略入股 公司。
1.3. 2021 年以来,津逮服务器平台增长拉动营收大幅提升,DDR5 升 级效应明显
公司 23H1 营收及扣非归母净利短期承压。2021 年公司营收同比增长但主 要利润来源 DDR4 内存接口芯片进入产品生命周期后期,价格同比下降,同时 DDR5 产品在 2021 年 Q4 才正式量产出货从而造成互连类芯片盈利能力下降, 影响整体净利。2023H1,受宏观环境影响,服务器及计算机行业需求下滑, 面 对行业去库存的压力,公司积极应对挑战,第二季度经营情况较第一季度环比改 善明显。公司 23H1 实现营业收入 9.28 亿 元,同比下降 51.87%;归母的净利 润 0.82 亿元,同比下降 87.98%;扣非归母净利润 0.04 亿元,同比下降99.23%,业绩短期承压。

互连类芯片为公司主要营收来源,津逮服务器平台业务 21、22 年增长迅速。 公司 2017 年将消费业务剥离,2018 年以来营收由互连类芯片和津逮服务器平台 两部分构成,互连类芯片为营收主体。2022,公司两类产品营收均实现上涨, 互连类芯片上涨 59%,津逮服务器平台收入上涨 11%。23H1,公司互连类芯片 产品线实现销售收入 9.10 亿元,同比下降 26.37%,毛利率为 57.01%,其中第 二季度该产品线实现销售收入 4.98 亿元,环比增长 20.57%,毛利率为 59.55%; 津逮服务器平台产品线实现销售收入 0.14 亿元,同比下降 98.00%,毛利率为 15.37%。
中国大陆营收占比提升。市场方面,公司来自中国大陆的营收及占比自 2021 年以来快速提升,占比从 2020 年的 11%增加至 2022 的 33%。23H1,公 司中国大陆营收收缩,营收占比降至 11%。公司境外销售区域主要包括韩国、新 加坡、菲律宾和美国等地。
公司产品结构调整带动毛利率变化。2022 年互连类芯片毛利率下降主要原 因系内存模组配套芯片是与合作伙伴共同研发的产品,毛利率低于内存接口芯片, 随着内存模组配套芯片占比增加,互连类芯片毛利率不断下降。公司津逮服务器 平台毛利率总体较为稳定,在 10%-17%之间,2019 年毛利较低主要是由于相关 产品处于市场推广、客户送样阶段。2020 年开始,随着公司津逮服务器平台产 品占比提升及互连类芯片毛利率调整,毛利率逐渐调整至 2022 年的 46.33%, 对应净利率为 35.38%。23H1,由于公司津逮服务器平台营收占比减少,公司整 体毛利率增至 56.3%。
公司期间费用率不断优化,研发投入稳步增长。随着公司营收规模增长,规 模效应不断显现,公司期间费用率从 2018 年的 27.43%调整至 2022 年的 20.99%。研发费用方面,2019-2022 年,公司研发费用稳步增长,2022 年同比 增长 52%至 5.63 亿元。
数据中心是云计算的基础设施,云计算是数据中心的主要需求来源。服务器 是数据中心的重要组成部分,占数据中心成本的最大部分。物联网、人工智能、 云计算等的全球范围普及促使新建数据中心数量大幅增加,进而带动了全球服务 器及服务器相关芯片市场需求增加。澜起的主要产品内存接口及模组配套芯片、 PCIe Retimer 芯片、MXC(Memory Expander Controller)芯片、津逮 CPU 以 及混合安全内存模组主要应用于服务器。
全球主要云计算厂商(亚马逊、谷歌、微软和 Meta)资本开支快速提升。 北美主要云计算厂商服务全球客户,在全球建设规模庞大的数据中心,其资本开 支可以视为服务器行业景气度的先行指标。2023Q2 北美主要云计算厂商(亚马 逊+谷歌+微软+Meta)的资本开支同比-9.4%,环比-1.3%。
全球及中国服务器数量预计稳步增长。云计算、AI 等发展带动全球服务器 出货量及市场规模增长。中国市场方面,中国服务器市场以 X86 服务器为主 (2020 年 X86 服务器在中国服务器市场占比 98%),根据 IDC 和华经产业研究 院数据,2020 年中国 X86 服务器出货量为 344 万台,2021-2025 年增速维持在 8%以上,2025 年出货量将达到 525 万台。 国家政策是国内服务器市场未来几年发展的重要推动力。《十四五规划》纲 要提出数字经济核心产业增加值占 GDP 比重将从 2020 年的 7.8%增加到 2025 年的 10%。2021 年 12 月到 2022 年 2 月,国家发改委等部门同意在京津冀、长 三角等 8 地启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群。根 据中国信通院数据,截至 2019 年年底,我国数据中心总体平均上架率为 53.2%, “东数西算”工程要求集群内数据中心的平均上架率至少达 65%。以上政策有 望对国内服务器市场起到巨大拉动作用。
3.1. 内存模组持续升级,2023 年 DDR5 市占率或超过 50%
内存模组是计算机架构的重要组成部分,作为 CPU 与硬盘的数据中转站, 起到临时存储数据的作用,其存储和读取数据的速度相较硬盘更快。按应用领域 不同,内存模组可分为: 1、服务器内存模组,其主要类型为 RDIMM (Registered Dual Inline Memory Module)、 LRDIMM(Load Reduced DIMM)。 仅采用了 RCD(Registering Clock Driver)芯片对地址、命令、控制信号进行缓冲 的内存模组为 RDIMM,而采用了 RCD 和 DB(Data Buffer)套片对地址、命令、 控制信号及数据信号进行缓冲的内存模组称为 LRDIMM。由于服务器数据存储和 处理的负载能力不断提升,相较于其他类型内存模组,服务器内存模组对内存模 组的稳定性、纠错能力以及低功耗均提出了较高要求; 2、普通台式机、笔记本 内存模组,其主要类型为 UDIMM(Unbuffered DIMM)、SODIMM(Small Outline DIMM)。而平板、手机内存主要使用的 LPDDR (Low Power Double Data Rate SDRAM)通过焊接至主板或封装在片上系统上发挥功能。
内存模组中的内存颗粒为 SDRAM 芯片,目前主要包括 DDR1(Double Data Rate)到 DDR5 系列。SDRAM(synchronous dynamic random-access memory)为同步动态随机存取存储器,SDRAM 架构中的一个主要区别因素是 内存被分成许多大小相等的部分,这些存储体可以同时执行访问命令,从而实现 比普通 DRAM 更高的速度。SRDAM 目前主要包括 DDR1 到 DDR5 系列, DDR6 正在研发当中。DDR 指双倍速率,是内存模块中用于使输出增加一倍的 技术。JEDEC 规范了 DDR 不同系列的标准。从 2016 年开始,DDR4 技术进入 成熟期,成为内存市场的主流技术。2021 年 DDR5 第一子代相关产品开始量产, JEDEC 正在制定 DDR5 第二子代、第三子代产品标准,内存模组正在从 DDR4 世代向 DDR5 世代切换,DDR5 将在未来几年成为内存市场的主流技术。
DDR5 带来更高的速度和效率。DDR5 内存接口芯片已经规划了三个子代, 支持速率分别是 4800MT/s、5600MT/s、6400MT/s,据公司 2023 年半年报估 计,后续可能还会有 1~4 个子代,未来有机会达到 8400MT/s。初代 DDR5 的运 行速率为 4800MT/s,DDR4 最高为 3200MT/s,速度提升了 50%。初代 DDR5最低可支持 1.1V 工作电压,对比采用 1.2V 的 DDR4 功耗降低,可以为以电力 为主要成本的服务器带来巨大优势。
内存模组与 CPU 是计算机的两个核心部件,支持新一代内存模组的 CPU 上市将推动内存模组的更新换代,2023 年 DDR5 产品市占率将超过 50%。支持 DDR5 的主流桌面级 CPU 已于 2021 年四季度正式发布,普通台式机/笔记本电 脑 DDR5 内存模组逐渐上量。服务器方面,英特尔和 AMD 作为全球服务器处理 器芯片的绝对领导者,先后发布新款服务器用处理器。AMD 于 22 年 11 月发布 的第四代 EPYC 9004 系列处理器,首次支持 DDR5 内存和 PCIe 5.0。英特尔第 四代至强可扩展处理器 Sapphire Rapids 也于 2023Q1 发布,支持 PCIe 5.0 和 DDR5 技术。未来随着支持 DDR5 的服务器 CPU 规模出货,DDR5 服务器内存 模组渗透率将持续提升。根据 Yole 预测,2023 年 DDR5 产品市占率将超过 50%。
全球 DRAM 市场由海外龙头主导,市场集中,23Q2 行业单季度 CR3 高达 96%。三星、海力士、美光占据全球前三市场份额,23Q2 市场占比分别为 39.6%、30.1%、25.8%,以上公司也是澜起内存接口芯片及内存模组配套芯片 主要下游客户。

3.2. 内存接口芯片用于信号缓冲,内存模组配套芯片发挥辅助功能
内存接口芯片/内存缓冲芯片(Memory Buffer)主要用在服务器中,还未 用到 PC 中。在 DDR4 世代及 DDR5 初期,内存接口芯片只应用于服务器内存 模组,由于内存读取数据的速度慢于 CPU 计算速度,内存接口芯片主要用于缓 冲来自内存控制器的地址、命令及控制信号,提升内存数据访问的速度及稳定性, 满足服务器 CPU 对内存模组日益增长的高性能及大容量需求。由于台式机和笔 记本电脑 CPU 及内存模组之间数据传输量并不大,所以目前还不需要对信号进 行缓冲。 DDR4 及 DDR5 内存接口芯片分为 RCD 和 DB:一、寄存缓冲器(RCD), 用来缓冲来自内存控制器的地址、命令、控制信号;二、数据缓冲器(DB),用 来缓冲来自内存控制器或内存颗粒的数据信号。
DDR5 世代,内存模组配套芯片成为服务器及 PC 内存模组标配。内存模组 配套芯片分为 SPD、PMIC 及 TS 芯片。 SPD(Serial Presence Detect)是串行检测集线器,属于 EEPROM 芯片。 SPD 芯片内部集成 EEPROM、I2C/I3C 总线集线器(Hub)和温度传感器(TS), 是 DDR5 内存模组的必备组件,应用于计算机领域的 UDIMM、SODIMM 内存模 组和服务器领域的 RDIMM、LRDIMM 内存模组等。 SPD 发挥存储内存模组相关信息、连接主控设备与内存模组组件和监测温 度的作用。具体如下:1.其内置的 SPD EEPROM 是非易失性存储器,用于存储 内存模组的相关信息以及模组上内存颗粒和相关器件的所有配置参数。主板 BIOS 在开机后会读取 SPD 内存储的信息,并根据读取到的信息来配置内存控制 器和内存模组。2.SPD 芯片还可以作为 I2C/I3C 总线集线器,一端连接系统主控 设备(如 CPU),另一端连接内存模组上的组件,包括 RCD、PMIC 等,是系统 主控设备与内存模组上组件之间的通信中心。在 DDR5 规范中,一个 I2C/I3C 总 线上最多可连接 8 个集线器(8 个内存模组),3.SPD 芯片还内置了温度传感器 (TS),主控设备可通过 I2C/I3C 总线从 SPD 中的相关寄存器读取传感器检测到 的温度,进行内存模组的温度管理,提高系统工作的稳定性。
温度传感器芯片(TS)(Temperature Sensor)适用于 DDR5 服务器内存模 组,发挥温度管理作用。TS 适用于 DDR5 服务器 RDIMM 和 LRDIMM 内存模组。 TS 是 SPD 芯片的从设备,CPU 经由 SPD 芯片与之进行通讯,实现对内存模组 的温度管理。目前主流的 DDR5 服务器内存模组配置 2 颗 TS。 电源管理芯片(PMIC)(Power Management IC)适用于 DDR5 服务器 RDIMM 和 LRDIMM 内存模组。PMIC 的作用主要是为内存模组上的其他芯片 (如 DRAM、 RCD、 DB、 SPD 和 TS 等)提供电源支持。CPU 可经由 SPD芯片与之进行通讯,从而实现电源管理。
3.3. DDR5 升级带来内存接口芯片及内存模组配套芯片量价齐升
量方面,单个内存模组所需的内存接口芯片数量有提升,LRDIMM 在 DDR4 世代采用“1+9”架构,即包含 1 颗 RCD 芯片和 9 颗 DB 芯片,在 DDR5 世代 将升级为“1+10”架构。此外,DDR5 较 DDR4 世代新增了对内存模组配套芯 片(SPD、PMIC 及 TS)的需要。服务器内存模组 1 颗 SPD 芯片、1 颗 PMIC 芯片和 2 颗 TS 芯片;普通台式机/笔记本电脑的内存模组需要配置 1 颗 SPD 芯 片和 1 颗 PMIC 芯片。当 DDR5 速率提升到 6400MT/s 及以上时,普通台式机/ 笔记本电脑还需要一颗 CKD 芯片。 价方面,由于 DDR5 速率及功耗等性能显著提升,成本及单价势必要高于 DDR4 世代。结合 DDR4 内存接口芯片的价格规律,某一子代产品的生命周期里, 上量后销售价格逐步降低,但新子代的产品因技术和性能升级,其起始销售价格 较上一子代有所提高。
3.4. 全球仅三家企业可以提供 DDR4 及 DDR5 内存接口芯片,澜起市 占率前二
DDR4 世代以来,全球仅有 3 家企业研发和量产服务器内存接口芯片。 DDR2 阶段,服务器内存接口芯片行业参与者超过 10 家。到 DDR3 阶段,行业 集中度逐步提升,行业主要参与者明显减少。DDR4 阶段,全球研发并量产服务 器内存接口芯片的企业主要包括 3 家,分别为澜起科技、IDT 和 Rambus。 DDR5 阶段的竞争格局和 DDR4 阶段类似,全球只有澜起科技、IDT 和 Rambus 三家企业可提供第一子代量产品。
澜起和 RAMBUS 份额提升明显。IDT 份额从 2016 年的 70%下降到 2020 年的 42%。2018 年瑞萨计划收购 IDT,2019 年完成收购,以上因素都对 IDT 份 额下降产生影响。RAMBUS 自 2019 年开始份额提升明显。公司份额从 2016 年 的 25%提升到 2020 年的 41%,与 IDT 份额逐渐缩小,或将逐渐占据最大份额。

澜起有望逐渐占据最大内存接口芯片市场份额,行业很难有新进入者。公司 研发实力突出,LRDIMM 在 DDR4 世代的“1+9”架构由公司开发,并被 JEDEC 国际标准采纳,该架构在 DDR5 世代演化为“1+10”框架,继续作为 LRDIMM 的国际标准。此外,澜起作为国内领先的内存接口芯片企业,有望受益 于国产替代。公司高管及核心骨干团队稳定。Rambus 目前份额和澜起仍有差距, 且澜起产品相对全面,相比之下,Rambus DDR5 内存接口与内存模组配套芯片 目前还不包括 DB 和 PMIC。新竞争者方面,内存接口芯片行业门槛较高,很难 有新进入者。内存接口芯片是模拟和数字混合产品,具备高速率特点,产品研发 需要具备技术实力且不侵犯他人专利。研发早期需要与主流 CPU 厂商和内存厂 商密切交流,研发后需要经过主流 CPU 厂及模组厂严格的测试验证。因此门槛 很高,很难有新进入者。
3.5. 公司内存接口芯片产品品类齐全,DDR5 世代以来在行业中领先布 局
公司内存接口芯片覆盖 DDR2-DDR5 世代,DDR5 世代以来在行业中加速 布局。公司先后推出 DDR2 AMB(高级内存缓冲器)、DDR3 RCD 及 MB(内存 缓冲芯片)、DDR4 RCD 及 DB、DDR5 RCD 及 DB 等内存接口芯片,分别应用 于 DDR2 FBDIMM(全缓冲双列直插内存模组), DDR3 、DDR4 和 DDR5 RDIMM 及 LRDIMM 内存模组。DDR4 世代内存接口芯片目前仍然是市场的主流 产品,2022 年上半年以 Gen2 Plus 子代为主。公司 2021 年 10 月量产 DDR5 第 一子代内存接口(RCD 和 DB)及内存模组配套芯片;2022 年 5 月在业界首先 试产 DDR5 第二子代 RDC 芯片,速率可达 5600MT/s,量产在即;2022 年 12 月,公司在业界率先推出 DDR5 第三子代 RCD 工程样片,已向业界主流内存厂 商送样,支持数据速率高达 6400MT/s。DDR5 子代升级速度可能快于 DDR4, 子代快速升级的优势在于新子代的产品因性能升级,其起始销售价格多高于上一 子代,能够提振产品的平均价格。
公司深度参与行业标准制定。公司是 JEDEC 董事会成员中三家中国公司之 一,同时在 JEDEC 下属的三个委员会及分会中担任主席职位,深度参与行业相 关产品的标准制定,及时把握行业机会。DDR4 世代的“1+9”架构由公司开发, 并被 JEDEC 国际标准采纳,该架构在 DDR5 世代演化为“1+10”框架,继续 作为 LRDIMM 的国际标准。“1+9”架构突破了 DDR2、 DDR3 的集中式架构设 计,创新性采用 1 颗寄存缓冲控制器为核心、9 颗数据缓冲控制器芯片的分布结 构布局,大幅减少了 CPU 与 DRAM 颗粒间的负载,降低了信号传输损耗,解决 了内存子系统大容量与高速度之间的矛盾。此外,公司牵头制定了 DDR5 第一子 代和第二子代内存接口芯片的产品标准。 公司内存模组配套芯片系与其他公司合作完成,SPD 与 TS 竞争格局优于 PMIC。公司 SPD 芯片系与聚辰合作开发,TS 及 PMIC 产品系与 GMT 台湾智新 (Global Mixed-Mode Technology)合作开发。竞争格局方面,SPD 和 TS 主要 有两家供应商,分别是澜起和瑞萨电子;PMIC 的竞争对手更多,在初期竞争会 更复杂。
4.1. PCIe Retimer 用于解决高速信号衰减, 随传输速度提升,需求越发 凸显
PCIe 总线用于连接主板和高速外设,PCIe 协议几乎每次升级都伴随传输速 率翻倍。PCIe 协议是一种高速串行计算机扩展总线标准,广泛应用于服务器的 主板上,用于连接主板与硬盘、网卡、显卡等外设。自 2003 年诞生以来发展迅 速,传输速率平均每 3-4 年翻倍增长,并保持良好的向后兼容特性。PCIe 协议 由 PCIe 3.0 发展为 PCIe 4.0,传输速率已从 8GT/s 提升到 16GT/s,到 PCIe 5.0,传输速率将进一步提升到 32GT/s。 2022 年 1 月,PCI-SIG 协会正式发布 了 PCIe 6.0 标准规范,传输速率再次翻倍,达到 64GT/s。 以 PCIe3.0 为例,解释 PCIe 数据传输速率。PCIe3.0 带宽中“×1,×2” 表示该链路由几条通道组成,PCIe3.0 原始传输速率为 8.0GT/s,表示每条通道 上的传输速率,即每条通道上支持每秒传输 8G 个 bit,但并不意味着 PCIe3.0 每 条通道支持 8Gbps 的速率,因为 PCIe3.0 的物理层协议使用的是 128b/130b 的 编码方案,即每传输 128 个 bit 数据,需要发送 130 个 bit。因此,PCIe3.0 协议 的每条通道支持 8*128/130=7.877Gbps 的速率,×8 通道的带宽(单个方向) =8GT*128/130*8=63Gbps=7.88GB/s。
从 PCIe4.0 到 5.0 实现传输速率的翻倍,但同时传输频率亦翻倍,从而加重 传输过程中的插入损耗。PCIe5.0 阶段,单个传输通道(单个拓扑结构)的插入 损耗预算为 36dB(即不能超过 36dB),拓扑结构包括连接器(connector)、扩 展卡(Add in card/AIC)、系统基板等,都会产生插入损耗,此外,封装也会产 生插损。其中系统基板的插损预算为 16dB。
不同级别的系统基板 PCB 板材、信号传输速率及环境影响信号损耗及有效 信号最大传输距离。PCB 板材覆铜板根据介电损耗不同,可以分为 Mid-Loss、 Low-Loss、Ultra Low-Loss 等级别,不同级别对传输信号的损耗不同,因此有效 信号的最大传输距离不同,越高级别覆铜板对信号损耗越小。信号传输速率亦对 传输距离有影响,信号传输速率不同,其传输频率不同,导致传输损耗不同。此 外,温度和湿度对覆铜板的信号损耗程度亦有影响,需要考虑最坏的温度和湿度 条件影响。在考虑最大传输距离时,有时要考虑极端环境并留出足够安全边际, 以避免意外的损耗发生。PCIe5.0 对应传输速率为 32GT/s,PCIe4.0 传输速率为 16GT/s。在考虑最糟糕天气和 15%安全边际的情况下的,以 Low-Loss 和 Ultra Low-Loss 级别覆铜板为材料的基板 PCIe5.0 有效信号的最大传输距离为 4.8 inch 和 7.9 inch,PCIe4.0 有效信号的最大传输距离为 7.5 inch 和 11.3inch。
在考虑极端环境和安全边际的情况下,PCIe5.0 信号难以完成传输距离。 CPU 到网盘/GPU/加速模块的 16 通道传输在 32GT/s(PCIe5.0)的传输速率下, 如果考虑恶劣环境及 15%的安全边际,即使使用 Ultra Low-Loss 级别覆铜板, 也难以完成传输距离(8/10 inch),如果只考虑恶劣环境,不预留 15%安全边际, 也只有 Ultra Low-Loss 级别覆铜板可以达到传输距离要求,更低级别覆铜板难以 实现。
Redriver 和 Retimer 可以发挥修复信号功能,其中,Retimer 表现更优。 Redriver 可以对信号进行过滤和放大,但是无法处理抖动和噪音,抖动和噪音可 能会变得更严重。相比之下,Retimer 可以完全还原信号。
PCIe5.0 预计将显著拉动 Retimer 需求,PCIe6.0 将进一步提升对 Retimer 的需求。数据传输速率,CPU 到不同硬件的传输距离,拓扑结构构成,覆铜板 级别共同决定了传输通道/拓扑结构是否需要 Retimer。CPU 到网盘/GPU/加速模 块的 16 通道传输在 32GT/s(PCIe5.0)的传输速率下,如果采用 Mid-Loss 和 Low-Loss 覆铜板,则一定需要使用 Retimer,如果采用 Ultra Low-Loss 级别覆 铜板,则 Retimer 的使用可选。但 Ultra Low-Loss 级别覆铜板价格高昂,LowLoss 板材相对 Mid-Loss 板材升价 2-3 倍,Ultra-low Loss 板材相对 Mid-Loss 板 材升价 6-7 倍,因此,在 PCIe5.0 阶段,Retimer 或为更优选择。Retimer 可以 应用在基板上或转接卡(Riser Card)上。我们认为,未来 PCIe6.0 速率将进一 步提高,对 Retimer 需求将提升。
4.2. PCIe Retimer 市场或超 30 亿元,全球仅三家企业可提供 PCIe 4.0 Retimer
目前全球只有三家企业可提供 PCIe 4.0 Retimer。目前全球仅三家企业可提 供 PCIe4.0 产品,除澜起,还有 Astera labs,谱瑞科技。1)2020 年 8 月, Astera labs 在业内率先实现 PCle4.0 Retimer 量产,2022 年 3 月在业内率先实 现 PCIe5.0 量产,目前三星和 Astera 在 PCIe5.0 方面有合作。此外,Astera 产 品品类更加丰富。2)谱瑞科技在 PCIe3.0 时期就已布局信号修复领域,当时产 品为 Redriver,在 PCIe4.0 阶段的产品包括 PCIe Redriver 和 Retimer,Retimer 分为 4 通道和 16 通道。根据中国台湾工商时报 2021 年 2 月 22 日消息,谱瑞科 技 2021 年 Retimer 出货量有望达到千万套,市占率达到三成,其 Retimer 产品 毛利高于谱瑞整体毛利。其 PCIe4.0 Retimer 产品获得英特尔、超威等服务器平 台认证。谱瑞正在研发 PCIe 5.0 Retimer 产品。
4.3. 公司 PCIe 5.0 Retimer 实现量产
公司 PCIe4.0 Retimer 2021 年实现收入 1220 万元。PCIe Retimer 芯片与公司主营业务内存接口芯片的底层技术都包括了高性能数模混合设计技术,公司 拥有相关技术优势。公司 PCIe4.0 Retimer 在 2020 年量产,2021 年实现收入 1220 万元。公司 PCIe 4.0 Retimer 芯片包括 8 通道和 16 通道两种,可应用于 NVMe SSD、AI 服务器、Riser 卡等典型应用场景。2022 年,公司 PCIe 5.0/CXL 2.0 Retimer 芯片完成量产版本的研发,并于 2023 年 1 月实现量产。目 前,主要服务器 CPU 厂商已发布支持 PCIe5.0 的产品,随着公司 PCIe5.0 Retimer 实现量产,或产生可观收入。
5.1. MXC 可实现内存扩展及池化,基于高成长性的 CXL 协议
CXL(Compute Express Link)解决 CPU 和 Device(设备)缓存一致性问 题并实现内存统一编址,提高数据交换效率,主要用于人工智能和机器学习场景。 CXL(Compute Express Link)协议 2019 年初由英特尔公司牵头,多家国际知 名公司共同推出,是一项开放式互联新标准,CXL 可在主机 CPU 和互联设备 (例如加速器和存储器扩展设备)之间提供高效连接,其物理层是基于 PCIe 5.0。 CXL 主要用于人工智能和机器学习等应用场景的数据交互过程中。 CXL 目前支持三种协议 CXL.io 协议,CXL.mem 协议,CXL.cache 协议。 1.CXL.io 协议,是经过一定程度改进的 PCIe 5.0 协议,主要用于设备的发现、 配置、初始化、中断及寄存器访问等服务。2. CXL.mem 协议,主要用于处理器 访问设备内存。3. CXL.cache 协议,主要用于设备访问系统的内存,允许连接 的 CXL 设备以极低的延迟高效地缓存主机内存。
根据支持协议的不同,CXL 涉及的设备分为三类。1.支持 CXL.io 和 CXL.cache 协议。Type 1 CXL 设备是一种缓存设备,例如加速器和 SmartNICs (智能网卡)。Type 1 设备可访问主机内存,并维护与主机内存一致的本地缓存。 2.支持 CXL.io、CXL.cache 和 CXL.mem 协议。Type 2 CXL 设备包括 GPU 和 FPGA(现场可编程逻辑门阵列,AI 芯片的一种)等,具有 DDR(双倍数据率 同步动态随机存储器)和 HBM(高带宽存储)等存储器。Type 2 CXL 设备可以 像 Type 1 CXL 设备一样直接访问主机存储器。此外,Type 2 CXL 设备具有本地 内存,主机 CPU 可以访问该内存。同时,缓存一致性问题可以得到解决。3.支 持 CXL.io 和 CXL.mem 协议。Type 3 CXL 设备是内存扩展设备,支持主机处理器一致地访问 CXL 设备存储器缓存。Type 3 CXL 设备可用于存储器容量和带宽 的扩展,实现内存扩展或池化。
CXL 第三种设备可以实现内存扩展或池化,满足 CPU 带宽及内存容量需求。 随着人工智能和大数据的发展,CPU 内核数量不断增加,但 CPU 带宽并没有同 比例提高。由于 CPU 的整体带宽在内核之间进行分配,内核数量的增加会降低 每个内核的有效带宽,从而降低 CPU 的单核性能。同时,数据量的增长也对内 存容量提出更高要求。为满足内存容量和 CPU 带宽需求,一种做法是增加 DDR 内存通道,但是一方面 DDR 内存通道不能无限增加,另一方面会对处理器封装、 功耗、散热等的设计及主板 PCB 板设计带来挑战。CXL 第三种设备可以通过内 存扩展和池化来满足 CPU 带宽及内存容量需求。
MXC 芯片是一款 CXL 内存扩展控制器芯片,属于 CXL 协议所定义的第三 种设备类型。2022 年 5 月,澜起发布全球首款 CXL 内存扩展控制器芯片 (MXC)。MXC 芯片主要用于内存扩展及内存池化领域,如内存 AIC 扩展卡、 EDSFF 内存模组等。该芯片支持 JEDEC DDR4 和 DDR5 标准,支持 CXL1.1/CXL2.0,同时支持 PCIe 5.0 的速率。该芯片可为 CPU 及基于 CXL 协 议的设备提供高带宽、低延迟的高速互连解决方案,从而实现 CPU 与各 CXL 设 备之间的内存共享,可大幅度提升内存容量和带宽,满足高性能计算和人工智能 等应用对内存系统日益增长的需求,同时可以显著降低数据中心总体拥有成本。 MXC 主要应用于服务器,应用领域包括人工智能、机器学习、云基础设施、高 性能计算等。CXL 作为目前全球高速互连领域热门和前沿的技术之一,公司推出 全球首款 CXL 内存扩展控制器芯片,在该领域市场竞争中抢占先发优势。 澜起与全球领先企业在 CXL 领域展开合作,包括三星、海力士等。在公司 推出 MXC 芯片后,三星电子宣布推出首款 512GB CXL DRAM 内存模组,该产 品采用了公司的 MXC 芯片作为内存扩展控制器。2022 年 8 月,SK 海力士公司 开发出其首款基于 DDR5 DRAM 的 CXL 存储器样品,预计将于 2023 年投入量 产,该存储器采用公司的 MXC 芯片。公司相关技术处于国际领先地位,有望在 未来的市场竞争中抢得先机。
CXL 具有巨大潜力,美光科技预期其 2030 年市场规模超 200 亿美元。未 来随着技术的成熟,很多系统的内存扩展和内存池化的应用或将基于 CXL 协议。 美光科技在今年 5 月与投资者交流时曾预测 CXL 相关产品的市场规模,到 2025 年预计将达到 20 亿美金,到 2030 年可能超过 200 亿美金。MXC 是 CXL 内存 扩展和内存池化的核心芯片,将在上述市场规模中占据重要价值。
5.2. MCR RCD/DB 实现普通 RCD 的双倍带宽,或部分替代普通 RCD
MCR(Multiplexer Combined Ranks) RCD/DB 与普通的 RCD 芯片、DB 芯片相比,可以同时访问内存模组上的两个阵列,提供双倍带宽,主要用于服务 器。随着云端 AI 处理逐渐增多,高吞吐、低延迟、高密度的处理需求催生了对 更高带宽、更快速度、更高容量内存模组的需求,为应对这种需求,JEDEC 组 织目前正在制定服务器 MCR 内存模组相关技术标准。相比之下,MCR 内存模 组可以同时访问内存模组上的两个阵列,提供双倍带宽。JEDEC 定义的第一代 MCR RCD/DB 可将 CPU 的内存通道带宽从 4800MT/s 提升到 8800MT/s,预计 在 DDR5 世代还会有两至三代更高速率的产品。性能提升意味着价值量较普通 的 RCD/DB 芯片会有提升。架构方面,MCR 内存模组采用了 LRDIMM“1+10” 的基础架构(即需要搭配 1 颗 MCR RCD 芯片及 10 颗 MCR DB 芯片),随着 MCR 内存模组渗透率的提升,对 DB 的需求会大幅增长。

公司已基本完成 DDR5 第一子代设计,争取 2023 年实现出货。2022 年上 半年,公司开始进行相关产品的研发工作,目前已基本完成 DDR5 第一子代 MCR RCD/DB 芯片工程样片的设计工作,正在基于客户反馈意见及相关标准的 更新进行工程样片流片前的优化准备工作。同时正在积极参与 JEDEC 组织关于 第一子代 MCR RCD/DB 芯片的标准制定。公司《2022 年限制性股票激励计划》 中设定的 2023 年考核指标之一为:MCR RCD/DB 芯片完成量产版本研发并实 现出货。
5.3. 3CKD 在 DDR5 中后期将成为 PC 内存模组标配,成长性确定
当 DDR5 数据速率达到 6400MT/s 及以上时,CKD(Clock Driver)芯片 将成为 PC 端 SODIMM 和 UDIMM 内存模组的标配。长久以来,服务器 RDIMM 或 LRDIMM 模组中的 RCD 芯片集成了时钟驱动功能,保障时钟信号的稳定性与 可靠性,但 RCD 芯片并未部署到 PC 端。随着 DDR5 传输速率持续提升,时钟 信号频率越来越高,时钟信号的完整性问题日益突出。当 DDR5 数据速率达到 6400MT/s 及以上时,PC 端(如台式机及笔记本电脑)内存的 UDIMM、 SODIMM 模组须采用一颗时钟驱动芯片(CKD/Clock Driver)来对内存模组上的 时钟信号进行缓冲再驱动,才能满足高速时钟信号的完整性和可靠性要求。CKD 芯片的主要功能是缓冲来自台式机和笔记本电脑中央处理器的高速内存时钟信号, 并将之输出驱动到 UDIMM、SODIMM 模组上的多个 DRAM 内存颗粒。 CKD 芯片对于行业来说将是全新增量,相关桌面级 CPU 将于 2023 年推出。 CKD 上市后,其每年的行业需求量将与当年所需要的 DDR5 UDIMM 和 SODIMM 数量(支持速率为 6400MT/s 及以上)呈正相关。根据英特尔公布的 相关产品规划,支持 DDR5-6400 的桌面端 CPU 平台将在 2023 年推出,该 CPU 平台的推出将带动 CKD 芯片的量产。 公司在业界率先推出 CKD 芯片。2022 年 9 月,公司在业界率先推出 DDR5 第一子代 CKD 工程样片,并已送样给业界主流内存厂商,该产品将用于新一代 台式机和笔记本电脑内存。
6.1. 津逮服务器平台成长超预期,高性能及安全性优势突出
公司津逮服务器平台硬件包括津逮服务器 CPU 和混合安全内存模组,公司 采取差异化竞争策略,突出产品高性能主流内核及安全性特点。津逮服务器平台 包括津逮服务器 CPU 和混合安全内存模组,可实现芯片级实时安全监控功能。 2016 年,公司开始搭建津逮服务器平台,2018 年完成第一代津逮服务器产品研 发,2020 年,正式发布全新第二代津逮 CPU 服务器。2021 年,发布第三代津 逮 CPU。CPU 及内存模组行业门槛高,客户验证周期长,行业主要玩家相对集 中。公司作为新进入者,采取差异化竞争策略,公司的津逮服务器平台相较于传 统的国产 CPU 及内存模组,使用 X86 架构,具备主流性能,且具备高安全性特 点,增加了芯片层面的硬件安全保证,提升了数据的安全性,特别适用于金融、 交通、政务、能源等对硬件安全要求较高的行业。
公司津逮 CPU 系与清华、Intel 合作研发。津逮 CPU 是公司推出的 x86 架 构处理器,可与公司的混合安全内存模组(HSDIMM)搭配组成津逮服务器平台。 津逮 CPU 具有预检测和动态安全监控功能,可为云计算服务器提供芯片级的动 态安全监控功能。此外,津逮 CPU 还融合异构计算与互联技术,可为未来人工 智能和大数据应用提供综合数据处理和计算力支撑。公司与清华大学、Intel 合作 研发津逮服务器 CPU。清华大学提供可重构计算处理器(RCP)的算法及动态 安全监控功能;Intel 提供通用 CPU 内核芯片;公司负责整体模块及部分芯片的 设计及内存监控技术,并委托第三方进行芯片制造、封装和测试。2023 年 1 月 12 日,公司发布全新第四代津逮 CPU。津逮服务器 CPU 品牌、产权及销售收 入均归公司所有,目前在收入层面不存在利益分享机制。通过联合研发 CPU, 公司可以对 CPU 架构及接口有更好了解,并且可以了解接口芯片最终用户的需 求,提升整体实力。
公司津逮 CPU 目前包括四代产品,第四代津逮 CPU 性能显著提升。相较 上一代产品,第四代津逮 CPU 采用先进的 Intel 7 制程工艺,其最大核心数为 48 核,最高睿频频率为 4.2GHz,最大共享缓存为 105MB,关键性能指标大幅提升。 同时,在带宽、吞吐、延时等互连性能方面,第四代津逮 CPU 也实现了一系列 重大突破或升级:支持 UPI 2.0,CPU 之间支持 4 路互连,速率高达 16GT/s; 内存类型升级为 8 通道 DDR5,速率高达 4800MT/s,较 DDR4 提升 50%,单插 槽支持 16 根内存条;支持 PCIe 5.0,单 CPU 支持最大 80 路 PCIe 通道,传输 速率高达 32GT/s,较上一代实现翻倍,可支持更高速的网卡、GPGPU 卡和存 储设备;引入 CXL 1.1,可支持各类加速卡和内存扩展,在提升系统性能的同时, 降低数据中心总体拥有成本。
公司混合安全内存模组系自主研发,外采内存颗粒,使用公司定制开发的内 存接口芯片。混合安全内存模组采用公司具有自主知识产权的 Mont-ICMT (Montage,Inspection & Control on Memory Traffic)内存监控技术,可为高端 服务器平台提供更加安全的内存解决方案。公司已推出两大系列混合安全内存模 组:标准版混合安全内存模组( HSDIMM)和精简版混合安全内存模组 (HSDIMM-Lite)。标准版混合安全内存模组是 LRDIMM 型内存模组,支持命令/ 地址信号和数据的示踪及动态管控;精简版混合安全内存模组是 RDIMM 型内存 模组,支持命令/地址的示踪和内存数据保护。公司混合安全内存模组系自主研 发,向 DRAM 经销商采购内存颗粒,并结合公司定制开发的内存接口芯片,由 代工厂商代工生产。
津逮服务器平台市场导入期与中美贸易摩擦开始时间契合,产品发展超预期。 公司津逮服务器平台产品 2021 年实现营业收入 8.45 亿元,同比增长 2716.67%, 2022 年实现营收 9.37 亿元。公司 2021 年两次上调与英特尔的关联采购额度, 反映了津逮服务器平台的超预期增长。公司津逮服务器平台 2018 年完成研发, 2021 年实现爆发性增长,主要原因系 CPU 的技术门槛较高,导入、测试周期较 长。然而一旦通过客户的认证,客户具备较高粘性。随着公司持续客户开拓及导 入,叠加国内服务器企业供应链安全需求提升,未来预期将有可观营收。
公司津逮服务器 2021 年毛利率为 10%,产品价值量大,毛利润可观,毛利 率有望逐步提升。公司在产品初期阶段的首要目标是快速上量,扩大市场份额。 以根据英特尔年报预估的其服务器 CPU 单价$700 为参考,公司 10%的毛利率, 毛利润绝对额较为可观。在积累一定体量之后,公司会结合客户需求提升产品附加价值,优化成本,毛利率有望逐步提升。 公司已与多家知名服务器厂商合作,支持广泛的服务器生态系统。公司津逮 服务器平台已经与戴尔(中国)、联想、宝德等多家知名服务器厂商合作。在生 态系统方面,平台不仅支持 RHEL、Windows Server、VMWare ESXi、SLES 等国际主流服务器操作系统,而且与国内众多操作系统、云基础设施、数据库、 硬件(如固态硬盘、GPU、内存)厂商完成了产品兼容性认证,有助于公司扩大 在国内的市场份额。终端客户方面,东方证券接入津逮,目前已有多家金融机构 使用公司津逮服务器。
国内服务器 CPU 市场受人工智能等需求拉动将不断提升,安全性能关注度 提高将拉动津逮服务器份额增长。根据 IDC 数据,2021 年中国服务器市场出货 量为 391.1 万台,人工智能、云计算等发展或将拉动服务器需求提升,进一步带 动服务器 CPU 市场,此外,随着信息安全及供应链安全问题越来越受到市场关 注,津逮服务器产品市场份额预计将不断提升。 公司津逮服务器采用主流 X86 架构,兼具安全功能。公司采用英特尔 X86 架构,目前 X86 架构是市场上主流架构,2020 年在全球占比 90.76%,英特尔 占据 X86 市场主要份额,2021 年 Q4 英特尔份额为 74.4%,AMD 份额为 25.6%, VIA 份额几乎为 0%。在国内市场,2020 年 X86 服务器在中国服务器市场占比 96.17%。因此,公司 CPU 架构更加主流。此外,公司津逮服务器平台兼具安全 性功能,可实现芯片级实时安全监控。
6.2. AI 芯片发挥公司互连技术优势
公司 AI 芯片集合多项先进技术,包括公司擅长的互连技术。公司 AI 芯片主 要由 AI 计算子系统、CXL 控制器、DDR 内存控制器等模块组成,集成了 AI 高 性能计算、异构计算、CXL 高速接口技术、DDR 内存控制技术等相关技术,其 中 CXL 高速接口技术、DDR 内存控制技术都是公司所擅长的领域。
公司 AI 芯片主要用于解决推理应用场景的内存、带宽等问题,旨在提升效 率。公司 AI 芯片主要用于解决 AI 计算在大数据吞吐下推理应用场景中存在的 CPU 带宽、性能瓶颈及 GPU 内存容量瓶颈问题,提供更有效率、更具性价比的 解决方案。具体应用场景包括:1)互联网领域大数据吞吐下的推荐系统。常规 方案是将推荐系统中“Embedding(向量化)”、“Embedding Search(向量搜 索)”两个主要步骤分割,交由不同平台处理,由高算力的 GPU、FPGA 或 ASIC 芯片负责“Embedding”部分,由 CPU+大数据系统负责“Embedding Search”部分。这种步骤分割,产生大量的数据交换,并且由于硬件的限制,存 在搜索效率的瓶颈。公司 AI 芯片的目标是整合上述两个步骤,解决系统的效率 瓶颈问题。 2)医疗领域生物医学/医疗大图片流处理。常规方案是在 CPU 中对 大图片进行切割,切割获取的子图通过 PCIe 接口传送到 GPU 进行处理。通过 多次交互,最终实现一张大图的处理,该方案受到接口带宽及其内存限制,效率 较低。公司的 AI 芯片可大幅提升内存容量,减少甚至无需图片切割,同时 CXL 接口可以充分利用缓存性能,直接访问近内存计算模组的 DDR 内存,从而提升 接口的效率。 3)人工智能物联网领域的大数据应用场景。 云端推理 AI 芯片 2025 年市场规模约为 132 亿美元。根据应用领域,AI 芯 片可用于训练和推理两种场景,公司 AI 芯片面推理应用场景。据公司 2021 年年 报,全球云端 AI 芯片市场 2020-2025 年复合增长率将达到 28%,2025 年将达 到 261 亿美元规模。其中,云端推理芯片市场 2025 年将达到 132 亿美元, 2020-2025 年复合增长率为 32%,高于云端 AI 芯片整体增速。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)