1.1. 大数据基础软件起家,战略升级 AI 基础设施服务商
星环科技是中国领先的 AI 和大数据基础设施软件提供商。公司致力于融合 AI、大 数据与云计算技术,帮助企业构建 AI 基础设施,提供覆盖数据全生命周期的企业级软 件及服务。公司拥有 AI 与大数据基础软件业务、解决方案业务及其他业务三条业务线, 产品及解决方案已深入金融、能源、政府、交通、医疗等十余个行业,截至 2025 年 6 月 30 日,累计服务逾 1,600 家终端用户,在金融与数字政府领域建立了深厚的客户基础与 品牌认知。 大数据平台先行,全面拥抱大模型时代。公司创始人孙元浩于 2013 年创立星环科 技,以自研分布式大数据平台 TDH 起家;2018 年成为全球首个通过 TPC-DS 测试的数据 库厂商;2022 年登陆科创板并成为全球首个通过 TPCx-AI 基准测试的软件厂商。面对 AI 浪潮,公司战略定位由“数字基础设施提供商”升级为“AI 基础设施企业”,推出知 识平台 TKH 及大模型运营平台 Sophon LLMOps,完成面向大模型时代的关键卡位。
股权结构集中,管理层稳定,孙元浩为实控人。截至 2025 年 8 月 13 日,公司单一最大股东集团,包括一致行动人孙元浩、上海赞星、范磊、吕程及佘晖,共同控制公司 22.42%股份。孙元浩持有上海赞星 0.38%股份,结合 9.22%的个人持股,最终形成 9.24% 的实质性控股。部分高层在公司服务已有十余载。孙元浩,1977 年出生,分别于 2000 年 7 月及 2003 年 6 月获得南京大学计算机科学学士学位及硕士学位;2003 年入职英特 尔,积累大数据软件行业经验;2013 年在上海创立星环科技,瞄准自主可控的大数据基 础软件起家。

构建大数据与云基础平台、分布式数据库、数据开发工具、人工智能平台等软件产 品矩阵,助力企业高效构建 AI 基础设施,全面赋能各行业客户实现数智化转型和业务 创新。2025 年上半年,大模型相关商机已带动近 3,000 万元订单,覆盖金融、政府、能 源等重点行业。 大数据基础平台软件(TDH):TDH 是公司自主研发的一站式大数据基础平台,包含 多个大数据存储与分析组件,支持 PB 级海量数据存储,能够统一处理关系表、文本、 时空地理、图数据、文档、时序、图像、向量等多种数据格式,并提供高性能的查询搜 索、实时分析、统计分析与预测性分析功能。 云基础平台软件(TDC):TDC 是基于容器技术的数据云平台,支持将大数据平台、 分布式数据库、智能分析工具等以 PaaS 云服务方式交付,满足多租户、弹性扩展与灵 活使用的需求。适用于构建大型企业数字化基础设施、城市大数据中心、企业级数据应 用云及跨数据中心统一数据平台等场景。
分布式关系型数据库软件(ArgoDB 与 KunDB):ArgoDB 是面向数据分析场景的分 布式闪存数据库,主要用于构建离线数据仓库、实时数据仓库、数据集市等系统。KunDB 是兼容 Oracle 和 MySQL 的分布式交易型数据库,支持集中式与分布式一体化架构, 可快速从集中式扩展为分布式,适用于 ERP、OA、HIS 等操作型业务及高并发消费级应 用。KunDB 已入围中央国家机关 2024 年度事务型数据库软件供应商名单,是公司在信 创领域推进替代的核心产品。 数据开发与智能分析工具(TDS):TDS 是一款大数据开发工具集,内置数据集成、 治理、资产管理、标签与服务、共享与交易等功能,支持企业高效构建数据仓库、数据 湖与数据中台,提升数据开发与运营效率,赋能业务数字化与资产化进程。 人工智能平台(Sophon):Sophon 是端到端的一站式人工智能平台,支持多模态数据的接入、清洗、标注、存储、计算与推理,覆盖从传统机器学习、深度学习到大模型 的训练、管理、迭代全流程,并提供智能体与应用构建、运营支持。平台集成多种算法 与框架,具备资源管理、监控、安全等企业级功能,助力企业实现智能化决策与运营。 知识平台(TKH):TKH 是企业级语义智能与知识工程平台,可将结构化、半结构化 和非结构化数据转化为可查询、可推理的知识资产。平台支持构建与管理知识图谱,集 成向量检索、图计算与自然语言理解能力,兼容 RAG 流程与大语言模型,可用于构建 领域智能问答系统。基于自研“无涯”大模型,公司已推出“无涯·问知”“无涯·问数” 等 AI 原生应用。
1.2. 大数据与 AI 基础软件推动营收增长,亏损同比收窄
公司 25Q1-Q3 营收重回增长轨道、亏损幅度显著收窄。2024 年宏观影响收入承压, 公司营业收入实现 3.71 亿元,同比下降 24.31%;归母净利润-3.43 亿元,同比亏损扩大, 主要因为宏观经济影响,客户采购决策更谨慎,招标和验收后置,导致收入确认延迟。 25Q1-Q3 公司实现营业收入 2.25 亿元,同比上升 7.42%;归母净利润-2.13 亿元,亏损同比收窄 27.21%,公司营收增长主要得益于在金融、能源等行业客户订单的持续增长以 及大模型相关新业务的积极拓展;另外,公司持续加强费用管控、提升运营效率,使得 亏损收窄。

分行业看,金融行业贡献核心收入,能源行业增长迅猛。2025 年上半年,金融行业 实现营业收入 0.68 亿元,同比增长 23.38%,占总营收比重达 45.01%。这得益于公司在 银行、证券等客户的数据平台国产化替代与智能化升级中持续获得订单。能源行业增长 迅猛,2025 年 H1 实现营业收入 0.29 亿元,同比大幅增长 253.99%,营收占比从上年同 期的 5.77%跃升至 18.77%。
分产品来看,软件产品与技术服务支撑业绩,解决方案业务带动增长。2025 年上半 年公司软件产品与技术服务实现营业收入 1.11 亿元,同比下降 0.89%,营收占比 72.84%, 是公司主要收入来源,其中软件产品授权及配套服务收入占比 38.42%,技术服务收入占比 21.27%。解决方案业务成为增长亮点,2025 年上半年实现收入 0.34 亿元,同比增长 43.18%,营收占比提升至 22.37%,主要源于公司针对特定 AI 与大数据应用场景提供的 定制化平台与业务分析解决方案需求增加。
公司整体毛利率承压下行,主要受产品结构变化与市场竞争影响。25Q1-Q3,公司 整体毛利率为 47.49%,较 2024 年的 50.67%继续回落。这一变化主要源于核心的软件产 品与技术服务毛利率回调,同时毛利率较低的解决方案业务收入占比提升,且软硬一体 产品及服务的毛利率同比显著下滑,共同拉低了整体盈利水平。
费用管控有效,盈利压力依然严峻。近年来,公司运营效率持续优化,销售费用率 显著下降,管理费用率保持相对稳定。然而,研发费用率高企,对当期利润形成侵蚀, 公司扣非归母净利率始终为负。公司仍在市场扩张阶段,收入规模不足以覆盖研发投入。
2.1. AI 推理时代来临,GPU 直连 SSD 存储新架构出现
颠覆 CPU 主导时代,GPU 全面接管存储 IO。 AI 推理与训练的 IO 需求差距很大。AI 训练依赖海量数据的批量传输,单轮数据 块尺寸通常在 MB 级以上,控制路径的延迟占比极低;而 AI 推理完全不同,LLM 推理 的 KV 缓存访问粒度仅 8KB-4MB,向量数据库检索、推荐系统的特征读取更是低至 64B8KB,但需要支持数千条并行线程的并发请求。LLM 推理的存储需求已突破 10TB 级, 向量数据库和推荐系统的存储规模更是达到 1TB-1PB,这种“小块高频”的访问模式, 让传统存储架构不堪重负。
AI 工作负载正在根据其 I/O 模式(访问粒度和强度)分化为两大类,这正在推动存储评估指标从传统的“每 TB 成本”(TB/TCO)转向新兴的“每 IOPS 成本” (IOPS/TCO)。 工作负载分化: 第一类:训练 (Training)。 以 LLM 预训练为代表,其特点是大块顺序 I/O(10MB1GB)。这类应用更关注存储的吞吐量和总容量,因此传统的 TB/TCO(每 TB 成本)指 标依然适用。 第二类:推理 (Inference) 和 预测式 AI (Predictive AI)。 包括 LLM 推理、RAG、 向量数据库、推荐系统和图计算。这类应用的共同特点是极小的随机 I/O(访问粒度低 至 8B、64B、512B)和极大的数据集(高达 1PB 或数百 TB)。 IOPS 成为存储新的挑战。对于推理和预测式 AI,性能瓶颈不再是存储容量或顺序 吞吐量,而是系统处理海量、高并发、小 I/O 请求的能力,即 IOPS(每秒读写操作次 数)。例如,RAG 检索、图谱遍历、推荐系统都需要极低延迟地从庞大的数据集中随机 读取微小的数据块。
传统架构中,CPU 同时掌控存储 IO 的控制路径(发起请求、调度资源)和数据路 径(传输数据),GPU 仅作为“辅助加速器”被动接收数据。 当前以 CPU 为中心的数据加载架构(将 GPU 视为“卸载设备”)已成为 GenAI 工 作负载的瓶颈。 AI 工作负载的极端并行需求: 根据利特尔定律,为了充分利用现代硬件(如 PCIe Gen6)来处理 AI(如 RAG)的 512B 小 I/O,系统必须维持一个高达 20,000+的队列深 度(Qd)。 GPU 并非瓶颈: GPU 的并行架构(如上一张 PPT 所提)有能力 发出如此海量的并发 I/O 请求。 真正的瓶颈是 CPU 软件栈: 问题的根源在于传统的、由 CPU 驱动的软件栈。这 个软件栈(即上一张图的 "Current Approach")习惯于"串行化" (serialize) 或"批处理" (batch) I/O,这会人为地压低系统实际的队列深度 (Qd)。

GPU 地位提升,实现控制权的反转。GPU 成为“编排器”,取代 CPU 成为数据访 问的控制中心。CPU 被“降级”,仅负责辅助性的“内务管理” (house keeping)。 数据访问模式从 CPU“推送” (push) 数据块,转变为 GPU“拉取” (pull) 数据。 GPU 只在计算需要时才“按需” (on-demand) 从一个统一的分层存储池中抓取它需要 的数据。
通过硬件 GPU 直连 SSD 和 SCADA 软件架构实现 GPU 地位的提升。
GPU 直连 SSD 允许 GPU 绕过 CPU 和系统内存,直接、高效地从固态硬盘读取和 写入数据,是通过 NVMe-of、RDMA、GPUDirect Storage 等技术协议实现的一条优化的 直接数据通路。 SCADA 是一个用于解决 AI I/O 瓶颈的、可扩展的、生产级的软件架构。 SCADA 通过两个关键技术解决了“CPU 软件栈”瓶颈:服务器端:使用 uNVMe (用户态驱动) 绕过内核,实现极致的 IOPS。客户端:GPU 应用线程成为数据请求的发 起者。传输中:“数据路径"协议(可能基于 RDMA 和 GPUDirect)允许数据从服务器存 储直接流向 GPU 显存,最小化 CPU 负载和延迟。 GPU 地位的提升。这个架构实现了“GPU 作为 I/O 编排器”的愿景。GPU 应用线 程(通过 SCADA Client)发起请求,数据(通过 Data Path)直接流入 GPU,CPU 在数 据流中被彻底旁路。
2.2. 存储架构变化带来数据库架构的变化
架构层面发生变化。从“以 CPU 为中心”到“以 GPU 为中心”,GPU 成为主计算 单元。传统数据库以 CPU 为中心进行设计,数据库软件需要围绕 GPU 的数据获取和处 理能力重新设计。CPU 的角色退化为任务调度器、事务协调器和元数据管理器。存储层 级的虚拟化与重构。 核心组件层面升级改造。 存储引擎的革新。传统的、基于系统内存(DRAM)的缓冲池(Buffer Pool)管理机制效 率降低。新的缓存管理器需要直接管理 GPU 显存和直连 SSD 之间的数据流动。 数据布局优化:为匹配 GPU 的 SIMD(单指令多数据)架构,数据在 SSD 上可能更 倾向采用纯列式或混合式存储格式,并原生支持 Apache Arrow 等零拷贝内存格式,方便 GPU 直接消费。 查询执行引擎的重构。算子的 GPU 原生实现:扫描(Scan)、连接(Join)、聚合 (Aggregation)、排序(Sort)等核心算子需要深度重写为 GPU 内核,并能直接从 SSD 流式 消费数据。异步、流水线执行:查询计划被组织成高效的 GPU 内核流水线,当前步骤在 GPU 计算时,下一步所需的数据已通过直连路径在后台从 SSD 预取,实现计算与/O 的 完全重叠 查询优化器的挑战。成本模型剧变:传统的基于 CPU 周期和磁盘寻址的代价模型失 效。新模型需纳入 GPU 计算核心占用率、HBM 与 SSD 间的带宽、PCle 传输延迟等新 因素。 数据本地性优化。优化器在生成执行计划时,必须优先考虑数据在 GPU 显存、直 连 SSD、网络存储中的位置,尽量将计算调度到离数据最近的处理器上。
为了适应这一新型硬件架构,数据库软件需要深度架构改造、适配结合 GPU 软件 技术栈(特定驱动、CUDA 库)、GPU 硬件生态。数据库将与 CXL 内存池化、NVLink 等高速互连技术结合,向存算一体和池化架构演进,成为 AI 时代数据基础设施的核心 引擎。 GPU 直连 SSD 技术将使得数据库从一个在通用操作系统上运行的、管理磁盘文件 的应用程序,演变为一个直接调度和管理 GPU、SSD 计算和存储硬件的“数据中心级 操作系统内核”。
2.3. 产业进展逐步加快
硬件方面: HBF 新型存储是未来。2025 年 8 月,被业界誉为"HBM 之父"的韩国科学技术院 (KAIST)教授金正浩提出“AI 时代的力量平衡正从 GPU 向存储领域转移。”金教授指 出,在人工智能时代存储器件将扮演日益关键的角色,甚至预言英伟达未来可能收购存 储企业。他特别强调高带宽闪存(HBF)的战略意义,预计该技术将在 2026 年初取得突 破,并于 2027 至 2028 年间正式亮相。 2025 年 8 月,闪迪与 SK 海力士签署谅解备忘录,共同制定 HBF 技术规范并推动 标准化进程。双方目标在 2026 下半年发布 HBF 样品,首批搭载 HBF 的 AI 推理系统预 计于 2027 年初面世。值得关注的是,在 10 月中旬举办的 2025 OCP 全球峰会上,SK 海 力士首次展示了搭载 HBF 技术的"AIN B 系列"存储产品。 铠侠将与英伟达合作,推出直连 GPU 进行数据交换的 SSD 。2025 年 9 月 2 日在 东京都内举行的面向 AI 市场的技术说明会上,铠侠 SSD 应用技术部门首席工程师福田 浩一表示,“将按照英伟达的建议和要求进行开发”。迄今为止,SSD 一般通过 CPU(中 央处理器)与 GPU 连接。铠侠将与英伟达合作,开发可直接连接到 GPU 并进行数据交换的 SSD。英伟达表示,与 GPU 连接的 SSD 需要达到 2 亿 IOPS,将以 2 个 SSD 应对 这一需求。计划支持被称为 PCIe(PCI Express)的 SSD 接口的下下代标准“PCIe 7.0”。 软件方面: Hammerspace 已经通过更快更可扩展的元数据读取功能以及在 GPU 服务器直连 存储驱动器中的更优数据放置策略,加速了其数据编排平台软件的性能表现。 Cloudian HyperStore:通过 RDMA over S3 技术,实现对象存储与 GPU 内存的直 接数据传输,使基于 S3 接口的向量数据库性能提升 8 倍。
3.1. 中国面向生成式 AI 的数据基础设施领导者
IDC 发布《IDC MarketScape: 中国面向生成式 AI 的数据基础设施 2025 年厂商评 估》报告,针对 24 家典型厂商的能力和战略进行综合评估。星环科技凭借 10 余年在大 数据和 AI 融合领域的前瞻性布局和行业丰富实践,被定位于“领导者”类别,彰显了 其在生成式 AI 时代数据基础设施领域的领先地位。
星环科技 AI-Ready Data Platform,打造面向 AI 大模型的高质量数据底座。星环 科技 AI-Ready Data Platform 是一个 AI 赋能并为 AI 生产和提供高质量数据的平台。该 数据平台以关系型、向量、图、全文、时序等 11 种模型数据统一存储管理为基础,提供 多模态数据自动处理、高效数据治理、特定领域知识构建以及全流程的实时数据洞察能力,实现从数据产生到应用于 AI 的全过程数据管理,一站式助力企业更高效地运用 AI 释放数据价值。

星环科技新一代 AI Infra,全栈能力赋能各行业数智化转型。星环科技新一代 AI Infra 旨在解决企业在 AI 落地过程中面临的资源、数据、模型和应用挑战,四层统一架 构一站式实现从数据到知识、从模型到应用的全链路智能化转型,充分发挥算力、数据 和模型的价值,为企业用户提供全栈的 AI 落地服务,助力其在 AI 时代重塑核心竞争 力。
2024 年 11 月,国际数据公司(IDC)发布了《RAG 与向量数据库市场前景预测》 报告,报告绘制了 RAG(检索增强生成)管道建设路径以及其中包含的主要技术和算 法,收录并评估了市场中的主要厂商。星环科技凭借其在向量数据库和 AI 大模型领域 的技术创新和实践,被评为向量数据库代表厂商。 公司拥有分布式关系型数据库软件(ArgoDB 和 KunDB)。ArgoDB 是面向数据分 析型业务场景的分布式闪存数据库产品,主要用于构建离线数据仓库、实时数据仓库、 数据集市等数据分析系统。KunDB 是一款兼容 Oracle 和 MySQL 的分布式交易型数据 库,集中式与分布式一体化,可快速由集中式扩展为分布式,主要用于支持操作型业务 场景(如 ERP、OA、HIS 等)和高并发场景(如消费者的手机 APP 应用、居民码查询 等)的核心数据系统的构建。
3.2. 筹划港股上市,积极布局出海
前瞻布局海外市场,技术输出与服务落地并行。公司将海外市场视为“AI 基建”版 图的重要延伸,已在新加坡、加拿大等地设立分支机构,以推动产品与解决方案的国际化。公司在新加坡战略布局较为深入,一方面,与新加坡全国人工智能核心(AISG)、 新加坡理工学院等顶尖机构及高校达成合作,联合推进 AI 技术研究、资源互通与人才 培养;另一方面,积极寻求商业落地,其大数据平台与 AI 知识图谱产品已获得新加坡 信息通信媒体发展局认证,并正与当地金融机构及系统集成商 StarHub 推进商业合作, 旨在提升客户的数据管理效率与服务创新。此外,公司还通过参与美国 Strata 大会、西 班牙智慧城市博览会等国际性会议展示技术实力。 筹划港股上市,拓展国际资本平台。为深化国际化战略并拓宽融资渠道,公司于 2025 年 8 月 18 日正式向香港联交所递交上市申请,计划发行 H 股并实现“A+H”双重上市。 近年来公司持续高研发投入,对新兴市场战略开拓,尽管面临盈利挑战,但在 AI 基础 设施软件市场的地位得到认可,按 2024 年收入计位列中国第五,且为最大的纯软件提 供商之一。此次赴港上市募资用途之一正是用于海外市场的拓展,港股上市后将有助于 提升公司的国际品牌影响力,吸引全球投资者,并为海外业务扩张提供更为充足的资本 支持。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)