1.1 公司简介和发展历程
公司成立于 2019 年,由清华大学计算机系知识工程实验室(KEG)技术成果转化而来,具 备从底层算法、预训练框架到国产硬件适配的大模型全链路自主研发能力。公司以“让机 器像人一样思考”为愿景,以实现通用人工智能(AGI)为目标,极致专注探索人工智能 上限,致力于用大模型实现甚至超越人类的语言、推理、视觉、听觉、工具使用等能力。 公司连续三年实现收入翻倍增长,已经发展成为中国最大的独立大模型厂商。目前,GLM 系列大模型应用于民生治理、工业制造、能源电力、金融、互联网、通信、消费电子、教 育等行业,拥有超过 270 万的客户与开发者。

1.2 公司管理层分析
公司由一支精英科学家和工程师团队领导,具备极强的“学术+行业”背景:
刘德兵博士(董事长):联合创始人,在大语言模型、机器学习和数据挖掘领域拥有近 18 年经验,主导过 30 余项重大科研项目。
张鹏博士(首席执行官):联合创始人,负责日常运营与管理,是 GLM 系列模型的核心 贡献者,致力于“知识+数据”双驱动的 AI 框架。
李涓子教授(非执行董事):联合创始人,清华大学知识工程实验室(KEG)主任,在 语义内容管理及搜索领域具有权威地位。
张鈸院士(首席科学家):中国科学院院士,为基础 AI 理论和实际应用提供顶层指导。
唐杰博士(联合创始人):清华大学计算机科学系教授,研究方向包括通用人工智能(AGI)、 数据挖掘、社交网络、机器学习和知识图谱。
1.3 公司主营业务
公司围绕一体化 MaaS 平台组织产品供应,通过云端和本地化两种方式交付智能服务。公 司旗下 MaaS 平台主要提供四类模型:语言模型、多模态模型、智能体模型及代码模型, 以及用于模型微调、部署及智能体开发的集成工具。 公司 MaaS 平台的主要优势为模型能力全面覆盖、应用场景广泛扩展性及多元化算力基础 设施适应性: 全面的模型组合:公司模型矩阵涵盖语言模型(如 GLM-4.5)、多模态模型(如图像生成 CogView、视频生成 CogVideoX)、智能体(AutoGLM)及代码模型(CodeGeeX)等,在语 言、多模态、智能体及代码能力方面展示出行业领先的性能。从公司广泛而强大的产品组 合中,客户和开发者总能找到最适合其特定需求的解决方案。 可扩展的应用:公司的模型及智能体旨在跨多样化硬件、跨应用场景、跨业务工作流程无 缝进行工具调用并执行复杂任务,支持 AI 原生的多模态复杂对话及深度推理。MaaS 平 台提供了一个智能体工作区,其中包含各种智能体模板及基于场景的解决方案。通过该智能体工作区,客戶可通过简化的模型微调、增量模型训练及提示工程,迅速定制智能体。 便捷的基础设施适配性:与算力基础设施合作伙伴携手共同设计先进的算力基础设施,使 MaaS 平台能够提供集成计算、网络、训练通信以及推理加速能力。支持从 15 亿到 2300 亿参数的模型规模,并能够实现大规模、实时的跨云及芯片组部署。此适配性使模型能够 扩展到大众使用设备,如手机、个人电脑及智能汽车终端。
公司的业务主要根据模型的部署方式划分为两种:
本地化部署:模型托管在客户自己的基础设施内,使客户能够利用其专有或敏感数据, 定制私域专属 AI 模型.为对数据安全及定性需求较高的大型企业及公共行业实体提供服 务。2024 年该业务贡献收入 2.64 亿元,占总收入的 84.5%。
云端部署:模型托管在云端基础设施上,适合寻求敏捷性和易于实施性的企业。客户无 需昂贵的本地基础设施能够快速且经济高效地部署 AI 解决方案。2024 年收入为 4,848 万元,占总收入的 15.5%。
1.4 公司财务状况
公司近年实现了收入的爆发式增长,但由于战略性研发投入巨大,仍处于亏损阶段:
营业收入:2022 年至 2024 年分别实现收入 5741 万元、1.25 亿元和 3.12 亿元,复合年 增长率超过 130%。
毛利率:分业务看,本地化部署是公司盈利能力稳健的基石 ,该业务毛利率长期维持 在较高水平,由 2022 年的 53.6%增长到 2023 年的 68.2%,主要是由于公司的模型多样化 及性能提高,推动服务的成熟性提高及复杂性增加。云端部署毛利率 2022 年至今呈下降 趋势,主要由于:1.随着市场竞争加剧,通过 API 接口访问模型服务的价格普遍下跌。2. 公司采取了主动战略性降价,旨在吸引更多客户并迅速扩大市场占有率。

净利润:公司的年内亏损从 2022 年的 1.44 亿元增加至 2024 年的 29.58 亿元。2025 年 上半年的净亏损为 23.58 亿元,较 2024 年同期的 12.36 亿元增长约 90.83%。净亏损的增 加主要由于公司在研发方面进行了重大投资,以支持先进模型的开发和基座模型的持续改 进。
各项费用率: 研发开支始终占据主导地位:研发开支率从 2022 年的 146.97%迅速攀升至 2024 年的 702.73%,主要由于公司投入大量精力进行基座模型的迭代及推进技术基础设施建设,反 映了公司致力于探索智能上限的长期战略。 管理效率与经营杠杆初显:销售及营销开支随市场扩张波动,一般及行政开支率从 2022 年的 56.29%整体呈下降趋势,至 2024 年降至 42.76%,体现了公司实施了有效的成本控制 措施并提升了运营效率。预期公司未来,随着收入的高速增长和运营效率的优化,各项费用率将持续下降。
2.1 行业发展状况
大语言模型(LLM)已成为引领 AI 行业范式变革的核心力量。据公司招股书,2024 年中 国大语言模型市场规模达 53 亿元,预计到 2030 年将增至 1,011 亿元,2024 年至 2030 年 的复合年增长率为 63.5%。机构客户仍将是市场增长的核心驱动力,估计到 2030 年中国 企业级大语言模型市场规模将达到人民币 904 亿元,2024 年至 2030 年的复合年增长率为 63.7%。行业正从简单的预训练阶段向对齐推理、自主学习及更高级的意识智能阶段演进。
大模型技术正从单纯的各类内容生成向具备深度逻辑推理与自主执行能力的 Agentic AI 跃迁。智能体(Agent)将重塑工作流: 根据 Gartner 的最新战略预测,到 2028 年,至 少 15%的日常工作决策将由代理型 AI(Agentic AI)自主做出(2024 年该比例为 0%)。 公司的 AutoGLM 能够跨应用执行复杂任务(如自主点餐、跨 App 协作),不仅是交互方 式的革命,更标志着 AI 从“辅助工具”向“自主劳动力”的转变,极大提升了模型在 B 端复杂场景下的商业价值。
2.2 行业市场份额
中国大语言模型市场的参与者可分为独立提供商及非独立提供商。独立提供商从业务开展 初期就具备大语言模型技术原生、大语言模型产品原生及大语言模型商业模式原生的特点;而非独立提供商则通常为涉足 AI 领域的科技巨头。与非独立提供商相比,独立提供商面 临着非常不同的竞争动态。例如,非独立提供商利用其原有的多元化业务线,积累了庞大 的用户群,这有利于其大语言模型产品的推广。然而,另一方面,如果科技巨头经营的业 务线与客户自己的业务直接竞争,企业客户可能不愿意选择其提供的大语言模型产品。此 外,若干行业的企业客户对进入或可能进入若干科技巨头的影响范围十分谨慎,且更倾向 于采用 “纯粹(pure-play)” 提供商的 AI 解决方案。 根据弗若斯特沙利文的资料,按 2024 年收入计:公司在中国所有通用大模型开发商中位列第二,市场份额为 6.6%。 公司在中国独立通用大模型开发商中位列第一。 在海外的 API 聚合平台 OpenRouter 上,公司的模型也具备极强竞争力,2026 年 2 月 22 日数据显示公司的 GLM 5 模型占据 OpenRouter 的 token 调用量位居第三名。

2.3 公司核心竞争力
大模型技术的领先性: 依托自主研发的大模型预训练框架 GLM,公司构建起全面的模型体系,可向客户提供多类 型基座模型及快速定制化服务。其模型矩阵覆盖端侧小模型、经济型模型及千亿参数旗舰 大模型等不同参数规模,能精准匹配特定客户需求;功能层面则涵盖对话、通用智能体、 代码生成、图像理解、文生图/视频、语音交互等多元场景,实现对各类模型应用需求的 全面覆盖。
2025 年 12 月 28 日,在全球知名的权威大模型评测榜单 Artificial Analysis Intelligence Index(AA 智能指数)中,GLM-4.7 以 68 分综合成绩荣登开源模型与国产 模型双料榜首、全球第六。Artificial Analysis Intelligence Index 重点考核模型的 知识储备、逻辑推理、代码生成及 Agent(智能体)等核心维度,被业界公认为最能代表 模型综合实力的风向标。 2026 年 2 月 12 日,公司上线并开源 GLM-5,在全球权威的 Artificial Analysis 榜单中 位居全球第四、开源第一,排名超越国内其他大模型如 Kimi、Qwen、MiniMax、DeepSeek 等。在 Coding 与 Agent 能力上,取得开源 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务。 公司还发布了 GLM-5 技术报告,披露核心创新点,我们认为这彰显了公司的技术创新能力 和开源精神,GLM-5 实现性能大幅跃升主要得益于以下四大技术创新: 1)引入 DSA 稀疏注意力机制(DeepSeek Sparse Attention, DSA)。DSA 机制则使 GLM-5 能够根据 Token 的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的 前提下,算力开销得以大幅削减。 2)构建全新的异步 RL 基础设施。基于 GLM-4.5 时期 slime 框架“训练与推理解耦” 的设计,公司的新基建进一步实现了“生成与训练”的深度解耦,将 GPU 利用率推向 极致。 3)提出全新的异步 Agent RL 算法。公司研发的异步算法使模型能够从多样化的长周期交 互中持续学习。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这 也正是 GLM-5 能够在真实编程场景中表现卓越的底层逻辑。 4)全面拥抱国产算力生态。从模型发布伊始,GLM-5 就原生适配了中国 GPU 生态。公司 已完成从底层内核到上层推理框架的深度优化,全面兼容七大主流国产芯片平台:华 为昇腾、摩尔线程、海光、寒武纪、昆仑芯、沐曦与燧原。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)