2025年计算机行业6月暨中期投资策略:AI产业快速迭代,持续看好Agent和算力租赁

AI 产业持续迭代,Agent 开启应用生态

Google:重回 AI 舞台中心,Agent 生态野心初显

谷歌 I/O 开发者大会推出 Gemini 2.5 Pro,再次重回AI 舞台中心。在2025年5月 21 日最新的谷歌 I/O 大会上,Gemini 及一系列产品发布再次证明谷歌AI地位。去年同期谷歌 AI 大模型和 API 每月处理 9.7 万亿个Token,现在处理Token数增长至 480 万亿个,谷歌搜索业务的 AI 综述功能月活用户也达到了15 亿人,Gemini的 App 每月有 4 亿多活跃用户。5 月 28 日,谷歌宣布升级后的推理大模型Gemini2.5 Pro 版本正式可用。而该模型迅速在 LMSYS Arena 榜单中跃居第一,评分1446分,远超分数为 1409 分、1405 分的 o3 和 ChatGPT-4o。除了大模型之外,谷歌本次还发布了安卓、AI 眼镜、Agent 系统、视觉生成等多种一系列AI 相关产品和更新。本次谷歌 AI 发布再次提振市场对 AI 产业信心,也验证在巨头林立的AI市场中,谷歌依然在舞台中心。 Gemini 2.5 Pro 技术进步显著,实现推理过程可视化。相比传统模型,Gemini2.5Pro 引入了“动态推理架构”,实现推理过程可视化。Gemini 2.5 Pro 并非仅根据输入内容来生成答案,其会生成多个假设分支,模拟不同决策路径,来选择最优解,将模型决策拆解为可解释的逻辑节点。谷歌还发布了Deep Think 版本,引入增强型推理机制,在数学、编程和多模态任务中均取得更好的成绩,在USAMO2025、LiveCodeBench、MMMU 等多项测试中,Gemini 2.5 Pro 深度思考版本表现均领先 Gemini 2.5 Pro。

同时,谷歌也发布了 Gemini 2.5 Flash 低门槛版。Flash 版本专为速度和低成本而设计,支持边缘计算,在推理、多模态、代码和长上下文等关键基准上都得到了改进。Flash 版本使用的 token 减少了 20-30%,响应速度较之前提升40%,效率提升了 22%。Gemini 2.5 Flash 专为实时响应场景设计,适用于文档摘要、图像标注、数据分类等高频任务。

谷歌在图片、视频、音频领域均升级明显,多模态能力令人惊喜。文生图领域,谷歌发布 Imagen 4,比上一代快 10 倍,图像细节更精致丰富,分辨率高达2K,在文字在拼写和排版方面也得到了显著提升。谷歌同时发布了视频生成模型Veo3,对标 OpenAI Sora;Veo3 是首次可以生成带有音频的视频,在音画同步、画面细节、物理模拟等多方面表现惊艳,已开放给71 个国家的用户使用。谷歌充分融合了多模态能力,推出 AI 电影创作应用 Flow,将用Veo + Imagen+Gemini能力进行融合,展现其电影级的画面内容生成能力。这一系列工具产品有望在内容创作、广告影视、教育等多个行业产生深远影响。除此之外,本次发布会,谷歌还发布了 Project Aura AR 眼镜、Gemini Live、编程智能体Jules 等多款产品,一扫前期被 OpenAI 压制的阴霾,多项 AI 能力实现反超。

谷歌开源 A2A 协议,携手 MCP 打造 AI Agent 应用新生态。在2025 年4 月的GoogleCloud Next 25 大会上,谷歌开源了 Agent2Agent (A2A) 协议。相较于MCP协议实现的 Agent 与工具和 API 的连接,A2A 协议目标打破系统孤岛,为Agent之间提供了一种标准交互方式,使它们能够相互协作,可以在各种底层平台上执行动作。A2A 协议是通过让客户端 Agent 和远程 Agent 之间通信来实现的,客户端负责制定和传达任务,远程端负责执行任务。同时,A2A 还支持Agent 之间相互发送消息,这些消息可以包含上下文信息、回复、工件或者用户指令,以支持更好的共同完成复杂任务。A2A 一经发布就获得了大量厂商加入,包括埃森哲、波士顿咨询集团、凯捷、科尼、Salesforce、Atlassian、Intuit、MongoDB、甲骨文、SAP、麦肯锡等 50 多家著名企业。Agent 成为 AI 产业发展最确定性趋势,谷歌此举有望复制曾经安卓生态。

谷歌推出 AI Agent,将通过 Gemini API 开放给开发者,扩大谷歌AI 生态。本次大会上,谷歌 Project Mariner AI 智能体也即将上线,此前命名为Jarvis(贾维斯)。与 OpenAI 的 Operator 智能体类似,Project Mariner 也是一个用于网络的 AI 智能体,运行在浏览器中的虚拟机上,根据用户指令,行程规划和目标,并采取行动。目前 Project Mariner 可同时处理 10 项任务,例如用户提出采购特定食物需求后,其完成“查找食谱 → 生成购物清单→在线下单”的全流程。目前,Project Mariner 使用工具现已登陆 Gemini API,Gemini SDK 现在兼容MCP协议,智能体模式即将来到 Chrome、搜索和 Gemini 应用。

谷歌推出两款 AI 订阅,Ultra 版本定价高于 ChatGPT Pro 近50 美元。基于本次I/O 大会众多产品升级和推出,谷歌也推出了两个 AI 订阅等级。Google AIPro订阅价格为每月 19.99 美元,包括 Gemini 2.5 Pro、视频生成模式Veo 2,以及2TB云存储。Google AI Ultra 订阅价格为每月 249.99 美元,包括最新的Gemini2.5Pro 深度思考模式、视频生成模式 Veo 3,以及 30TB 云存储。Ultra 版本主要集成了谷歌全栈式 AI 能力,尤其是面向创意专业人士、开发者与学者,价格高于 OpenAI(200 美元/月)和 Anthropic(200 美元/月)。

阿里:Qwen3 性价比再大幅提升,BC 两端Agent 生态加速

阿里 Qwen3 发布,包含六款密集模型与两款混合专家模型。2025 年4 月29日,阿里正式发布 Qwen3,标志着阿里巴巴首次推出混合推理模型。Qwen3 在推理、指令遵循、工具运用及多语言任务方面能力显著提升。Qwen3 六款密集模型,参数量分别为 0.6B、1.7B、4B、8B、14B、32B;两款 MoE 模型分别为30B 总参数、3B激活参数;235B 总参数、22B 激活参数。Qwen3 开源全系列模型,一经发布便登顶全球最强开源模型。尤其在性能和成本的上实现了惊人提升,以DeepSeek-R1三分之一的参数规模,就达成了性能的全面超越,仅需4 张H20 GPU 便能部署完整功能的 Qwen3 模型。

wen3 预训练的数据规模更大、质量更高。Qwen3 使用的数据量几乎是Qwen2.5的两倍,达到了约 36 万亿个 token,涵盖了 119 种语言和方言。数据集包括从网络上收集的数据和从 PDF 文档中提取信息,并且使用Qwen2.5-VL 从文档中提取文本,用 Qwen2.5 改进提取内容的质量。同时为了增加数学和代码数据的数量,利用 Qwen2.5-Math 和 Qwen2.5-Coder 这两个数学和代码领域的专家模型合成数据,包括教科书、问答对以及代码片段等多种形式的数据。模型的训练分三个阶段,分别是: 阶段一:学习基本的语言技能和通用知识。在超过30 万亿个token 上进行了预训练,上下文长度为 4K token。 阶段二:通过增加知识密集型数据(如 STEM、编程和推理任务)的比例来改进数据集,随后模型又在额外的 5 万亿个 token 上进行了预训练。阶段三:使用高质量的长上下文数据将上下文长度扩展到32K token,确保模型能够有效地处理更长的输入。 由于模型架构的改进、训练数据的增加以及更有效的训练方法,Qwen3 模型整体性能更优越。在 Dense 基础模型方面,Qwen3 Dense 基础模型的整体性能与参数更多的 Qwen2.5 基础模型相当,例如,Qwen3-1.7B/4B/8B/14B/32B-Base分别与Qwen2.5-3B/7B/14B/32B/72B-Base 表现相当。在 STEM、编码和推理等领域,Qwen3Dense 基础模型的表现甚至超过了更大规模的 Qwen2.5 模型。与顶尖模型相比,旗舰版 Qwen3-235B-A22B 在代码、数学、通用能力等基准测试中,与Deepseek-R1、OpenAI-o1 和 Gemini-2.5-Pro 等 模 型 比 表 现 出很强的竞争力。小型模型Qwen3-30B-A3B 在激活参数数量是 QwQ-32B 10%的情况下,表现更胜一筹。

Qwen3 具有 3 个核心亮点,具备多种思考模式、多语言以及增强的Agent能力。作为国内首个实现“混合推理”的模型,Qwen3 深度融合了人类直觉思维与逻辑推演机制,模型支持两种思考模式:1)思考模式:在这种模式下,模型会逐步推理,经过深思熟虑后给出最终答案。这种方法非常适合需要深入思考的复杂问题。2)非思考模式:在此模式中,模型提供快速、近乎即时的响应,适用于那些对速度要求高于深度的简单问题。在强大数据量的支持下,Qwen3 模型支持119种语言和方言。同时优化了 Qwen3 模型的 Agent 和 代码能力,也加强了对MCP的支持。

Qwen3 模型广泛覆盖多元应用场景,为各类需求提供精准适配方案。对于本地测试及科研范畴,Qwen3 - 0.6B 与 Qwen3 - 1.7B 凭借较低硬件要求,为快速实验搭建便利平台;在手机端侧应用场景内,Qwen3 - 4B 有效平衡性能与效率,为移动端部署提供理想选择;针对电脑或汽车端的对话系统、语音助手等应用情境,Qwen3 - 8B 可充分满足其功能需求;企业落地场景,面对复杂任务挑战,Qwen3-14B 与 Qwen3 - 32B 以卓越性能实力从容应对;而在云端高效部署方面,MoE架构的 Qwen3 - 30B - A3B 速度出众,Qwen3 - 235B - A22B 则凭借强劲性能与低显存占用优势,成为该场景的优选方案。

Qwen3 原生支持 MCP,能够更加准确的识别外部函数和进行多工具的串联和并联调用,具备高效的 Agent 开发性能。根据 Qwen 官方的示例,在思考模式下,让Qwen3 旗舰版调用 MCP 工具,统计并绘制某个 Github 项目的历史新增增长图,Qwen3 能自主围绕复杂任务进行思考和拆解,并围绕5 项外部工具进行任务规划和工具调用,示例中 Qwen3 表现出的 Agent 性能非常卓越。Qwen-Agent 内部封装了工具调用的模板和工具调用解析器,大大降低了代码复杂性。在Agent测评中,Qwen3 创造了 70.8 分的 BFCL 评测新纪录,超越谷歌Gemini、OpenAI。根据Qwen团队表示,Qwen 正从专注于训练模型的时代过渡到以训练Agent 为中心的时代。Agent 的全面广泛应用,将是 AI 产业发展下一驱动力。

阿里前瞻成立魔搭社区,MCP 应用快速增长。魔搭社区成立于2022 年6月,是一个模型开源社区及创新平台,由阿里巴巴通义实验室联合CCF 开源发展委员会,共同作为项目发起方。目前,魔搭社区模型总量已超过5 万个,涵盖LLM、对话、语音、文生图、图生视频等多个领域,已服务超过1300 万开发者。2025年4月15 日,魔搭社区推出全新 MCP 广场,上架千余款 MCP 服务,包括支付宝、MiniMax等全新 MCP 服务在魔搭独家首发。截止同年 6 月 7 日,MCP 服务数量已提升至3524个,Agent 应用呈现快速膨胀之势。目前根据社区对MCP 服务分类,开发者工具、搜索工具、浏览器自动化等应用占比较高。热度最高的MCP 服务为Fetch网页内容抓取、高德地图、12306-MCP 车票查询工具、支付宝MCP 等。

阿里 C 端 AI 进展:心流 Agent 主打科研,新夸克升级成为C 端流量入口。阿里在 2024 年推出 AI 搜索助手“心流”,定位于科研人员、高校师生、职场人员使用,核心功能包括智能搜索问答、长文本分析及辅助创作,支持学术论文的检索、总结等。心流 AI 背后由淘宝星辰大模型支持,据统计,心流AI 的长文本阅读准确率超过 99%,搜索问答能力超越 GPT-4,构建了千亿级别的专业知识图谱,语义理解能力领先市场。 阿里将夸克全面升级为“无边界的 AI 超级框”。2025 年3 月,阿里将夸克升级为“AI to C”的核心产品,也首次设立专职 CEO,在阿里AI 战略生态中地位显著提升。新夸克基于阿里通义的推理及多模态大模型,5 月再次升级“深度思考”功能。根据 AI 产品榜,今年 3 月、4 月,夸克以接近1.5 亿的月活跃用户,超过豆包登顶第一;5 月新纳入榜单的百度网盘排名第一,夸克第二,但差距较小,目前月活超过 1.5 亿。最初夸克仅是一款轻量级浏览器产品,随着不断和AI技术的融合,在搜索、网盘、文档等领域均获得用户认可。新夸克已不再是一款单一工具,而是 AI Agent 应用代表,其可自动识别用户意图,调用不同模型和工具来完成任务。自 2023 年阿里将夸克列为四大战略级创新业务以来,夸克的用户规模以每年翻倍的速度增长,00 后用户占比超过 50%,在2024 年中国市场移动端AI应用中占比最高。

阿里 B 端 AI 进展:大模型和 Agent 本地化落地,合作伙伴至关重要,亚信科技成为阿里云 AI 闭环关键一环。随着 Qwen3 模型尺寸变小,且性能更强,国内环境下 AI 本地化部署仍是 AI 产业发展的重要领地。在面对千行百业的个性化需求时,阿里需要合作伙伴帮其做用户需求梳理和定制化开发,目前亚信科技是其核心合作伙伴,双方在软件和硬件生态均进行了合作。近期,亚信科技和阿里云联合推出“算力+平台+应用+服务”四位一体的大模型一体机解决方案,面向各行业提供从需求梳理、规划设计到私有化部署的“开箱即用”的大模型软硬一体全流程产品服务。其中阿里基于自身软硬件优势,一体机具备极高的性价比,支持单机16卡轻量部署,支持全精度 16/8/4-bit 下高并发满血版DeepSeek-R1 671b;生态友好,适配多种主流框架。亚信科技提供覆盖需求梳理、方案设计、数据赋能、模型优选、系统集成、效果验证等的全流程服务,解决Qwen 和Agent 落地企业最后一公里。目前双方在政务、电力、制造、石化等多个行业形成典型案例,例如在制造企业,双方共同赋能客户的 AI 文件解析、智慧客服、BOM 物料搜索、智能招商采购,大幅提升运营效率。根据亚信科技披露数据,25Q1 大模型交付业务订单大幅增长,进一步验证 AI 落地产业趋势。

字节:发布多模态 Agent,Coze 空间开始商业化

字节跳动推出的 UI-TARS-1.5,一款基于视觉-语言模型构建的开源多模态智能体,它能够在虚拟世界中高效执行各类任务。该版本不仅在7 个典型的GUI图形用户界面评测基准中取得 SOTA 表现,而且首次展现了其在游戏中的长时推理能力和在开放空间中的交互能力。UI-TARS-1.5 基于此前提出的原生智能体方案UI-TARS,通过强化学习进一步增强了模型的高阶推理能力,使模型能够在“行动”前先进行“思考”,显著提升了模型在面对未知环境和任务时的泛化能力。

UI-TARS-1.5 的核心功能包括增强视觉感知、System 2 推理机制、统一动作建模以及可自我演化的训练方法。这些技术支撑使得 UI-TARS-1.5 能够实现精准的GUI操作,并且在执行复杂任务时展现出优秀的多步规划与决策能力。此外,UI-TARS-1.5 还展示了以游戏为载体来增强基础模型推理能力的新愿景,通过“思考-再行动”机制可以像人类一样“打游戏”,并且在Minecraft 这样的开放环境中表现出色。这种结合了视觉、推理、记忆与操作的一体化架构,让UI-TARS-1.5成为当前最具代表性的开源智能体框架之一。

火山引擎借力 AI 保持高速增长,全面支持 MCP 生态。2024 年火山引擎实现收入超 120 亿元,凭借 AI 领域的增长驱动力,2025 年营收目标超过250 亿,未来目标将达到千亿收入规模。2024 年,中国公有云大模型调用量达114.2 万亿Tokens,其中火山引擎份额第一,高达 46.4%。2025 年 3 月,豆包大模型日均tokens调用量 12.7 万亿,同比增长近 100 倍。在此基础上,火山引擎于2025 年5 月发布大模型生态广场 MCP Servers,集成丰富工具实现全链路开发闭环,极大地简化了开发流程,开发者可高效构建 AI 应用。通过“MCP Market(工具广场)+火山方舟(大模型服务)+Trae(应用开发环境)”深度协同,AI 应用繁荣将进一步拉动云业务增长。目前 MCP Servers 已有 178 种服务,主要为开发者工具较多,火山引擎相关服务为主,也有飞常准(航班数据)、汉得精准营销(用户行为分析)等优质三方生态工具。

扣子空间开启内测,重点突破复杂任务 Agent。2025 年4 月,字节跳动Agent产品扣子空间(Coze Space)正式开启内测,旨在“成为用户与AI Agent协同办公的最佳场所”。扣子空间能够自动分析用户需求并拆解为多个子任务,并调用工具(如浏览器、代码编辑器等)执行任务。扣子空间引入专家Agent 体系,也提供通用 Agent 入口,并支持 MCP 生态。例如,在Coze agent 中可以添加MCP扩展,如“水滴信用”,可以快速在任务中查询企业的工商信息、股权结构等信息。通过 MCP 的扩展,Coze 解决复杂任务能力大幅提升。

Coze 商业化开始推进,AI Agent 将成为变现利器。随着AI Agent 成为AI应用逐步落地的范本,海量企业和开发者将基于Coze等平台来进行自己Agent的搭建,Coze 商业化也迎来新的发展窗口。目前 Coze 推出个人免费版、个人进阶版、团队版以及企业版订阅套餐,各套餐的权益范围不同,采用包年包月+按量付费的混合计费模式。相较于个人版,Coze 团队版和企业版套餐提供更强大的功能支持,例如更高的资源额度、企业级安全特性等。

大量创新 agent 开始涌现

Manus 向全球用户开放注册,推出“文生视频”功能。Manus 于2025 年3月发布,是全球首个通用 Agent 产品。Manus 在 GAIA 基准测试中取得了SOTA 的成绩,显示其性能超越 OpenAI 的同层次大模型,因此一经发布便一码难求。2025年5月12 日,Manus 宣布面向全球用户开放注册,无需等待名单,所有用户每天可免费执行一项任务(300 积分),所有用户一次性获得1000 积分奖励。Manus提供三档付费订阅方案,价格分别为每月 19 美元、39 美元和199 美元。开放注册后,Manus 也由原来“有限内测”转为“广泛应用”阶段。2025 年6 月,Manus进一步推出原生的“文生视频”功能,可以在几分钟内将文本命令转换为井然有序的视频,目前已经面向付费会员用户开放抢先体验。

Lovart 是全球首个专注于设计领域的 AI agent,与可灵AI 达成合作。Lovart由国内 AI 创作平台 Liblib AI 的海外子公司推出,一经发布,其全链路设计能力和无缝创意体验立刻受到全球设计师的追捧。Lovart 单次能生成多达40张设计成品图,相比于单纯的文生图,其更类似与专业设计师,协助完成整个设计任务。Lovart 的核心是建立在最先进的思维链(MCoT)之上,通过自然语言交互,形成初步的设计方案,大幅降低了设计门槛。Lovart 平台还无缝集成了AI 和非AI工具的完整矩阵--GPT4o、Stable Difusion、Flux、Triple、Ps、Figma 等等,允许设计师和创作者以完美的兼容性导入和导出任何设计格式。同时,Lovart保持着对话式命令、预测性建议、增强型画布界面三层交互系统,使用户更方便的将灵感转化为视觉设计。近期,Lovart 与可灵 AI 达成深度合作,Lovart 可以调用可灵 API,将其作为核心引擎嵌入视频生成流程。

目标颠覆 Chatbot 模式,Flowith 打造画布式的 AI 创作工具。Flowith于2024年 4 月由国内团队发布,已为数十万全球用户提供服务,根据2025 年5月数据,其流量环比 +240%、MAU 环比+228%,用户保持快速增长。flowith 定位为画布式AI 创作工具,主打多线程、非线性交互。用户可在同一界面同时与多个AI模型协作,支持长内容生成、多结果对比、Prompt 调试等复杂任务。Flowith支持多个主流模型 GPT-4、Claude 3.5、Gemini Pro、DeepSeek R1 等,将用户各种杂乱知识进行“画布式”可视化整理,形成自己的知识花园。Flowith 应用场景主要在内容创作、产品设计、教育培训等方向,已推出多种收费版本。

Flowith 发布 Agent NEO,全球首款无限流 AI 工具。NEO 于2025 年5 月19日正式发布,其是全球首个支持无限步骤、无限上下文、无限工具的AI Agent。NEO一经推出就受到了广泛的追捧,公司宣称在 0 营销投入的情况下,已实现了130万美元的 ARR 收入。在 GAIA 智能体评测标准的三个等级中,Neo 不仅超越了Manus,还创下了新的评分记录。其三大特性来看,“无限步骤”:赋予了Neo 支持超过1000 个推理步骤,实现任务进程无限延长,完成长达数小时甚至数月的复杂任务,特别适用于超长周期项目。“无限工具”:通过 Oracle 框架,Neo 可根据需求动态调用无限数量的工具,涵盖图像生成、联网搜索、提示词优化等,满足多样化的任务需求。“无限上下文”:可支持长达 10M token 的上下文窗口,具备处理超大规模数据的能力,能够生成诸如长篇小说、复杂代码库等完整输出。NEO的无限特性让其在多种场景与竞品拉开优势,但其对云端算力和网络依赖较大,尤其超长任务会出现成本上升。

在大模型能力稳步迭代下,Agent 称为 AI 落地确定产业趋势,各类应用有望百花齐放。除了互联网巨头基于自身模型推出 Agent 产品之外,众多创新Agent持续涌现,尤其在 MCP、A2A 等协议开源后,通用和垂直Agent 应用将进一步普及,开始在各类工作流中崭露头角。基于三个热门创新 Agent,腾讯科技进行了多个场景的测评,三大产品在定位和场景上均有明显差异。首先,Manus 和Flowith为通用 Agent,Manus 侧重交付完成数字化工作结果,通过分解任务,并调用一系列工具将结果落地;Flowith 也能完成通用任务,但是其强调“可视化协作”,侧重知识库的建设,并可通过无限步骤完成超大任务。而Lovart 深度垂直于设计场景,拆解用户需求,并采用多模态能力完成设计工作。其次,在应用场景上,Manus擅长知识类工作,如市场研究报告,法律文件阅读分析;Flowith 擅长信息量巨大且需要多人迭代的创作场景,例如通过大量文献,多人来完成产品研发;Lovart的重点则在品牌视觉与内容营销上,例如生成海报和视频广告。另一方面,各AIAgent 产品也有自身的局限性,仍需持续迭代,但其价值和商业模式已经逐步形成,产业趋势已确立。

算力需求依然景气,租赁订单持续落地

互联网巨头保持高投入,自建和租赁算力并行

FY2025 阿里巴巴资本开支同比高增。阿里巴巴 FY2025 资本开支为859.72亿元人民币,同比+167.93%,资本开支快速扩张,用于 AI 相关基础设施建设(例如AI服务器、IDC 等),进一步夯实公司在 AI 云领域的优势地位;分季度来看,FY2025Q4资本开支为 246.12 亿元,同比+120.68%、环比-22.54%,受贸易摩擦和供货节奏波动影响,环比下滑。 阿里巴巴未来 3 年资本开支指引乐观。2025 年 2 月,阿里巴巴集团CEO 吴泳铭宣布,未来三年,阿里巴巴将投入超过 3800 亿元,用于建设云和AI 硬件基础设施,总额超过去十年总和;因此,我们预计 2025 年阿里巴巴资本开支将持续扩张,AI相关基础设施(包括算力租赁)等需求旺盛。

FY2025Q1 腾讯资本开支同比高增。腾讯 FY2025Q1 资本开支为274.76 亿元人民币,同比+91.35%、环比-24.88%,同比高增,受贸易摩擦和供货节奏波动影响,环比下滑。从公司财年来看,FY2024 合计资本开支为 767.6 亿人民币,同比+221%,资本开支快速扩张。 腾讯 2025 年资本开支持续上行。根据腾讯 2024 年财报披露数据,预计2025年资本开支持续上行,主要满足公司 AI 相关领域需求,包括:1)内部业务需求(例如广告、内容推荐、游戏等);2)训练基础模型;3)为AI 应用(元宝、微信AI 等)提供推理支持;4)为外部客户提供云服务。综上,随着2025 年腾讯资本开支上行,公司对 AI 相关基础设施建设需求持续提升。

互联网大厂对 AI 基础设施建设的需求快速提升,自建和租赁均积极投入。自建算力基础设施方面,互联网大厂需自己完成相关服务器、AI 芯片的采购,以及建设供电系统、冷却系统、安全及监控系统、网络系统等。租赁算力基础设施方面,互联网大厂通常会与被租赁公司签订算力服务合同,约定服务年限及合同金额,相关服务器、AI 芯片采购以及 IDC 等基建由被租赁公司完成。

各厂商积极响应,算力租赁订单持续落地

海南华铁:累计签订算力订单 66.7 亿元。公司 2024 年5 月首次开展智算业务,拟投资 10 亿元,为客户提供 2400p 算力服务;2025 年3 月5 日,公司披露《算力服务协议》,新获算力订单 36.9 亿元;根据公司《海南华铁:浙江海控南科华铁数智科技股份有限公司投资者关系活动记录表 20250428》披露数据,2025年一季度公司算力业务进展显著,新签算力订单 41.95 亿元,累计签订算力订单达66.7亿元,新交付算力资产 4.88 亿元,累计交付智算设备资产达11.59 亿元。

有方科技:子公司同航锦科技深度合作。公司 2023 年11 月中标中国电信宁夏公司算力服务项目,订单额 0.95 亿元;2024 年 7 月26 日,公司控股子公司有方数据与航锦科技签署《战略合作协议》,双方拟统筹推进智算中心、数据存储、数据灾备、融合计算等业务的合作落地,在智算中心业务拓展方面,航锦科技在智算算力集群租赁及服务的市场拓展、建设、运营和维护等方面逐渐积累了技术和经验,有方数据在高性能存储服务器、存储软件等云基础设施方面逐渐积累了产品和技术,双方将在智算和存储市场进行协同合作,共同拓展市场,共同推广双方优势产品和服务。

智微智能:成立控股子公司,深入 AIGC 基础设施建设。根据公司公告披露数据,24 年 1 月公司出资设立子公司南宁市腾云智算,注册资本2000 万元,公司以货币资金出资 1020 万元,持有腾云智算 51%的股权。腾云智算定位为AIGC基础设施全生命周期服务商,围绕 Al 算力规划与设计、设备交付、运维调优、算力租赁、算力调度管理、设备维保及置换等提供端到端的智算中心全流程综合服务,目前主要服务于互联网大厂及运营商等对训练算力要求较高的客户。根据2024年报披露数据,24 年子公司腾云智算实现营业收入 3.0 亿元,净利润1.74 亿元,净利率为 58%,盈利能力优秀。

润建股份:绑定阿里大客户。公司 2023 年 7 月,在五象云谷云计算中心基础上,拟投入资金 2 亿元打造智能算力中心,提供最高可达2533Pops(Int8)定点算力或 43Pflops(FP32)单精度浮点算力及配套云存储,服务于人工智能大模型、行业模型等;2023 年 11 月,公司发布公告,公司控股子公司五象云谷与阿里云就算力服务和数字化云签署了《合作协议》,由润建股份投资2500P 算力服务器部署在五象云谷,由五象云谷提供算力基础底座所需的数据中心电力、制冷等基础环境,由阿里云参与建设“中国-东盟智算云”统一平台,对算力底座统一管理、统一运维和统一运营。

协创数据:算力租赁先行者,发布算力采购大单。根据2024 年3 月29 日公司披露的《协创数据:2024 年 3 月 29 日投资者关系活动记录表(2023 年度网上业绩说明会)》,公司已经开始布局算力租赁业务。2024 年10 月,公司间接控股子公司广州奥佳向上海域允采购 GPU 服务器,预计采购金额不超过9 亿元;2025年3 月,公司拟向多家供应商采购服务器,采购合同总金额预计不超过人民币30亿元,主要用于为客户提供算力租赁。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告