2025年第52周计算机行业周报:OpenAI发布GPT_5.2_Codex,谷歌发布Gemini3Flash

算力动态:算力租赁价格平稳,OpenAI 发布 GPT-5.2-Codex

1.1、 Tokens 跟踪

根据 OpenRouter 公开数据,2025 年 12 月 15 日至 12 月 21 日,周度 token 消耗量有所 上升,调用量为 5.85T,环比上周 1.21%。在 tokens 规模 leaderboard 前五名中,xAI 旗下 GrokCodeFast1 以 518Btokens 位居榜首;Google 的 Gemini2.5Flash 以 440B 位列第二; Anthropic 的 ClaudeSonnet4.5 以 417Btokens 排第三;OpenAI 的 GPT-OSS-120B 和 Anthropic 的 ClaudeOpus4.5 分别以 215B、209Btokens 位列第四、第五。 从市场份额维度来看,Google 以 212Btokens 占据 22.9%的份额,稳居首位;xAI 以 125Btokens 占比 13.6%,位列第二;Anthropic、OpenAI、Deepseek 则分别以 121B、88.1B、 86.9Btokens,对应占据 13.1%、9.5%、9.4%的市场份额。

1.2、数据跟踪:算力租赁价格平稳

上周算力租赁价格平稳。具体来看,显卡配置为 A100-40G 中,腾讯云 16 核+96G 价格 为 26.97 元/时,阿里云 12 核+94GiB 价格为 31.58 元/时;显卡配置为 A800-80G 中,恒源云 16 核+256G 价格为 7.50 元/时。

1.3、产业动态:AI 编程领域新里程碑,GPT-5.2-Codex 发布与产业影响

2025 年 12 月 19 日,OpenAI 正式推出智能体编码模型 GPT-5.2-Codex,官方明确其定 位为“迄今为止最先进的智能体编码模型”,核心目标是承接复杂实际软件工程任务,将 传统中耗时、高难度的开发工作交由 AI 处理,进一步推动软件工程自动化进程。该模型并 非全新构建,而是基于 GPT-5.2 的通用能力基础,融合 GPT-5.1-Codex-Max 在智能体编码与 终端操作的专项优势,针对实际开发痛点进行深度优化,已成为 OpenAI 内部 Codex 团队成 员的日常主力工具。 GPT-5.2-Codex 显著提升了指令遵循能力与长远语境理解能力,通过“上下文压缩”技 术改进长期工作表现——在处理跨步骤、长时间的编程任务(如持续数周的大规模代码重 构)时,能有效维持对大型代码库的完整上下文记忆,避免信息丢失,即使任务中出现计 划变更或尝试失败,也能持续迭代而不中断进度。同时,模型在编码任务的词元效率上有 显著提升,尤其在中等和高推理水平场景下,能以更高效的 Token 使用完成复杂推理。 针对开发者实际工作环境,GPT-5.2-Codex 重点优化了 Windows 环境下的性能,在原生 Windows 系统中进行智能体编码时,效率与可靠性显著提升,可流畅完成代码编译、依赖安 装、服务配置等典型终端操作。在大规模代码变更场景中,模型表现尤为突出,无论是代 码重构还是代码迁移,均能保持高稳定性,减少人工干预需求。

GPT-5.2-Codex 的网络安全能力超越 OpenAI 此前所有模型,可辅助安全研究人员完成 漏洞发现、模糊测试、攻击面分析等防御性安全工作。OpenAI 通过长期跟踪发现,从 GPT5-Codex 到 GPT-5.1-Codex-Max,再到本次发布的 GPT-5.2-Codex,模型在网络安全领域的能力呈阶梯式飞跃,尤其在专业夺旗赛(CTF)中,其解决 Linux 环境下高级、多步骤安全 挑战的能力远超前代模型。不过,官方也明确该模型尚未达到内部“准备框架”定义的 “高”网络安全能力级别,需警惕能力带来的两用风险,因此在部署中需搭配严格安全措 施。

在开发者社区中,GPT-5.2-Codex 已形成明确的协作模式:搭配 ClaudeCode 生成原始 代码,再由 GPT-5.2-Codex 进行代码审查,精准查找流程问题与细微 Bug。同时,模型还能 缓解开发者拖延症——面对复杂任务时,即使无法给出完美答案,也能提供高质量起点, 帮助开发者快速启动迭代。对于企业而言,模型可自动化处理最复杂、重复的工程任务 (如代码库导航、PullRequest 创建与审查),减少人为失误,提升团队竞争优势。 2025 年 12 月,Privy(Stripe 旗下公司)首席安全工程师 AndrewMacPherson 利用 GPT5.1-Codex-Max 搭配 CodexCLI,在研究 React 漏洞“React2Shell”时,通过引导模型完成 “搭建本地测试环境→分析攻击面→模糊测试探测畸形输入”的标准防御流程,不仅复现 了目标漏洞,还意外发现并披露了 3 个此前未知的 React 服务器组件漏洞,最终被 React 团 队官方确认修复。该案例证明,先进 AI 模型可大幅缩短从“漏洞假设”到“验证披露”的 周期,成为安全研究的关键工具。

为平衡可用性与安全性,OpenAI 采用分阶段、差异化的部署策略:1.即日起,所有付 费 ChatGPT 用户可在所有 Codex 平台(含 CLI、IDE 插件、网页端)使用 GPT-5.2-Codex; 2.计划未来几周内向 API 用户逐步开放访问权限;3.启动“仅限邀请的可信访问试点”, 为经过审核、专注于防御性网络安全的专业人士与组织提供更宽松的访问模式,支持其开 展威胁模拟、恶意软件分析等合规工作。这种分层访问机制既保障了普通开发者的使用需 求,也为高风险领域的安全应用设置了防护门槛。 尽管模型在防御性安全中价值显著,但其强大能力也带来两用风险——若被不法分子 滥用,可能成为生成攻击代码、挖掘漏洞用于破坏的工具。随着智能体系统在网络安全相 关任务中的能力不断增强,OpenAI 正在把负责任的部署作为一项核心优先事项——将能力 的每一次提升与更强大的安全措施、更严格的访问控制以及与安全社区的持续合作相结合。

AI 应用动态:Deepl 周时长环比+56.70%, 谷歌发布 Gemini3Flash

2.1、 周流量跟踪:Deepl 周时长环比+56.70%

本期(2025.12.11-2025.12.17)AI 相关网站流量数据:访问量前三位分别为 ChatGPT (1297.0M)、Bing(769.0M)和 Gemini(394.1M),访问量环比增速第一为 Character.AI (4.25%);平均停留时长前三位分别为 Character.AI(00:18:12)、Discord(00:10:41) 和 Kimi(00:08:42);平均停留时长环比增速第一为 Deepl(56.70%)。

2.2、 产业动态:谷歌发布 Gemini3Flash,以卓越性能 重塑行业标准

2025 年 12 月 18 日,谷歌正式推出了其新一代人工智能模型——Gemini3Flash。它以 一种前所未有的方式,打破了人工智能领域长期以来“速度与智能不可兼得”、“性能越 强则成本越高”的固有认知,预示着 AI 技术与应用范式可能进入一个新的阶段。 此次发布的 Gemini3Flash,是 Gemini3 模型家族中的重要一员,与 Gemini3Pro 及 GeminiDeepThink 共同构成了完整的产品矩阵。该模型在发布后可通过 GeminiAPP、 AIStudio、GoogleAntigravity 以及 GeminiCLI 等多个平台向全球用户免费开放。这意味着, 普通用户无需额外操作或付费,便能即刻体验到这一最新技术成果。

从性能表现来看,Gemini3Flash 的核心突破在于实现了“速度”与“智能”的罕见统 一。根据官方披露的基准测试数据,其响应速度达到了前代 Gemini2.5Pro 模型的三倍,实 现近乎“零延迟”的交互体验,用户输入指令后,答案几乎同步呈现。然而,其革命性并 不仅仅体现在速度上。更特别的是,在部分需要高阶认知能力的任务中,例如编程智能体 任务和复杂的多模态理解与推理,Gemini3Flash 的表现甚至略微超越了定位更高端的同代 “大哥”Gemini3Pro,扭转了人们对于“轻快版本必然在能力上有所妥协”的刻板印象。 具体到评估指标,Gemini3Flash 在多项权威基准测试中展现了顶尖水平。在 MMMUPro 测试中取得了 81.2%,反超 Gemini3Pro 的 81.0%。在 GPQADiamond(90.4%)和 Humanity’ sLastExam(无工具条件下 33.7%)等博士级推理和知识基准测试中展现了前沿性能,足以 媲美一些规模更大的主流模型。在 SWE-benchVerified 基准测试中,其得分 78%同样领先于 Gemini3Pro。在 LMArena 排行榜上,Gemini3Flash 的表现实现了显著跃升,位列第三。这 一系列卓越成果强有力地证明,模型的速度与规模并非必然要以牺牲其智能水平为代价。

从技术实现与效率角度看,Gemini3Flash 是专为高效能而设计的典范。它并非采用单 一的推理模式,而是具备动态调节其“思考量”的智能机制。在面对高度复杂的任务时, 模型可以分配更多的计算资源进行深度处理;而在典型的日常交互流量下,它则能以极高 的效率运行。数据显示,在完成同等性能要求的日常任务时,其平均 Token 消耗量比前代 Gemini2.5Pro 减少了 30%。这种自适应优化能力使得其在质量、成本与速度三者之间成功推 动了帕累托前沿的边界。

尤为关键的是,如此卓越的性能并未伴随着高昂的使用成本。相反,Gemini3Flash 的 定价策略极具竞争力。其 API 调用成本仅为 Gemini3Pro 的四分之一左右,具体定价为每百 万输入 Token 零点五美元,每百万输出 Token 三美元。 Gemini3Flash 的推出,对开发者与用户均具有重大意义。对于开发者而言,其高速度 与低延迟特性完美契合快速迭代及高频交互场景,在智能体编码、生产级系统构建及实时 响应应用中实现了性能与效率的卓越平衡;同时,其强大的多模态推理与工具使用能力, 显著拓宽了复杂应用开发的边界,使构建实时视频分析、数据提取与视觉问答等应用变得 更为经济可行,演示案例显示,它能够近乎实时地辅助游戏交互、生成设计变体,甚至通 过解析语音或草图快速生成应用原型。对于广大用户而言,该模型作为默认模型集成至 GeminiApp 及搜索 AI 模式,意味着日常助手体验的全面升级,能够以极快速度处理视频分 析或复杂查询,推动 AI 从演示技术转化为高效实用工具。虽然关于下一代 Gemini4 的猜测 已开始浮现,预期其可能聚焦于提升智能体的主动性、对物理世界的更深层理解、长程记 忆能力乃至辅助科学发现等方向,但毫无疑问,Gemini3Flash 树立了重要标杆,标志着高 性能 AI 正变得触手可及且响应迅捷,一个更注重实用效能与广泛普及的“智能平权”时代 或许正在到来。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告