中国的AI产业在“两个变局、一个飞跃”背景下,在十四五期间同步显性化,完成了由“技术”向“要素”的跃迁,具体体现为:
自2020年GPT-3横空出世以来,自然语言处理(NLP)领域迎来了前所未有的“大模型时代”其背后所采用的Transformer架构以“自注意力”机制为核心,摒弃了传统RNN、CNN在序列建模中的局部感受野与递归约束,将计算复杂度从O(㎡)的时序展开转化为O(n?)的并行矩阵乘法在GPU集群上实现了训练效率与模型容量的同步扩展。更为关键的是,当参数规模突破千亿级(≈1x10”)后,大模型在无需任何梯度更新的前提下,仅通过“提示-生成”范式即可在下游任务上呈现出陡峭的性能跃升--业界称之为“涌现能力”(EmergentAbilities)。这一现象在随后的一系列研究中被反复验证:当参数量、训练token数与算力(FLOPS)同时跨越某一临界阈值后,模型在逻辑推理、数学运算、代码生成甚至指令规划等复杂任务上的准确率均出现统计学意义的阶跃,标志着“通用人工智能”(AGI)的雏形首次在工程层面被确立。此前的视觉领域则呈现出截然不同的技术曲线。自2021年ViT-g/14达到90.45%后,ImageNet-1K的Top-1纪录提升幅度显著放缓,公开基准未再见大幅跃升,且伴随参数量的线性扩张,边际收益呈指数衰减;更为严峻的是,CV模型的跨场景泛化始终受限于“语义-几何”耦合瓶颈--在封闭数据集上训练的 SOTA 模型,一旦迁移至光照、视角、遮挡分布不同的开放场景,平均精度(mAP)普遍下降。为了弥补性能缺口,产业侧不得不采用“场景定制”模式:通过重标数据、重训模型、重调参数实现单点优化,导致研发成本随客户数量线性扩张,规模效应为负。资本定价迅速反映技术边际递减,2021-2023年,被冠以“CV四小龙”的商汤、旷视、依图、云从市值均出现大幅回撤,标志着“视觉红利”的终结。
与此形成鲜明对比的是,Transformer在视觉模态的“横向迁移”几乎毫无阻力。Google于2020年推出的 VisionTransformer(ViT)将图像切块(patch)后视为“词向量”,直接套用原始Transformer编码器,在ImageNet-21K上即取得88.5%的Top-1精度,首次证明“注意力机制”在二维信号上的表征能力不逊于卷积;随后出现的SwinTransformer、CvT、CoAtNet 等架构通过引入局部窗口、层次化下采样与卷积增强,进一步将视觉 Transformer 的参数量-精度曲线推向帕累托前沿。更为关键的是,当文本、图像、音频、视频被统一映射为“token”序列后,跨模态融合不再依赖繁琐的多分支网络,而仅需在Transformer输入层拼接embedding,即可实现端到端训练。
从技术-经济视角看,Transformer一统AIGC带来了三大结构性红利:其一,研发侧的规模效应终于成立--统一架构意味着底层CUDAkernel、通信库、编译器优化可在文本、图像、音频任务上复用,单次工程投入被多模态摊薄,平均训练成本大幅下降;其二,部署侧的边际成本递减--同一套推理引擎可承接任意模态请求,GPU利用率得以提升,单位算力产出大幅抬升;其三,数据侧出现“飞轮效应”--多模态模型在真实场景中不断回传高质量图文对齐数据,反哺预训练语料库,使模型精度与场景覆盖形成正循环。可以预见,随着参数规模继续向十万亿级迈进,Transformer 将作为通用引擎持续吞噬剩余“模态孤岛”,视觉、语音、图形、甚至结构化数据都将被纳入同一注意力视角,为即将到来的Agent时代提供“一个模型、任意任务”的底层支撑,为十五五期间Agent要素的“量价齐升”奠定了不可替代的算法基石。1.1 Transformer异军突起,CNN/RNN退居二线
自2017年《AttentionIsAllYouNeed》发布以来,Transformer架构从根本上重塑了人工智能研发。这一创新为大型语言模型(LLM)和视频语言模型(VLM)定了基础,推动了整个行业的产品化浪潮。ChatGPT于2022年11月的公开推出,将Transformer驱动的人工智能带入主流使用。然而,高效运行LLM带来了巨大的挑战,尤其在边缘计算设备和大型语言模型广泛采用之前设计的传统硬件架构上。先前最先进的CNN(卷积神经网络)、RNN(环神经网络)已退居二线、传统CNN进行简单运行时只有两个阶段:数据加载阶段和推理阶段,但如今LLM的多阶段运行时系统需运行五个不同阶段,每个阶段都有不同的计算和内存要求。与传统人工智能网络相比,这种多阶段复杂性显着加剧了LLM的部署难度。同时管理多个阶段、维护KV缓存以及处理阶段之间的动态转换给高效的LLM部署和资源管理带来了巨大的挑战。

当今使用的几乎所有主要LLM都建立在Transformer架构之上。无论是OpenAI的GPT系列、Google的 PaLM和 Gemini、Meta的LLaMA、Anthropic的 Claude,自注意力、位置编码和层归一化的底层机制仍然是核心。虽然参数、训练数据集和优化策略不断发展,但Transformer块结构继续充当支柱。
此外,Transformer引入的自注意力机制仍然是人工智能领域最通用的创新之一,该机制模型动态关注输入的不同部分,从而优化模型的上下文理解能力,目前没有其他架构能与注意力机制的灵活性和可扩展性相媲美,注意力机制成为算法基座。
“十四五”期间,中国人工智能算力体系完成了从“可用”到“好用”、从“引进”到“自主”的惊险一跃,通过“芯片能效曲线-算力中心形态-举国体制定价权”三条主线同步逼近拐点,最终重塑了产业对“算力成本”与“算力安全”的双重预期。定性来看,这一拐点由三条彼此咬合的链条驱动:国产AI芯片在架构侧完成“从0到1”后进入“能效收敛”阶段;数据中心产业由通用IDC(互联网数据中心)转向专用AIDC(人工智能数据中心);国家层通过“东数西算”与“算力券”把价格形成机制收回公共部门。三股力量同时发生作用,使得“算力”开始具备公共事业属性,也为后续Agent要素化提供了成本可预期、供给可控制、安全可验证的底座。首先,国产AI芯片的能效曲线在十四五阶段走出明显的“追赶-收敛”形态。由于美国2021年以后的实体清单限制,英伟达A100及H100的对华供应被卡死,国内云厂商与服务器厂被迫大规模评估国产方案。经过 2022-2023年稀疏化架构、Chiplet封装和本土制程良率爬坡,壁仞、沐曦、天数等第二代产品在FP16稠密算力/功耗比上开始具备“可替”条件。政策支持下,国产卡进入“政府-市场”双轮轨道,这是边际成本继续下降的关键条件。
其次,数据中心形态出现“AI化”重构。传统IDC围绕“机柜租金+带宽溢价”定价,功率密度4-8kW,PUE1.5左右,面对GPU训练负载30-100kW/柜的爆发式功耗立刻显得捉襟见肘:市电扩容周期长、风冷散热极限低、树形网络延迟高。以甘肃庆阳为例,其在国家数据中心集群(甘肃·庆阳)“东数西算”产业园区数据中心建设指南中明确要求:(1)新建数据中心单项目规模应不低于3000个标准机架,平均单机架功率不低于8kW,等级达到国标A级。(2)PUE要求:新建大型、超大型数据中心 PUE应≤1.20。虽然各地执行进度不同,但方向一致--把放服务器的机房升级为放算力的工厂,让电费而非机柜租金成为成本主体。产业界因此出现“冷板液冷”’“浸没液冷”“预制化变电站”等新供应链,IDC运营商的财务报表也开始把“电力成本”单独列示,并同地方政府谈判“绿电+补贴”包干价,这是传统IDC从未有过的商业模式。
定性来看,AIDC与IDC的最大区别是:前者出售的是“瓦特x时”转化来的“FLOPSX时”后者出售的是“平方米x月”:当电力成本占比超过45%,算力中心就天然具备公共事业属性,必须靠“规模-低价-长周期”回收投资,而非“高租金-短租约”快速周转,这正是政府端能介入定价的前提。
最后,国家通过“东数西算”和“算力券”把价格形成机制收回公共部门,政府不再只是提供“地+电”的招商模式,而是通过补贴系数、能效比、贴现利率调节供需。这一制度变迁的深远影响是:算力价格不再由高端芯片巨头定价,而是由“公共部门-市场”共同决定,意味着AI产业第一次拥有了“财政-货币”双重逆周期工具--当资本开支过热时,可降低补贴系数;当外部供应链受限时,可定向贴息,保证大模型训练成本始终处于企业可承受区间。
综合来看,十四五期间国产AI芯片能效从追赶到收敛、数据中心形态由通用IDC向专用AIDC的强制演进,以及国家通过“电力补贴+算力券”收回定价权,三者共同构成中国AI算力的质变轮廓。我们认为,未来五年,随着工艺-封装-液冷继续迭代,中国智算中心有望率先进入“算力即电费”的平价阶段,从而把AI训练与推理的门槛压到全球最低区间,这是观察Agent要素能否“量价齐升”最核心的底层变量。
“十四五”时期,国内人工智能产业在“数据”这一生产要素上出现的最大跃迁,公共数据由“政务共享”升级为“财政级要素”的制度闭环正式跑通。标志事件有三:一是2022-2023年财政部连续就《企业数据资源相关会计处理暂行规定》公开征求意见,并于2024年1月1日起在全国施行,数据首次在会计意义上被确认为“可辨认无形资产”或“存货”,从而具备入账、摊销、减值、质押的全部条件;二是2023年《中共中央国务院关于构建数据基础制度更好发挥数据作用的意见》(“数据二十条”)提出“公共数据政府指导定价、二级市场协商定价”的两级价格体系。明确把政府掌握的原始数据作为全社会数据定价之“锚”;三是2024年国家发展改革委、国家数据局在多个政策解读中反复强调“公共数据运营收益纳入财政,用于反哺数据治理和公共服务”。三条政策相互咬合,形成了“政府授权-企业开发-市场定价-财政分成”的完整价值链,使公共数据可以借助资产入表机制把未来现金流提前折现为政府和企业资产负债表上的“硬资产”
从财政视角观察,这一制度变迁的直接影响是地方政府获得了一条新的、可持续的非税收入来源。资产入表机制则把数据进一步转化为“资产”,使政府与企业在不增加隐性债务的前提下获得一次性融资空间。
需要强调的是,公共数据“财政化”并不意味着政府可以随意扩大分成比例或无限质押融资。国家发展改革委在2025年相关政策解读中强调建立数据资产收益分配机制,提出“谁投入、谁贡献、谁受益”的原则。此外,国家数据局正在建立公共数据资源登记制度、授权运营规范以及相应的信息披露机制,明确合规政策和管理要求,配合有关部门加强对公共数据产品和服务价格的指导和管理。这些制度安排表明,公共数据“财政化”并非回到“土地财政”的老路,而是通过透明定价、限额分成、强制审计把数据收益锁进“预算笼子”使其成为可审计、可追责、可预期的正规财政渠道。
综合来看,十四五期间公共数据完成了“政务共享→授权运营一资产入表→财政分成”的四级跳,其制度意义远高于短期收入规模,其意义有三个层面:首先使得政府拥有了新的与土地无关、却可自我造血的资产负债表渠道;其次使企业拥有了不依赖抵押土地、却可质押融资的新型无形资产;第三,使AI产业拥有了由政府背书、价格可预期、供给可持续的“财政级”数据原料池。随着数据治理成本持续摊薄、运营场景不断丰富,公共数据分成收入与资产估值仍有提升空间,但制度框架已提前设置天花板和审计阀,避免重蹈“土地财政”式泡沫。
对于人工智能产业而言,这意味着未来五年的大模型训练与Agent场景落地将获得一条“预算内”低成本、高确定性、安全合规的数据供给通道,从而显著降低商业应用中的数据获取与合规风险,为“数据要素XAI”真正进入规模经济提供了制度底座。
回顾十四五阶段,2020-2025年被普遍视为中国计算机视觉智能产业的“转折五年”技术端:ImageNet-lk单标签分类精度逼近90%理论天花板,模型参数与算力再扩大两个数量级仅带来0.2-0.3%的纳米级增益,研发弹性跌破1,标志着以“结构创新+监督微调”为核心的传统技术栈进入边际收益递减区间;需求端,地方政府土地出让收入持续下滑,安防类专项债发行规模萎缩,导致智慧交通、城市大脑等视觉项目预算出现负增长,算法溢价被迅速摊平。“十四五”期间,供给曲线与支付曲线同步下移,形成“双杀”格局,视觉人工智能由高速渗透期转入公用事业化阶段。
需求层面:土地财政退坡与政府采购曲线左移。首先,财政乘数收缩,以往,视觉AI的2G订单占国内市场大部分份额,资金来源高度依赖地方政府土地出让金与专项债。财政部数据显示,2024年国有土地使用权出让收入4.87万亿元,同比下降16%,自2021年全国土地出让收入创历史新高达到8.7万亿元以来,2022年、2023年、2024年较上年的增速分别为-23.3%、-13.2%、-16%对应“雪亮工程”“智慧交通”类招标项目数量减少,需求曲线快速左移。其次,回款周期拉长,城投平台资金紧张直接拉长AI系统付款周期,A股代表性四家视觉智能安防企业(海康威视、大华股份、千方科技、苏州科达)2021年平均应收账款周转天数138天,到2024年升为174天,又进一步导致视觉厂商营运资金占用率上升,从而形成负反馈。
技术侧:“精度一算力”弹性<1与需求侧“土地财政乘数”<1同时出现,使视觉 AI行业在十四五期间面对“双杀”局面:继续投入难以获得差异化,不投入则立刻丧失项目投标资格,行业经历一次产能出清、价格寻底、毛利率磨底的公用事业化过程。

从十四五之前,我国人工智能政策就规划并引领完成了由产业工具向社会治理基础设施的跃迁整体沿着“攻关一筑基一应用一变革”四个阶段循序推进,为“十五五”期间人工智能成为公共治理的通用底座奠定了合法性、制度性与财政性框架。
阶段一:攻关(2017-2019)
2017年国务院发布的《新一代人工智能发展规划》首次将人工智能上升为国家战略,提出“三步走”目标:2020年与世界同步,2025年部分领域领先,2030年总体领先。文件把“突破基础理论与核心算法”列为首要任务,启动首批国家重大科技专项,并在北京、上海、合肥等地批复国家新一代人工智能创新发展试验区,形成“揭榜挂帅”机制,集中攻克GPU、深度学习框架、开源平台等“卡脖子”环节。这一阶段的政策关键词是“技术攻关”,,治理目标聚焦于“不被断供”,尚未触及社会应用层面的制度安排。
阶段二:垝入筑基(2020-2021)
2021础共性、安全伦理”纳入国家标准清单,标志着政策重心从“单点技术”转向“制度底座”年《数据安全法》《个人信息保护法》相继生效,为后续AI大规模应用划出“数据红线”;2023年底,工信部等六部门发布《算力基础设施高质量发展行动计划》,提出到2025年,计算力方面,算力规鐜赘超过 300EFLOPS,智能算力占比达到35%,东西部算力平衡协调发展,并计算力、运载力逕脑、存储力以及应用赋能四个方面提出了到2025年发展量化指标,引导算力基础设施高质量发展。制度层面,2020年3月18日,批准成立全国信息技术标准化技术委员会人工智能分技术委员会(SAC/TC28/SC42),秘书处设在中国电子技术标准化研究院(以下简称“电子标准院”)。
阶段三:应用(2022-2023)
2022年科技部等六部门印发《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》,首次以国务院部门文件形式提出“场景创新”概念,提出制造、农业、物流、金融、商务、家居等重点行业深入挖掘人工智能技术应用场景,促进智能经济高端高效发展。2023年7月由国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局等七部门于联合发布《生成式人工智能服务管理暂行办法》,在全球率先对AIGC实施“备案+安全评估双轨管理,要求服务提供者在上线前完成算法备案、训练数据来源说明、有害信息过滤机制测试,并建立用户投诉举报通道。该文件被视为“AI应用法”,标志着政策关注点从“技术可用”转向“内容可信”,为社会佺治理层面的规模化部署提供了合规模板。
阶段四:跃迁(2024-2025)
2024年《政府工作报告》首次在“社会治理”段落而非“产业升级”段落提及人工智能,要求“深化人工智能研发应用,开展'人工智能+’行动”;2024年6月,工信部等四部门联合印发《国家人工智能产业综合标准化体系建设指南(2024版)》;2025年8月国务院印发《关于深入实施“人工智能+”行动的意见》,给出2027/2030/2035三阶段量化目标:2027年形成3-5个全球领先的通用大模型、100个以上高质量行业大模型、1000个规模化落地场景;2030年:人工智能核心产业规模超1万亿元,带动相关产业突破10万亿元;2035年成为全球AI创新高地,全面支撑新型工业化与数字经济。
纵观十四五期间发布的政策来看,一是推动技术创新,强调数字技术与各领域的深度融合,促进技术迭代升级;二是强调规范性,明确技术应用的规则和边界,确保技术应用的安全、可靠;三是关注技术在推动经济和社会发展方面的作用,旨在通过技术赋能实现经济高质量发展和社会变革;
四是重视技术应用的安全性和伦理问题,保障技术发展与人类价值观相协调。政策旨在一方面,推动技术更好地服务社会,提升经济和社会发展的质量和效益;另一方面,确保技术应用的安全、可靠和可持续,防范技术风险,保障社会公共利益和公众合法权益,促进技术与社会的和谐共生,通过强调场景落地、产业规模、安全治理三位一体,以及专项基金、税收优惠、政府采购、标准认证多管齐下,对A产业的支持力度不断加强,奠定了未来五年中国人工智能产业成为经济转型引擎的坚实政策底座和保障。