AI 新基建开启“三浪变革”。
第一浪是“知识生产力变革”,大模型是知识工程的生产力变革,天然具有跨领域知识的连接性。上一次知识革命是 11 世纪的毕昇发明的泥活字印刷术、15 世纪的古登堡发明的铅活字印刷术,让人类千年历史中积累的庞大知识工程通过印刷书籍形式推广传承,知识从手工抄写到活字印刷速度提升了118倍,自此浩瀚的知识源源不断地从印刷作坊以令人惊叹的速度向全球传播,堪称中世纪的“知识互联网”。在比尔盖茨的《未来之路》中提到,在谷登堡印刷革命之前,整个欧洲大陆大约只有 3 万册书,几乎都是圣经或圣经评注性著作,而到了1500 年,各类题材的图书猛增到 900 多万册。各种传单和其他印刷物影响了政府、宗教、科学以及文学。宗教精英圈子以外的人士第一次有机会接触到书面信息。据多方研究数据表明,大型语言模型显著提高知识学习速度、知识检索速度、知识传播速度、知识推荐准确性,具有跨语言、跨学科领域、跨信源的独特优势。在人机协同模式下,大型语言模型将人类科学论文的阅读时间缩短40%,知识搜索时间缩短 20%,而这仅仅是 ChatGPT 出现一周年的“起点”,鉴于大型语言模型远超人类的超高速学习能力,预计将在 2026 年学习完所有人类历史上的高质量文本数据1。人类的知识革命大幕刚刚开启,高新科研、三大类产业、公共服务的知识型工作范式正在遵循“计算->数据->模型->服务”链条重构。
第二浪是“软件变革”,每次软件大革新,都会诞生新的超级平台,颠覆原数字经济霸主,从 Windows、AppStore 到 GPTs 都不例外,当前智能编程助手改变代码生产流程,大语言模型成为新一代 AGI 服务入口、软件调度枢纽。20 世纪 90 年代,未来学家雷·库兹韦尔发现指数级发展的规律:“一旦技术变得数字化,即被编辑为 0 和 1 表示的计算机代码,它就能够脱离摩尔定律的舒服,开始呈指数级加速发展。”所以数字经济中每一代超级平台企业都是软件创新型企业。中国程序员人数位居全球第二,世界上最好的开发语言应是中文,例如商汤科技发布的“代码小浣熊”Raccoon 智能编程助手,覆盖软件需求分析、架构设计、代码编写、软件测试等环节,支持中文、英文注释生成代码、跨编程语言翻译、单元测试用力生成、代码修正(改 Bug)、代码重构、编程技术知识问答,在 Python、Java、C、C++、Go、SQL 等 30 多种主流编程语言,以及 VS Code、IntelliJ IDEA 等主流集成开发环境(IED)上,提升开发者编程效率超过 50%,并在以 71%的一次通过率刷新 HumanEval 测试集成绩(GPT-4一次通过率 67%)。从此人类程序员将 80%的代码量交由语言大模型编写,人类开发专家的时间和精力逐步转移到更具创新性和高价值的工作中,商汤称其为软件 2.0 时代的“新二八定律”。

另一方面,多篇权威论文显示,大型语言模型能够面对复杂任务,灵活自动实 现 多 软 件 串 行 、 多 模 型 协 同 组 合 , 例 如 AI Agent 、MoE架构(Mixture-of-Experts)、综合型智能客服、GitHub Copilot 等,能在日常使用中跨模型共享成果、快速学习迭代、增强安全性与伦理性保障。在庞大AI 算力规模、训练数据集基础上,新一代 AI 原生软件应用,导致“传统软件智能化,智能软件枢纽化”全面普及,尤其是那些能满足目前还难以预知需求的新工具,新一代青少年将在新兴 AI 软件与 MaaS 模型化创新思维逻辑上成长起来,并将新型生产力软件带入办公室与家庭。
第三浪是“AI 计算变革”,在大型语言模型的 Scaling Law(规模定律)指数级算力需求,与线性增长的区域基建投入矛盾下,AI 算力基础设施将迎来大量技术工程创新,持续降本增效,普惠优势让 AI 真正成为赋能千行百业的通用型基础设施,同时“百模大战”变为 AI 产业专业化分工。据AI Now《计算能力和人工智能》报告指出,早期 AI 模型算力需求是每21.3 个月翻一番,而2010 年深度学习后(小模型时代),模型对 AI 算力需求缩短至5.7 个月翻一番,而 2023 年,大模型需要的 AI 算力需求每 1-2 个月就翻一番,摩尔定律的增速显著落后于社会对 AI 算力的指数级需求增长速度,即“AI 超级需求曲线”遥遥领先传统架构的 AI 算力供给,带来了 AI 芯片产能瓶颈、涨价等短期市场现象。CSET (Center for Security and Emerging Technology) 在《AI andCompute》报告中预测:“在计算价格没有任何变化的情况下,尖端模型成本预计将在2026年 6-11 月超过美国 GDP。”未来学家雷·库兹韦尔认为,从1890年到现在,人类计算设备的(单位时间)的运算能力一直在成倍增强,每当一项指数型技术(例如符合摩尔定律的芯片技术)的实用性达到极限时,就会有另一项技术取而代之。所以,针对大模型高昂的训练成本、有限的GPU供应量、芯片间通讯瓶颈的核心挑战,各国均采用大规模智能基建资源投入,并在AI 芯片、智能算力集群、大模型架构、专用模型加速等技术栈环节创新突破,相信在未来3 年通过一系列基础设施的技术革新,持续降低 AI 计算整体成本(采购、建设与运营),释放出各行各业的生成智能全民应用创新能力,尤其是推理算力成本下降,对中国 AI 2.0 的大市场、大用户量至关重要。同水电煤等平价公共服务一样,人人用得起 AI 算力,人人训得起 AI 数据,人人做得好AI 模型。
