安迪比尔定律将会演变为詹森奥特曼定律。
安迪比尔定律来源于:“Andy gives,Bill takes away。”Andy 指的是 Intel 原 CEO 安迪〃格鲁夫,Bill 则是微软的比尔〃盖茨。这句话的含义是英特尔向市场推广了一款 新型芯片,微软会及时升级自己的软件产品吸收新型芯片的性能。 安迪比尔定律保证了摩尔与反摩尔定律的运行。英特尔创始人戈登〃摩尔提出著名 的摩尔定律,即集成电路的集成度每 18 个月翻一番;同时反摩尔定律也得以推导出来, 即 IT 产品每 18 个月价钱降一半。正是摩尔定律的存在使得程序员不再斤斤计较内存与 速度,加快开发速度从而更好地完善功能和用户体验;同时新的软硬件产品具备老的产 品不可比拟的易用性和可靠性,保证了反摩尔定律的正确性。 安迪比尔定律暗合了微软和 Intel 之间的利益诉求,本质上是把耐用品转变为消费 品,加速迭代。微软为了维护它在操作系统垄断地位,不断添加新功能,提升了对硬件 产平台的需求,让硬件厂商受益,再将新利润投入研发,按照摩尔定律预计的速度提升 硬件性能,从而为微软进一步更新软件做好准备。这种软件吃硬件,硬件迭代更新满足 软件迭代的模式本质上就是把 IT 产品从耐用品转变为消费品,加速迭代,这在事实上也 促进了 Wintel 联盟的形成。

从个人电脑生态链来看安迪比尔定律:微软为首的软件开发商吃掉硬件,迫使用户 更新新机器让惠普和戴尔受益,整机厂再向 Intel 订购芯片、向 Seagate 等订购外设。 该生态链的传递有实际的例子,2006 年上半年,因为微软的 Vista 迟迟不能面市,从 Intel 到惠普、戴尔等整机,再到 Marvell 和 Seagate 等外设厂商销售都受到很大影响,这些 公司股票下跌了 20%-40%。微软的 Vista 上市之后,微软自身的业绩和股价立刻得到提 升,此后英特尔、惠普、戴尔等得到增长,股价大幅度提升。 Android 系统不断发展促使了手机硬件不断升级。Android 系统号称无硬件限制,但是低配臵的手机是很难运行高级系统的。从表 1 中可以看出,Android 从 1.0 进化到 4.4 版本,CPU、内存和屏幕都发生了极大地变化,CPU 频率从 528MHz 增加到 2.5GHz, 内存以 RAM 为例从 192MB 增加到 2GB,屏幕也从 3.17 寸增加到了 5.1 寸。
安迪比尔定律给硬件带来了空间,给软件带来了利润。一方面,根据安迪比尔定律 的诠释,计算机的性能增加都被新的软件吃掉了,也即各个硬件厂商靠软件的提升来开 发自己硬件新的应用市场,从而赢得了发展空间。另一方面,安迪比尔定律也使得软件 处于产业链的上游,从事 IT 产业要想获得高利润,就要从上游入手,从微软到谷歌,再 到 Facebook 都是如此。但苹果是例外,苹果通过硬件实现了软件的价值,因为人们把 苹果看成一种潮流和时尚。 “复杂问题上云”和“算法轻量化适配终端”是解决算力瓶颈的两条主流路径。智 能终端的发展要遵循安迪比尔定律,意味着无论硬件性能提升多大,都会被软件更新换 代消耗,而软件的更新不会停止决定了终端算力的持续稀缺。为了解决这一问题,“上云” 和“轻量化”成为两个重要的解决路径。
安迪比尔定律将延续,但软硬件的领头羊预计都将发生变化,硬件层面,GPU 将会 替代 CPU 成为主力算力,而代表性人物也将从安迪变为 Jensen Huang,软件层面 GPT 将会替代 window 成立通用平台代表,代表性人物也将从比尔变为 Sam Altman。因此, 安迪比尔定律将会演变为詹森奥特曼定律,除了名称的转变,从通用平台,到基础设施, 再到应用层面的变革传递,以及算力需求的体量增长预计都将产生巨大变化。
4.1 定律延拓:软件、AI 计算变革,安迪比尔将延续
GPTs 是 Windows、AppStore 之后新一代的超级平台,同时大语言模型指数级算 力需求与线性增长的区域算力基建产生矛盾。软件大的革新都会诞生新的超级平台,从 Windows,到 AppStore,再到 GPTs 都不例外,当前的 GPTs 有望成为新一代的 AGI 服务入口和软件调度枢纽。以智能编程为例,大语言模型支持下的编程助手能够覆盖从 需求分析、架构设计到代码编写等软件开发全生命周期流程,预计人类程序员将 80%的 代码交由语言大模型编写。除此之外,大模型还能够面对其他类别的复杂任务,实现多 模型协同组合等。但是大模型训练推理带来指数级算力需求增长,将与线性增长的区域 算力基建形成矛盾。根据商汤科技&智算联盟《新一代人工智能基础设施白皮书》援引 CSET(Center for Security and Emerging Technology)的《AI and Compute》报告:“在 计算价格没有任何变化的情况下,尖端模型成本预计将在 2026 年 6-11 月超过美国 GDP。”
AI 时代,通用平台更新,基础设施迭代,传导至应用层的规律依旧存在。操作系统 位于服务器产业链上游,大模型从产业链的角度来看类似于 AI 时代的操作系统,同样位 于产业链的上游。大模型的迭代会带来算力的大量需求,从而算力基础设施 CPU、GPU、 内存等乃至产业链中游的服务器都会相继得到拉动,最后传导到应用层。从另一个角度 来看,大模型也可以视为是 AI 时代的超级应用,应用的迭代也会带来算力、模型基础能 力的需求,从而也会对算力器件、大模型基础架构带来拉动。
ChatGPT 发布,AI 进入 iPhone 时刻,相应公司二级市场表现出色。2022 年 11 月 30 日 OpenAI 发布具有多种能力的通用大模型 ChatGPT,上线仅 5 天用户数量突破 100 万,开启了人工智能的新时代,这也给产业链上下游公司带来了冲击:①英伟达、 Meta 是首先受益的两家公司,英伟达在 2022 年由于新冠疫情、全球芯片短缺,市值暴 跌 70%,最后由于 AI 对 GPU 的巨大需求从 2022 年底开始股价暴涨;Meta 可以在其 产品和服务中集成了自家或第三方的大型语言模型,以提升用户体验和服务质量,也在 第一时间反应到股价中,此外,2023 年 2 月, Meta 也发布开源机器学习模型 LLaMA 作为自身 AI 能力的证明。②ChatGPT 发布对以广告收益为基础的 Google 搜索引擎业 务带来了冲击,消沉一阵之后,2023 年 5 月 11 日,谷歌在 GoogleI/O 开发者大会上推 出 PaLM2 语言大模型,并宣称是当时最先进的大模型,开启了正式反击,股价由此开 始上涨。③超微电脑主要经营服务器解决方案的业务,与 AMD(超威半导体)区分开来, 其主要客户包括 OpenAI、谷歌、微软、Meta 等大型科技公司。公司的服务器机架可以 同时安装英伟达、英特尔和 AMD 的芯片,根据客户需求进行定制,形成高性能、稳定 的服务器系统,这种灵活性让超微电脑成为生成式 AI 时代的重要供应商。

4.2 产业传递:从基础设施、通用平台,到应用
基础设施-芯片
AI 时代需要新一代基础设施支持训练、推理和生成式 AI 应用落地。新一代 AI 基础 设施将以大模型能力输出为核心平台,集成算力资源、数据服务和云服务,专门设计用 于最大限度提升大模型和生成式 AI 应用的表现。该 AI 基础设施功能包括:数据准备与 管理、大模型训练推理、模型能力调用、生成式 AI 应用部署。在实际落地中,厂商还会 根据自身的经验,针对用户在训练和使用大模型时面临的 AI 技术问题,为用户提供围绕 大模型开发时间的咨询类服务。
算力需求指数级增长,GPU 迭代带来性能提升。以 OpenAI 为例,训练一次 1750 亿参数的 GPT-3 大约需要的算力约为 3640PFlops-day,共使用了 1024 块 A100(GPU) 训练了 34 天。而 GPT-4 参数量达到了 GPT-3 的 500 倍,使用约 2-3 万张 A100,训练 1 个月左右时间。如图 9,仅训练算力需求就发生了几何倍提升。除了训练外,推理也 将进一步推高算力需求,预计将远超训练阶段的用量。AI 新锐巨头 OpenAI 的创始人兼 CEO 萨姆〃奥特曼正在从中东地区筹集总计高达 7 万亿美元的资金,以支持公司的一项 半导体计划,并与英伟达展开竞争。黄仁勋认为七万亿美元能买下所有的 GPU,但除了 数量,还应关注计算机架构的进步,否则需要不切实际体量的燃料来支持 GPU 的消耗。
GTC2024,英伟达发布基于 Blackwell 架构的 GB200 超级芯片,性能提升功耗优 化。①Blackwell 小芯片有 1040 亿个晶体管,采用 TSM N4P 制程,两个 Blackwell 小 芯片组成一个 B100。两个 B100 GPU 和一个 Grace CPU 组成了一个 GB200 超级芯片。 ②Blackwell 拥有 20 PFLOPS 的 AI 算力,192 GB HBM3e,8TB/s 存储带宽,较 Hopper 在 FP4 规格算力提升 5 倍。如果要训练一个 1.8 万亿参数量的 GPT 模型,需要 8000 张 Hopper GPU,消耗 15 兆瓦的电力,连续跑上 90 天。但如果使用 Blackwell GPU, 只需要 2000 张,同样跑 90 天只要消耗 4 兆瓦的电力。
除了 GPU 之外,ASIC、FPGA、类脑芯片也将是 AI 芯片重要替代架构。ASIC 在 计算能力、功耗方面综合实力不会比 GPU 逊色,但灵活性稍差。FPGA 可编程的特性 提供了更多的灵活性,但是性能方面略逊色于 GPU。类脑芯片拥有最低的功耗,通信效 率高,但缺乏训练方法且精度较低。ASIC、FPGA、类脑芯片都有其自身的特性,将是 GPU 的重要替代品。
数据中心产品产生新浪潮,GPU、CPU、DPU、HBM 将成为重要组成部分。不止 GPU、CPU,随着 AI 数据中心的算力需求提升,DPU 和 HBM 也成为算力基础设施重 要的组成部分。DPU 专为数据传输和安全处理所设计,由用于网络、存储和安全的可编 程 ARM CPU 组成,以减轻 Hypervisor 的工作负载。而 HBM 是一种新内存,传统的内 存显卡是单独的 DRAM,安装在显卡的 PCB 板上,与 GPU 芯片分开,而 HBM 将内存 堆叠在一起与 GPU 集成在同一硅片上,提供更高的内存宽带和更低的功耗。
基础设施-算力集群
算力基础设施高性能和高效率需求,带来光变铜、液冷 0-1 革新。在集群训练下, 网络通信等问题会造成大模型训练效率的降低,而且大规模、长时间训练对 GPU 集群 稳定性也提出了更高的要求。因此以英伟达为代表性的厂商提出了一系列的变革措施来 提升算力基础设施的性能和效率。除了单个芯片能力的提升,3 月 18 日到 21 日的英伟 达 GTC 大会上,黄仁勋提出单个机柜内的传输从光纤变为铜线,减少了光电信号变换 的能量损耗,而且还能保持传输速度。此外,黄仁勋还提出 B200 的散热将变为液冷, 提升散热效率。
“AI 化”是 IT 架构变化的两大驱动力之一。一方面,从基础型到高性能,再到机 器学习服务器,CPU 成本逐步下降,从 30-35%下跌到 20-25%,再到 5-10%。另一方 面,从基础型到高性能,再到机器学习服务器,GPU 成本逐步上升,从 0%提升到 27-30%,再提升到 70-75%。与之印证的是,英伟达数据中心营收明显提升,而 Intel 则明显下降。

“云计算化”也是 IT 架构变化的两大驱动力之一。大模型应用能够帮助企业更高 效率的实现商业目标,但对于绝大多数企业而言,自研大模型成本高,且模型设计、训 练、调优等环节对开发人员专业能力要求较高。MaaS(Model as a Service,大模型即 服务)代表着一种全新的 AI 云服务范式,它将大模型作为 AI 基础设施的核心组成, 以云服务方式提供给开发人员和企业进行更高效的工业化开发。
通用平台
2022 年之前,人类在 AI 和 AI+应用场景方面进行了许多的探索,22 年底的 ChatGPT 正式使 AI 进入了 iphone 时刻。OpenAI 是基于 Transformer 基础模型推出 了 GPT 系列大模型。2019 年、2020 年,OpenAI 分别发布了 GPT-2 和 GPT-3,但并 未在市场上引起轰动,2022 年 11 月,OpenAI 发布 ChatGPT,ChatGPT 基于 GPT 技 术,通过大量的语料训练,可以模拟人类的对话方式和思维方式,从而实现了与人类的 交互。ChatGPT 迅速引爆市场,开启了 2023 年的人工智能热潮。除了生成能力,最新 的 GPT-4 还具有解释性、组合性和空间性能力。在视觉范畴内,虽然 GPT-4 只接受文 本训练,但 GPT-4 不仅从训练数据中的类似示例中复制代码,而且能够处理真正的视 觉任务,充分证明了该模型操作图像的强大能力。另外,GPT-4 在草图生成方面,能够 结合运用 Stable Difusion 的能力,同时 GPT-4 针对音乐以及编程的学习创造能力也得 到了验证。此外,GPT-5 预计将于 2024 年年中发布,它将在高级推理上实现质的飞跃。
我们认为,目前海外形成了几大云厂商对垒的局面。①第一组微软与 GPT,目前 OpenAI 旗下 GPT-4 于 2023 年 3 月 14 日发布,是千亿级参数的多模态预训练模型, 能够支持图像和文本的输入。②第二组 Google 与 PaLM,PaLM-E 于 2023 年 3 月 10 日发布,是一种多模态视觉语言模型(VLM),具有 5620 亿个参数,集成了可控制机 器人的视觉和语言能力。③第三组 META 与 LLaMA,大型语言模型 LLaMA 于 2023 年 2 月发布,包括 4 种参数规模。④第四组,亚马逊与 Claude,Claude 于 2023 年 3 月 14 日发布,是 Anthropic 开发的类似 ChatGPT 的聊天机器人,使用的是 constitutional。 国内包括互联网公司、科技公司以及创业公司都在积极跟进。互联网公司方面,百 度于 2023 年 3 月正式发布文心一言大模型。华为于 2021 年 4 月正式对外发布盘古预 训练大模型。科技公司方面,商汤发布“日日新 SenseNova”大模型体系,推出自然 语言处理、内容生成、自动化数据标注、自定义模型训练等大模型及能力,包括语言大 模型“商量 SenseChat”和一系列生成式 AI 应用。创业公司方面,前商汤员工创立 MiniMax,杨植麟创立循环智能、月之暗面。
AI 应用
基于企名片 Pro 的数据,我们进行了统计,年初至今,国内 AI 应用方向融资项目 共有 81 起。目前国内 AI 应用方向融资项目集中在智能机器人、工业智能、智能驾驶& 交通、AIGC 以及医疗、能源解决方案等领域。投资金额过亿的项目具体如下:芯控智 能的整体智能工程解决方案,赛美特的国产半导体智能制造软件,智元的人形机器人项 目,生数科技的产业级多模态大模型,爱诗科技的视觉多模态项目,神马工场大的 AIGC 数字人孵化营销平台,九识智能订单的全球领先的 L4级自动驾驶项目,月之暗面的 AIGC 项目,美克生能源的分布式绿色能源聚合服务项目,百应科技的对话式 AI 技术应用项目,清云能源集团的智慧综合能源服务和资产运营项目,猎户星空的智能服务机器人项目, 星动纪元 的具身智能及通用人形机器人项目,卓世科技的行业模型产品和解决方案项 目,国自机器人的移动机器人项目。其中,月之暗面的 AIGC 项目获得了 10 亿美元的 融资,为额度之最。
基于企名片 Pro 的数据,我们进行了统计,年初至今,国外 AI 应用方向融资项目 共有 59 起。项目集中于机器智能,工业,医疗、商业、安全解决方案方面。募资过千 万美元项目具体如下:Carlsmed 人工智能手术医疗平台,Hippocratic AI 生成式 AI 项 目,Lily AI 时尚电商优化产品推荐服务项目,together.ai 生成式 AI 项目,Cognition AI 全球首位 AI 软件工程师研发项目,Zephyr AI 智慧医疗解决方案项目,Tavus 人工智能 生成视频技术开发项目,Overjet 牙科 AI 软件开发项目,Rapid SOS 数据驱动急救服务 项目,Healthee 人工智能医疗保健平台,Glean 人工智能工作助理开发项目,Collov 室内设计 AI 工具开发项目,intenseye 人工智能工作场所安全平台,Genmo 人工智能 创意内容生成平台,Figure AI 的 AI 人形机器人研发项目,Abridge 医疗对话 AI 研发项 目,Vizio 智能电视生产项目,Flowerlands 大语言模型技术开发项目,Quilter 生成式电 路板设计软件开发项目,Kore.ai 企业对话人工智能平台,Codeium 生成式人工智能编 码工具包项目,Sema4.ai 人工智能技术应用服务提供项目,Sierra AI 的 AI 初创项目, Proof Technology 智能法务平台,RecraftAI 图形设计生成器项目,Artsight 人工智能 虚拟护理平台,Luma AI 3D 内容生成项目,Agrawal's AIinitiative 的 AI 初创项目, Perplexity AI 智能对话式搜索引擎项目。其中,最大的是 Vizio 智能电视生产商并购项 目共融资 23 亿美元。