2025年电子行业深度报告:AI眼镜引领多模态新应用落地,端侧SoC芯片兼具高性能与低功耗

一、AI 浪潮推动端侧需求增长,应用场景多点开花

1.1 生成式 AI 大模型技术迭代,边缘算力部署趋势明确

DeepSeek-R1 推出,AI 模型参数规模更小,推理成本更低。AI 推理模型 DeepSeek-R1 于 2025 年 1 月 20 日发布,并同步开源模型权重。其模型参数 671B,在数学、代码、自然语言推理等任务 上,性能比肩 OpenAI o1 正式版。同时推出了不同参数量版本的蒸馏小模型,32B 和 70B 模型在 多项能力上对标了 Open AI o1-mini 的效果。随后,Doubao-1.5-pro、Kimik1.5、Qwen2.5-VL 等 多个国产模型陆续发布,通过提升算法效率和资源优化,强化学习和推理计算,提升了大模型性 能,同时极大降低成本。

多种技术推动 AI 模型保持高效并缩小参数量: 模型蒸馏和新颖的 AI 网络架构:新技术能够在不影响质量的情况下简化开发流程,让新模 型的表现超越之前仅能在云端运行的更大模型。蒸馏是能够让大模型“教学”小模型,保持 准确性的同时迁移知识,使得小型基础模型激增,包括众多面向特定任务调优的定制模型。 先进的量化和剪枝技术:量化、压缩和剪枝等进一步优化技术,有助于缩小模型规模。量化 能够降低功耗,且在不明显影响准确性的情况下通过降低精度加速运算,剪枝可以消除不 必要的参数。

高性能生成式 AI 小模型激增,从云到端 AI 部署门槛降低。随生成式 AI 的发展和计算量需求的 增长,AI 的规模化处理演变为云端和终端相结合的模式。混合 AI 架构中,可根据模型和查询需 求的复杂度等在云端和边缘终端之间分配协调,如模型大小、提示(prompt)和生成长度小于某 个限定值,并能够提供可接受的精确度,推理即可在终端侧进行;如任务更复杂,则模型可跨云 端和终端运行。目前,多个主流模型如 DeepSeek R1、Meta Llama、IBM Granite 和 Mistral Ministral 都推出了小模型版本,且面向特定任务的性能和基准测试都表现出色。大型基础模型 缩减为更小、更高效的版本,实现了更快的推理速度、更少的内存占用和更低的功耗,并能保持 较高的性能水平,从而使小模型适合在智能手机、PC 和汽车等终端上部署。云端大模型参数量 级可达上百亿至数千亿,端侧大模型参数量较小,主流端侧大模型参数量约为 10-20 亿不等。随 着高性能模型的参数量缩小,以及端侧处理能力的提升,端侧 AI 应用的规模有望进一步增长。 相较云端推理服务,端侧模型的即时性、隐私性高,且结合本地数据做更多定制化功能,同时为 用户/开发者降低成本,激励了软件和服务提供商的商用应用部署,开源模型也使更多厂商参与 生态建设,推动边缘 AI 创新。预计 2028 年中国端侧市场规模为 19071 亿元,2023-2028 年复合 增速为 58%。

1.2 SoC 芯片增长强劲,AI 端侧快速渗透

SoC 芯片集成度高,功耗低,性能全面。SoC 芯片是系统级芯片(System on Chip)的简称,即 单片系统/片上系统,是将多个系统关键部件集成在单一芯片上,可以实现完整系统功能的芯片 电路。SoC 芯片通过缩小尺寸,并融入专为集成而设计的软件和互连结构,进一步优化体积和功 耗,增强系统可靠性,性能上远超标准多芯片系统,效率显著提升,广泛应用在各类电子终端设 备的运算及控制。SoC 芯片通常包含一个或多个处理器内核、存储器、以及各种外设和接口,用 于执行各种复杂的计算和控制任务: 处理器核心:包括 CPU、GPU、NPU 等,用于执行指令、极端和控制数据流等。 存储器:包括高速缓存(Cache)、RAM 和 ROM 等,用于存储数据和程序。外设接口:如 USB、以太网、HDMI 等,用于与其他设备通信 。 电源管理单元:用于电源供应和功耗管理。实现低功耗运行,延长设备的电池寿命。 其他功能模块:如音频处理器、数字信号处理器(DSP)等,根据应用需求定制。

SoC 芯片市场持续增长,亚洲市场份额最高。随着自动驾驶渗透率逐步提升,IoT 和通讯设备的 采 用 率 激 增 , 以 及 AI 浪 潮 和 机 器 学 习 的 浪 潮 席 卷 , SoC 芯 片 需 求 逐 步 提 升 。 根 据 MarketsandMarkets,全球 SoC 市场规模预计 2029 年达约 2060 亿美金,2024-2029 年 CAGR 约 8.3%。其中亚洲和北美的市场份额领先,2023 年亚洲市场规模占比 37%,预计中国和印度等国家 SoC 市场规模将持续快速增长。

SoC 市场主要由国际厂商主导,国产厂商在多个细分领域发力。全球核心 SoC 厂商包括高通 (Qualcomm)、联发科(MediaTek)、三星(Samsung)、苹果(Apple)和博通(Broadcom)等, 主要下游应用领域包括消费电子、智能驾驶、医疗健康、AI 计算、物联网、工业控制等。国内厂 商在消费电子领域从中低端逐步向高端渗透,汽车电子方面加速国产替代,AIoT 及工控等领域 产品已广泛应用。

SoC 端侧 AI 需求拓展,从传统智能手机、PC、智能汽车到多模态场景。移动设备、物联网和可穿 戴设备对能效及紧凑型设计的需求日益增长,SoC 芯片以小尺寸和高处理能力加速了其设备端的 市场应用。生成式 AI 在手机、PC、汽车等传统消费电子端侧应用的多样化需求和计算需求的垂 直领域不断增加,设备硬件性能需求提升。SoC 集成神经网络处理器(NPU)可实现低功耗加速 AI 推理,并随着 AI 模型的技术升级和需求多样化的发展不断演进。

1.2.1 智能手机生成式 AI 搭载率提升,高性能 SoC 处理器量价齐升

AI 手机出货量占比逐步提升。根据 IDC 定义,AI 手机通常指 NPU 算力大于 30TOPS(INT8)、搭 载支持生成式 AI 的 SoC 并支持端侧大模型的手机。预计 AI 手机全球市场出货份额将于 2028 年 达到 54%(Canalys),国内出货份额 2027 年将超 50%(头豹研究院)。手机厂商逐渐从旗舰机型 向中端机型下放 GenAI 功能,加速端侧 AI 落地。自 2024 年三星发布 Galaxy S24 系列搭载高通 骁龙 8 Gen3 处理器芯片,端侧处理通话翻译、图像处理和语音转写等场景,带动 AI 手机市场快 速增长。苹果、华为、三星主导高端市场,小米、vivo、OPPO、荣耀等加速普及。

AI 手机 SoC 芯片价值量占比高,随下游渗透量价齐升。高性能 SoC 厂商包括联发科、高通、苹 果、紫光展锐、三星、华为海思等。根据赛迪顾问数据,SoC 在 AI 手机的成本结构占比约 14%, 物料成本中的占比为 30.4%,仅次于手机屏幕。随着性能和工艺提升,高端 SoC 芯片价格也逐代 增长。以高通为例,每代骁龙 8 系旗舰芯片的初期供货价格涨幅超 20%,骁龙 8Gen4 价格可达约 1700 元。

1.2.2 AI PC 拉动市场增长及产品创新,Arm 处理器渗透率提升

AI PC 出货量提升迅速,带动 PC 市场增长明显。AI PC 为带嵌入式神经处理单元 NPU 的 PC,包括 在 Windows on Arm、macOS on Arm 和 x86 on Windows PC 上安装 NPU 的 PC。AI PC 可以通过本 地部署应用在办公、娱乐、医疗等多个场景提供辅助。多款 AI PC 产品 2024 年推出,根据 Canalys 及 Gartner 数据,2024 全年 AI PC 的出货量占比为 17%,出货量超 4300 万台,同比增长 99.8%; 份额逐季度提升,其中 2024Q4 的 AI PC 出货量达 1540 万台,出货量占比达 23%。预计 2025 年 AI PC 全球出货量 1.14 亿台,同比增长 165.5%;渗透率将增至 43%。Canalys 预计大中华区的AI PC 出货量占比到 2029 年可达 77%。同时,PC 市场整体增长稳定,2024 全年 PC 出货量为 2.53 亿台,同比增长 2.6%;25Q1 全球 PC 出货量同比增速为 6.8%(Counterpoint)。AI PC 叠加国补促 销、Windows 10 于 2025 年 10 月支持终止、关税政策变化等因素,推动换机周期加速和产品创 新。

芯片厂商竞争升级,ARM 架构与端侧应用需求适配度高。根据 Techinsights,AI PC 处理器市场 规模从 2023Q1 的 6.87 亿美元增至 2024Q2 的 22 亿美元,预计 2029 年 AI PC 处理器市场将增至 346 亿美元,年复合增长率 42%。AI PC 处理器目前分为两种主流架构 x86 和 Arm 架构,x86 适合 复杂 AI 任务,如视频渲染、科学计算等,Windows/Linux 操作系统主导的软件兼容性好;Arm 架 构低功耗优势明显,适配端侧的轻量化 AI 任务,如实时翻译、生成式修图等。随着 x86 的低功 耗性能优化,Arm 架构性能提升,AI PC 端侧也向高性能低功耗加速升级。2025 年搭载 ARM 架构 CPU 的笔记本电脑市场份额将达到 20%,2029 年有望达到 40%以上。市场竞争格局方面,AI PC 处 理器主要由英特尔、AMD、高通、苹果等厂商主导,英特尔的 x86 架构处理器深耕高端市场,如酷 睿 Ultra200;苹果和高通等厂商采用 ARM 架构的处理器,如苹果 M 系列和高通骁龙 X Elite,高 通和微软合作 Copilot+PC 推动 Window on Arm(WOA)加速适配,随 AI PC 渗透而切入新的增长 点。

1.2.3 AI 驱动汽车智能座舱和辅助驾驶渗透率提升

AI 驱动汽车智能座舱渗透率提升,软硬件生态快速融合。智能座舱可以作为数字助手提供友好的 人机界面和人机交互,并为生态系统创造新的创收。盖世汽车研究院将智能座舱定义为同时具备 8 英寸以上中控屏、语音交互、车联网和 OTA 四个功能模块的座舱配置。根据 Canalys,目前 AI 主要应用于驾驶员侧,或行车环境,也就是完成车内外传感器调用,进行驾驶员监控,以及将周 围环境,直观,高效反馈给驾驶员。在相应场景下,短期如何将 AI 应用于驾驶员提醒,以及通 过学习消费者习惯,完成执行建议,是将 AI 功能具象化的切入口。国内乘用车智能座舱渗透率 稳步提升,截止 2024 年 12 月渗透率达 75.6%(盖世汽车数据)。Canalys 预计中国智能座舱渗透 率 2025 年达 79.7%。

ADAS 智能驾驶加速落地,L2 级及以上辅助驾驶渗透率高。根据灼识咨询数据,全球智能驾驶解 决方案市场规模将由 2023 年的 2687 亿元提升至 2028 年 5609 亿元,复合年增长率为 15.9%。其 中中国市场规模由 2023 年的 681 亿元提升至 2028 年的 1642 亿元,复合年增长率将达到 19.2%, 高于全球增速。随着 ADAS 技术不断成熟,消费者辅助驾驶需求提升,L2 级及以上高级驾驶辅助 系统(ADAS)渗透率持续增长,Canalys 预测 2025 年中国市场 L2 级及以上辅助驾驶功能渗透率 将达 62%,L3 辅助驾驶市场渗透率有望达到 4.6%。L2 级别高速 NOA(导航辅助驾驶)和城市 NOA (城市导航辅助驾驶)也加速渗透,2025 年高速 NOA 渗透率预计达 10.8%,城市 NOA 渗透率将达 到 9.9%,而 2027-2028 年城市 NOA 增速将反超高速 NOA。我们认为,L2 级辅助驾驶的高渗透率 表示其标配化向中低端车逐渐覆盖,随着 L3 级别的逐步落地,整个 ADAS 市场将迎来进一步整体 增长。

单芯片舱驾一体趋势强劲,SoC 芯片的设计需求和算力需求提升。根据汇睿咨询数据,2023 年全 球汽车 SoC 芯片市场规模约为 312.79 亿美元,预计到 2030 年将达到约 570.69 亿美元,年均复 合增长率为 8.97%。基于 AI 加速推进汽车智能化,高阶智能驾驶及智能座舱下沉,以及用户对 于智能化车载场景的需求增长,SoC 市场规模不断扩增。(1)智能座舱 SoC 市场主要以高通、AMD、 三星等外资消费电子厂商为主,其产品迭代速度快,性能和算力都具有优势;多个国产芯片厂商 也切入破局,如芯擎科技、华为、芯驰科技等,其功能主要驱动舱内多个屏幕,并进行语音识别 等多模态交互,以及与 ADAS 功能融合,如接入环视摄像头和激光雷达等。(2)智能驾驶 SoC 芯 片市场目前主要厂商有英伟达、特斯拉、高通、地平线、德州仪器、Mobileye 等。根据不同级别 智能驾驶方案对主控 SoC 芯片在 AI 算力需求上的不同,智能驾驶 SoC 芯片可大致分为三种类型: 小算力 SoC 芯片(2.5~20TOPS):前视一体机或分布式行车或泊车控制器方案,以 L0-L2 级 别辅助驾驶为主,部分车型可提供高速 N0A 功能。 中算力 SoC 芯片(20~80TOPS):主要为轻量级行泊车一体域控制器方案,部分车型或可提 供城市 NOA 功能 。 大算力 SoC 芯片(≥80TOPS):高阶行泊车一体域控制器方案及舱驾一体方案,用于实现 L3 及更高阶的自动驾驶功能。大算力用来支持高阶智能驾驶新的算法(Transformer+BEV+OCC) 和更先进的整车 EE 架构(中央计算+区域控制)。 高阶智驾芯片逐步向“one chip”方向演进。舱驾一体通过将座舱域芯片、驾驶域芯片和高效的 CPU 集成,即通过一颗芯片同时承载座舱、驾驶与泊车的数据处理任务,进一步压缩 BOM 成本、 降低系统延迟、提升跨域数据协同能力。2024 年 10 月,高通发布智能座舱芯片 Cockpit Elite及智驾芯片 Ride Elite,可帮助主机厂在同一 SoC 无缝运行数字座舱和智能驾驶,实现“舱驾 融合”。随着大算力方案加速高阶智驾落地,舱驾一体方案数量有望快速提升,高算力、高性能的 车载 SoC 芯片加速迭代,出货进一步增长。

1.3 AI 眼镜新品爆发式增长,多模态交互拓展 AI 端侧新场景

AI 眼镜产品创新形态,渗透率持续提升。AI 眼镜是搭载 AI 技术的智能眼镜,集成 NPU、DPU 或 其他 AI 加速器,运行小型 AI 模型并执行端侧 AI 计算任务,如语音助手和数据预处理等。按产 品形态及功能可分为音频类 AI 眼镜、音频+摄像头 AI 眼镜、AI+AR 智能眼镜。随着端侧计算能 力和硬件端的芯片、光学等技术升级,需求端使用场景的拓展,三类产品在功能性、使用场景及 产品价格存在差异,可满足不同消费群体的需求,现阶段在 AI 智能眼镜市场共存互补。根据 Wellsenn XR 数据,2024 年全球智能眼镜中音频摄像头 AI 眼镜销量占比 94%,以 Ray-Ban Meta 为代表;音频 AI 智能眼镜销量占比 2%,AR+AI 智能眼镜占比 4%。未来 AI+AR 产品随着光学显示方案优化和重量、功耗等技术规格升级降本,拓展多模态交互形态,市场份额有望进一步提升。 音频类 AI 智能眼镜:在基础眼镜的功能上集成音频模块、无线通讯模块、AI 加速器等器件, 无摄像头。用于实现音频功能、无线通讯功能以及人工智能应用,主要交互手段依靠语音交 互和触摸交互。具体功能可包括语音提醒、翻译、会议纪要、导航等。例如华为智能眼镜 2, 李未可 Meta Lens Chat 等。 音频+摄像头 AI 智能眼镜:即拍照式 AI 眼镜,在无摄像头智能眼镜的基础上集成摄像头器 件,用于提供图像拍摄能力,同时可依据内置的人工智能算法,配合摄像头实现图像识别等 功能。具体功能可包括打电话、照相、拍摄、直播等。例如 Ray-Ban Meta、雷鸟 V3 等。 AI+AR 智能眼镜:在音频+摄像头 AI 眼镜的基础上集成 AR 光学显示技术,结合视觉交互实 时输出显示画面,并能够配合摄像头模块进行手势交互等 3DoF 识别功能。例如星纪魅族 StarV Air2、Rokid Glasses 等。

可穿戴多模态拓展端侧应用场景,Meta 爆品引领 AI 眼镜产品加速落地。AI 眼镜通过摄像头、 麦克风、传感器等实现视觉、听觉、触觉等多模态交互拓展用户的使用场景,且佩戴时距离面部 的嘴巴、眼睛和耳朵距离近,易于从多感官获取信息。AI 眼镜从手机端的屏幕交互升级为语音 操控、手势控制、高清拍摄、眼动追踪等第一视角的无感交互方式,因此成为端侧 AI 的理想落 地场景,包括 to C 如户外、运动、翻译、学习等应用,to B 如巡检、导览、安防、医疗等场景。 2023 年 9 月,Meta 发布新一代 Ray-Ban Meta 眼镜,2024 年销量超百万成为爆品,带领产业进 入快速规模化。2024 年 Q4 起多家品牌发布 AI 眼镜新产品,类似 Meta 与雷朋的合作模式,科技 厂商和传统眼镜行业进行深度合作推广,发挥了供应链和线上线下渠道的协同优势,同时使得品 牌效应加速渗透。产业链的高成熟度和商业化落地的快速闭环,使得 AI 眼镜爆发式增长。

近视眼镜及太阳眼镜存量市场规模稳定,AI 智能眼镜加速渗透。根据 Wellsenn XR 数据,预计 全球近视眼镜+太阳眼镜年销量约 15 亿,随着人口近视率提升及户外运动普及率提升,存量市场 呈低速增长态势,预计 2032 年全球销量可达 18 亿副,国内销量约 3.2 亿副。2024 年全球 AI 智 能眼镜销量为 152 万台(不含 AR),销量占比主要来自于 Ray-Ban Meta 智能眼镜(142 万台)。 2025 年 AI 眼镜出货量随大量新品发布进入高增长,快速向传统眼镜市场渗透。IDC 预计 2025 年 全球智能眼镜市场出货 1205 万台,同比增长 18.3%;其中不具备显示功能的音频眼镜及音频拍 摄眼镜预计出货 547 万台,同比增长 101.9%。Counterpoint 预计全球智能眼镜市场将于 2025- 2029 年维持 CAGR 超 60%。Wellsenn XR 预计 2029 年 AI 眼镜年销量可达 5500 万副;随着 AI+AR技术成熟,渗透率有望达 70%,销量达 14 亿副,可对标智能手机出货规模。

SoC 芯片是承担 AI 眼镜计算及数据处理的核心硬件,BOM 成本占比可达 1/3。SoC 芯片作为 AI 眼镜的主控芯片,决定了产品的核心性能,不同品类和性能的 AI 眼镜芯片选型也有相应差距。 根据 Wellsenn XR,以 RayBan-Meta 为例,其硬件部分采用了高通 AR1Gen1 SoC 芯片,搭配 NXP 的 MCU、高通的 WCN7851 WiFi 蓝牙芯片等;其成本总计 174 美元,其中主板芯片成本约 99.1 美 元,占比 57%;SOC 芯片成本约为 55 美元,占比约 31.6%。以小米 AI 智能眼镜为例,平光版的 成本总计预计约 180.5 美元,其中 SoC 芯片高通 AR1 成本约 60 美元,副芯片恒玄 BES2700 约 7 美元,两者合计占比约 37%。综合来看,SoC 芯片在 AI 拍摄类眼镜成本占比可达 1/3,是硬件构 成中的重要部件。随着端侧 AI 对产品性能要求的提升,中高端 SoC 芯片性能迭代,复杂度和定制 化提升,成本占比预计将保持在较高水平。

估算 AI 眼镜 SoC 市场规模 2030 年有望突破百亿元。根据洛图科技 2025 年 1-2 月数据,AI 音频 眼镜、AI 拍摄眼镜和 AI+AR 眼镜的主销价格分别大致集中在 1000-1500 元、1500-2000 元和 3000 元以上三个区间。AI 音频眼镜主要由中高端价格在 1500-2000 元的华为智能眼镜 2 和千元以下 价格的界环 AI 音频眼镜主导,AI 拍摄眼镜由雷鸟创新市场份额占比 90%以上,AI+AR 眼镜则以 单绿色信息提示眼镜为主,价格在 2000 元以上。随着国产厂商及供应链的加速入局,AI 眼镜仍 有较大降本空间,价格下沉有望带动对价格较敏感的中低端价格产品销量进一步提升。 对全球 AI 眼镜 SoC 市场规模做出估算:假设 SoC 可根据价格分为低端、中端及高端三类,低端 类主要部署在 AI 音频眼镜上,功能可类比 TWS 耳机芯片,价格带可在 1-5 美金。中端为国产中 高端主控 SoC,如恒玄 BES2800、紫光展锐 W517 等,价格可在 5-15 美金不等,例如 Wellsenn XR 拆解报告中,售价 299 美金的 solos AirGo™ V AI 眼镜采用高通低功耗蓝牙音频 SoC 芯片 QCC5126, 成本中 SoC 芯片占比超 10%,价格约合 60 元。高端以高通 AR1GEN1 为代表,价格超 50 美金;中 高端 SoC 主要部署在 AI 拍摄类眼镜及 AI+AR 眼镜。则根据眼镜类别对出货量估算,假设 2025 年 低端 SoC 出货占比为 35%,中端 SoC 和高端 SoC 出货占比分别对应 25%及 40%。SoC 单价随产品 性能迭代逐步提升,且高端产品单价价格弹性更高;中高端产品出货量随 AI+AR 眼镜等旗舰产品 渗透率提升而增加。根据预测 2030 年全球 AI 眼镜 SoC 市场规模有望超百亿元。

1.4 AI 可穿戴、AI 玩具等多模态交互应用端侧 AI 部署可期

我们认为,随着端侧算力部署成本降低,具有多模态交互需求的 AIoT 场景有望率先实现 AI 端侧 商用落地,如 AI 耳机、AI 玩具等,低功耗蓝牙 WiFi 芯片有望集成 NPU 承担端侧高性能计算需 求,配合 AI 大模型和手机软件生态入口,实现多场景交互功能。

1.4.1 AI 耳机:2025 年迎来爆发式增长,端侧交互能力增强

据头豹研究院预计,2024-2028 年 AI 智能耳机行业市场规模将由 73.18 亿元增长至 1646.75 亿 元,CAGR117.80%。根据洛图科技数据,2025 年一季度 AI 耳机在传统主流电商销量达 38.2 万副, 同比增长 960.4%,超过 2024 年全年销量。预计 2025 年 AI 耳机在国内传统主流电商渠道的总销 量达 152.7 万副,同比增长超过 3 倍。

2024 年 10 月,字节跳动发布 AI 智能体耳机 Ola Friend,接入豆包大模型,戴上耳机可通 过语音唤起豆包大模型进行对话,进行信息查询、旅游出行、英语学习、情感交流等,售价 1199 元。

2024 年 11 月,华为 FreeBuds Pro 4 发布,基于鸿蒙生态及盘古大模型成为 AI 交互入口, 用户通过语音或手势可直接唤醒小艺智能体,实现语音交互或接打电话、记备忘录、导航、 翻译等功能,定价 1499 元 。

2025 年 3 月,阿里发布 AI 耳机 AIxFU(爱富),搭载阿里通义大模型,具有录音转写、实 时翻译、会议纪要、思维脑图、个人助理、实时对话,陪伴交流等功能。

2025 年 5 月,科大讯飞旗下未来智能发布两款 AI 会议耳机 iFLYBUDSPro3 和 iFLYBUDSAir2, 定价分别为 1599 元和 1499 元。功能包括实时翻译、AI 智能降噪,以及基于 Viaim AI 自动 生成会议纪要标题、概览和核心要点,并进行个性化摘要定制。

AI 耳机有望从唤醒手机端 AI 的多模态入口逐步发展为承载独立 AI 运算任务的端侧产品。AI 耳 机是集成端侧算力并接入 AI 大模型的智能耳机,主要功能包括智能降噪、实时翻译、语音识别与 交互、个性化推荐、健康监测、智能场景识别、自动播放/暂停、音质优化、智能助手集成、通 话增强等。目前,手机厂商可发挥生态优势直接调用其他软件,形成生态联动;非手机厂商则聚 焦具体功能和垂类场景,如 AI 语言算法、耳机硬件的提升、软件端的功能拓展等。而部分集成 算力能力的高性能 AI 耳机产品也逐渐解绑手机,在耳机盒上配置芯片、屏幕及 OS 系统,独立完 成用户交互。各厂商均强调 AI 算法和芯片的本地化处理能力,减少云端依赖,提升响应速度和 安全性。

AI 耳机对 SoC 芯片端侧性能要求提升,国产厂商积极布局。SoC 芯片需要满足 AI 耳机的 AI 降 噪、低功耗低延迟及高能效比等性能需求,目前已有恒玄科技、瑞芯微、中科蓝讯、炬芯科技等 多家国产 SoC 芯片厂商推出 AI 音频类 SoC。

恒玄科技主打低功耗与端侧 AI 语音处理,BES2800 在 TWS、智能手表、智能眼镜等市场具 有优势,作为低功耗无线音频处理系统,同时可以支持专业音频设备对音频传输的多并发、 高带宽、低延时、长续航的要求。

瑞芯微推出 RK3588 通用 SoC 芯片系列、音频专用处理器 RK2118 系列等,集成 NPU 单元, 提升音频处理能力。

中科蓝讯的讯龙三代 BT895X 芯片可满足 AI 耳机端侧对语音处理、高速音频传输等的需求, 对接火山方舟 MaaS 平台并适配豆包大模型的软、硬件解决方案,已被搭载于 FIIL GS Links AI 高音质开放式耳机。

炬芯科技 ATS362X 搭载 AI-NPU 高性能三核异构架构,24bit 无损音质和 6.4TOPS/W 的高能 效比,面向 AI 娱乐音频设备、专业音频设备及 AIoT 边缘计算终端。

1.4.2 AI 玩具:端云结合实现 AI 交互

AI 玩具通过云端大模型进行语义理解和情感分析等任务,端侧 AI 能力则可承担语音唤醒、降噪 等实时低延迟交互。随着大模型技术升级,AI 玩具可将 Deepseek、豆包、智谱等大模型通过 API 接入,在传统机械式语音交互的基础上进行多模态交互、深度学习、自然语言处理、情感计算分 析等感知互动,并具备一定的语音交互、视觉处理能力,实现情感陪伴、教育医疗辅助、电子宠 物等功能。形态上可分为智能陪伴玩偶、机器人、益智教育游戏类、外置挂件和 IP 衍生品等。 根据 Contrive Datum Insights 预测,AI 玩具全球市场 2030 年达 364 亿美金规模,2022-2030 年 CAGR 为 14.7%。2024 年字节跳动推出“显眼包”AI 玩具,带动国内众多厂商入局。

FoloToy 公司开发的 AI 大模型对话盒子 Magicbox 魔匣通用机芯,集成豆包、通义千问、 ChatGPT 等大模型,可套在各种玩具形态中形成低延迟的交互,如字节跳动“显眼包”。公 司后续推出 AI 仙人掌等玩具产品,通过构建云端平台作为 AI 玩具统一接入系统,解决实 时消息传输、低延迟等需求。

跃然创新(Haivivi)2024 年 7 月推出对话交互式挂件玩具 BubblePal。玩具外置 AI 挂件, 通过手机端 APP 设置 AI 角色进行互动,运用底层通用大模型+垂类小模型的结构,合作包 括 MiniMax、豆包、智谱等,垂类小模型基于开源 Llama2 自行开发,云端部署算力配合 WiFi 音箱硬件供应链。

汤姆猫公司于 2024 年 12 月推出 AI 情感陪伴机器人“汤姆猫 AI 童伴”,外观上配备可 120° 转动的头部传动装置支持循声定位;耳朵与嘴巴随对话动作同步活动,眼睛内置 20 多种动 态表情通过 LED 屏幕呈现情绪变化。机身背部支持触摸感应与触控反馈。搭载情感垂类模 型“汤姆猫情感陪伴垂直模型”并接入 DeepSeek、豆包等模型的部分功能。配置全志科技 R128 无线音频 SoC 芯片,集成 RISC-V XuanTie C906+Arm CortexM33 双核心架构,智能语 言解决方案搭载 AI 大模型。

AI 玩具芯片复用了 AIoT 在其他下游领域的技术能力,与云端大模型连接。2024 年 12 月,火山 引擎联合乐鑫科技、移远通信推出“实时对话式 AI 嵌入硬件解决方案”,已成功应用于 IP 玩具、 AI 机器人、智能家电等诸多硬件品类。硬件设备通过方案的 AI 语音交互框架无缝对接云端大模 型,实现低时延的流畅交互。端侧芯片主要集成了音频处理技术,以乐鑫科技提供的 Turnkey 解 决方案为例,其具备低延迟抗干扰的 RTC 技术,边缘 AI 功能支持语音唤醒、语音控制、人脸和 物体识别等;云端 AI 功能依托于豆包等大模型实现生成式内容输出。

二、端侧 AI 聚焦高性能低功耗,国产 SoC 厂商逐鹿

2.1 异构多核平衡性能功耗,RISC-V 及 IP 核自研提升产品优势

2.1.1 异构多核适配于高性能和低功耗场景

SoC 的异构多核指同一颗 SoC 中集成的多个处理器内核的所有核心(如 CPU、GPU、NPU、ISP、 DSP)不是同一种类型,即微架构和指令集不相同,具备不同的性能特征和功耗要求。通过使用高 性能核或节能核等不同类型的核心,可提高计算性能或实时性能,具有性能、功耗、尺寸和成本 等更多组合优势。相较异构多核,同构多核 SoC 的所有核心是相同的架构和指令集,设计编程更 简单,多适用于同构并行计算,如多核 CPU。SoC 设计的关键是性能提升、功耗低稳定性高、体积 小工艺难度高等三方面的平衡,随着端侧算力要求的提升,设计更侧重实时计算、算力能效比以 及多模态的处理。 多核架构通常以“通用核+专用核”来提升性能,优化功效。如 CPU+GPU;CPU+FPGA;CPU+DSP 等, 其中通用核(CPU,如 ARM Cortex-A)负责复杂逻辑控制,如运行操作系统,协调任务调度,支持 多线程,通常应用在手机、平板电脑、服务器等高性能计算场景;专用核(GPU/NPU/DSP/VPU/ISP 等)优化特定任务,如满足矩阵计算、图像渲染等领域的性能需求;以及实时控制核(如 ARM Cortex-R)负责处理实时性要求高的任务,应用在汽车电子、工业控制、网络设备等需要快速响 应和高可靠性的场景中。早期 CPU 为增强处理能力和速度,由单核演变为多核,如超大核+多个 大核+多个小核,提升并行处理能力。随着 CPU 性能提升,其高功耗和散热等问题逐渐成为制约 发展的瓶颈。因此发展为 SoC 的多核架构,可以在一个周期内执行多个指令(如图形渲染、科学 计算),高集成度提升并行计算处理能力;同时专用核能突破通用核的算力瓶颈和硬件加速需求, 降低功耗,并提供定制化的解决方案;多核 SoC 可动态调整不同核的利用率,针对不同数据类型 优化存储访问,支持灵活的资源分配。

CPU(Central Processing Unit,中央处理器):CPU 负责执行程序指令、处理数据以及控 制其他硬件设备的操作。作为通用处理器,能够执行广泛的计算任务,包括逻辑运算、算术 运算、控制流程等。通常包含多个核心,支持多任务处理和多线程技术,以提高处理效率。

GPU(Graphics Processing Unit,图形处理器):GPU 最初设计用于加速图形渲染,尤其是 3D 图形的生成。GPU 包含大量并行处理单元,适合执行大量并行计算任务,如图形渲染、科 学计算和深度学习。其并行计算能力使其在处理图像和视频处理、机器学习等应用中表现 出色。

NPU(Neural Processing Unit,神经网络处理器):NPU 是专门设计用于加速神经网络特别 是深度学习算法的处理器。NPU 优化了神经网络算法的执行,如卷积神经网络(CNN)和递 归神经网络(RNN)。能够高效地处理大量深度学习任务,如图像和语音识别、自然语言处理 等。

VPU(Video Processing Unit,视频处理单元):VPU 是一种专门为加速视频编解码、处理 和转换任务而设计的硬件模块。VPU 通常嵌入到片上系统(SoC)中,用于处理实时视频流、 视频播放、视频会议和图像增强等应用。能够显著提高视频处理性能并减轻主 CPU 的负担。

ISP(Image Signal Processor,图像信号处理器):ISP 用于处理来自图像传感器的原始图 像数据。ISP 执行图像预处理任务,如去噪、白平衡、色彩校正、锐化、曝光、动态范围优 化等,以提高图像质量。可将图像数据转换为标准格式,以便进一步处理或显示。

DSP(Digital Signal Processor,数字信号处理器):DSP 是专门设计用于加速数字信号的 处理器,如音频、视频和通信信号。具有高速的数学运算能力,特别是对于实时信号处理任 务,如滤波、变换和编码,用于运行运算较大的算法软件或应用软件。广泛应用于视频编解 码、图形图像处理、视觉影像处理、语音处理等领域。

AI 眼镜尚未形成标准方案满足性能、功耗和重量的需求。目前的三种 SoC 方案各有侧重,包括 单 SoC 芯片多核集成方案、MCU 级 SoC 外挂 ISP 模块、以及 SoC 与协处理器 MCU 双芯片方案: (1)系统级 SoC 单芯片方案:一般用于高算力场景,单芯片(如 ARM-A)集成度高,功能扩展 性强,综合性能高,可处理复杂 AI 推理和图像处理。单颗芯片集成 CPU、GPU、ISP、DSP、WiFi、 蓝牙等多个模块,如高通 AR1 Gen1,展锐 W517 等; (2)MCU 级 SoC+ISP 方案:MCU 级 SoC 芯片作为主控单元,多采用低功耗的 ARM-M 系列或其他 低功耗处理器核,主要完成音频处理、传感器数据采集等较轻量级任务,支持拍摄功能外接 ISP 芯片。由于 MCU 计算性能较弱,采用外接 ISP 的方案,集成度弱于系统级 SoC,硬件设计的复杂 度增大,成本提升,系统兼容性可拓展性差,但相较单片 SoC 方案的功耗低、续航性能强、成本 低,如恒玄 BES2800+星宸 SSC309QL。 (3)系统级 SoC/MCU 级 SoC+协处理器 MCU/MCU 级 SoC 双芯片方案:适用性广,兼具高性能与低 功耗,但研发难度大、成本高。SoC 通常负责处理复杂的计算任务,如运行操作系统、处理图像 识别、语音交互等,MCU 则负责实时性要求较高的任务,如控制硬件设备、读取传感器数据等, 协处理器架构可以提高系统的可靠性和实时性。如高通 AR1+恒玄 BES2700、全志 V821+杰理 701X 等。

AR1 Gen1:高通于 2023 年 9 月发布,AR1 Gen1 优化功耗和散热限制,支持打造时尚轻量化 智能眼镜。可提供更快的 AI 处理性能、更好的主动降噪、回声抑制功能。产品搭载双 ISP,支持最高 12MP 摄像头,以及最多 8 个麦克风;支持 Wi-Fi 7 网络;支持单眼 1280 ×1280 60fps 显示,内置 Hexagon NPU 以及用于视觉分析的 AR 级引擎。

紫光展锐 W517:采用四核处理器(1 个 A75 和 3 个 A55)大小核架构具有高性能低功耗的 优势,12nm 工艺,支持摄像头 13MP 以上,双 ISP 设计,支持 Wi-Fi5 和蓝牙 5.0,低功耗 解决方案。

恒玄科技 BES2800HP :集成蓝牙和 Wi-Fi(可选)的超低功耗、高性能智能音频系统级芯 片(SoC)。CPU 系统包含双核 Arm Cortex-M55 处理器+双核 BECO NPU,搭配 BES 专有协处 理器(用于高级信号处理与神经网络负载)、可选 Tensilica HiFi 4 DSP 以及音频编解码 器;子系统包含双核 STAR-MC1 处理器+双核 BECO NPU。同时支持双模蓝牙和 Wi-Fi 6,支 持 2.4G/5G 双频,实现高吞吐量无线连接与无损音频传输。

2.1.2 IP 核外购降本增效,海外寡头垄断市场

IP 核复用是 SoC 设计的关键,提升设计效率,降低开发成本。IP 核(Intellectual Property) 即知识产权核,是指集成电路行业中已验证、可重复利用、具有某种确定功能的芯片设计模块。 如 CPU、GPU、DSP、VPU、总线、接口、工艺物理库等。SoC 芯片对于研发设计、制造工艺以及软 硬件协同开发技术的要求高,由于系统级芯片的集成度提升,设计中必须尽可能采取可复用的设 计思路,因此现在大部分 SoC 都使用预定义的 IP 核(包括软核、硬核和固核),以可复用设计的 方式来完成快速设计。SoC 设计过程中通过 EDA 工具将自行设计或外购好的 IP 核连接,在一个 集成开发环境下集成各种子功能模块,降低开发的冗余成本和复杂性,提升设计效率,缩短芯片 上市周期,并提升系统的可扩展性和兼容性。根据恒玄科技 2024 年报公告,IP 核授权和软件的 预计使用寿命为 3-20 年。

随着制程节点提升,芯片设计成本大幅提升,单芯片可集成 IP 数量增加。根据 IBS 数据,7nm 芯片的 IC 设计成本约为 2.49 亿美元,2nm 芯片的设计成本约为 7.25 亿美元,相较 7nm 芯片的 设计成本增长近三倍。预计设计 2nm 芯片时,软件开发、验证和 IP 认证将占据总成本的 71%。 28nm 单颗芯片中可集成的 IP 数量为 87 个,7nm 可集成的 IP 数量达 178 个。单颗芯片可集成 IP 数量增多,为更多 IP 在 SoC 中实现可复用提供新空间。 芯片设计成本在成熟应用阶段随 IP 复用而降低,上市周期缩短。比较早期应用和成熟应用阶段 同一制程的芯片设计成本,成熟时期随着 IP 核的增加和设计流程的优化,设计成本降低,如 5nm 从初期近 5 亿美元大幅下降至成熟应用时期的 2.52 亿美元。但同时随着制程提升,即使工艺节 点达到成熟应用时期,设计成本相较同一应用时期的上一代先进工艺节点仍存在显著提升。根据 新思科技,新思科技的 EDA 工具与 ARM 协同可将片上系统(SoC)、芯粒(Chiplet) 及多芯片集成 (multi-die) 设计周期缩短多达一年。

综上,芯片设计公司外购 IP 核的优势有:(1)芯片设计化繁为简,缩短芯片设计及上市周期, 提高复杂芯片设计的成功率;(2)IP 开发和 IP 复用使小规模公司具有设计大芯片单品的能力; (3)使下游系统整机企业可以自主设计芯片,提升自主创新能力和整机系统的知识产权含量; (4)使芯片设计行业摆脱传统的 IDM 模式,成为产业链的独立环节,促进了芯片设计的发展。 IP 核由海外巨头垄断,国产厂商自研与外购 IP 相结合。IP 作为 IC 设计关键的底层技术,市场 壁垒高且寡头垄断,根据 semiwiki, IP 市场主要厂商为 ARM, Synopsys,Cadence 和 Alphawave,2024 年 CR4 为 75%,且同比提升 3pcts。当前国内芯片设计厂商大多选择自研与外购相结合,自 研 IP 可抵御供应链不稳定性风险,同时提升产品的创新力和差异化,并随市场需求变化迭代升 级;长期维度看,复用自研 IP 也可节约研发费用,保持产品的快速迭代领先,增强公司的长期 竞争力。因此,外购 IP 核的同时结合自研 IP,平衡成本、时间及资源,可以有效提升产品竞争 力和经营效率。

2.1.3 RISC-V 开源指令集在异构 SoC 中渗透率提升,国产化自研进程加速

目前主流的指令集有如下三种:

CISC(复杂指令集):以 x86 为代表,高性能高功耗,复杂性高,不对外授权,广泛应用于 PC 和 Server 领域。

RISC(精简指令集):以 ARM 为代表,ARM 架构生态好,版税高,高性能低功耗,研发成本 低、速度快,在手机芯片和嵌入式系统等领域占据主导地位。可分为 Cortex-A、M、R 三类: (1)Cortex-A 系列为高性能计算设计,支持 Andriod、Linux 等高级操作系统,广泛应用 于消费电子设备,如智能手机、平板和智能电视。(2)Cortex-M 系列功耗低、简单易用、集 成度高,适合微控制器 MCU,物联网、家电、智能家居和可穿戴设备等;(3)Cortex-R 系列 可靠性高,低延迟,适用于实时场景,如工程器械、路由器交换机,以及实时操作系统(RTOS)。

RISC-V:介于 ARM 和 x86 之间,开源架构,是基于精简指令集(RISC)原则设计的开源指令 集。设计开放简洁、工具链完整、模块化设计,执行速度快,消耗功率少,有可扩展、易定 制的特点,可供任何个人或公司免费获取、修改和分发,打破传统闭源架构授权费高、定制 化困难的惯例。

RISC-V 的灵活性和可拓展性高,适配于端侧定制化应用场景。随着 5G、AIoT、边缘计算等应用 场景多点开花,行业标准和规范尚不明确,应用场景多元化、需求碎片化,低功率要求高,单品 创新迭代快,响应速度需求高,芯片 SoC 设计定制化成为趋势。因此虽然 ARM 核的设计精良且经 过验证, 但 RISC-V 具有灵活性和可扩展性的优势,能够建立技术壁垒,同时满足差异化和多样 化的设计。例如,新兴 AI 芯片的 CPU 部分 RISC-V 可针对 AI 芯片做专门的适配,同时满足 AI 芯 片频繁变换的算法。但另一方面,RISC-V 的工具链完整性、优化程度及可用性还不足,且对于高 性能应用(多媒体处理、加密运算等)有性能瓶颈,需要额外的指令集拓展,目前多用于 MCU+无 线模块,在边缘计算、物联网、嵌入式系统和 AI 推理芯片等场景有望得到更多应用。SHD Group 预测 2030 年 RISC-V 市场规模达 927 亿美元,出货量超 160 亿颗。智研咨询预测 2030 年国内 RISC-V 芯片市场规模可达 250 亿美元,2023-2030CAGR 为 47.9%。

RISC-V 降低成本增强产品差异化,国内厂商积极布局。RISC-V 架构可根据特定需求定制和扩展 自研处理器核,而无需支付与专有 ISA(如 ARM)相关的许可费用和限制。根据爱集微,性能接近的 MCU 内核,RISC-V 的授权费用只有 ARM 的 30%-50%左右。根据 ARM 招股书,ARM 的 IP 核授 权商业模式包括授权费(License Fee)和特许权使用费(Royalty)。设计公司在芯片设计中集成 IP 并支付授权费;芯片设计完成并量产后,通常按每颗芯片的平均售价(ASP)的百分比或固定 金额收取特许权使用费,一般按照单颗芯片售价的 1%-3%。单芯片费率通常会随着芯片出货总量 增加而降低。单颗芯片集成多个 IP 核(如 SoC 芯片)时,费用则会相应增加。RISC-V 降低开发 门槛和架构授权风险,有利于国产芯片厂商的自主可控和可持续发展。

全志科技:实现了 CPU、GPU、NPU、DSP 和 RISC-V 协处理器复杂异构芯片的量产,在研 4K 视觉 AIOT 芯片采用 RISC-V 处理器,并内置新一代 ISP 和编码引擎,并搭载新一代自研 NPU。

中科蓝讯:基于开源的 RISC-V 指令集架构,配合开源实时操作系统 RT-Thread,自主开发 出高性能 CPU 内核和 DSP 指令,实现了各种音频编解码及音效处理算法。推出了两代专用 可穿戴 SoC 芯片,单芯片集成了 RISC-V CPU、图像图形处理加速器、显示处理控制器。在 研 Wi-Fi 蓝牙一体化芯片研发及产业化项目多核 RISC-V CPU 系统。

乐鑫科技:自 2020 年之后发布的新产品都搭载了自研的 RISC-V 32 位处理器,2023 年度发 布的 ESP32-P4 已实现 RISC-V 双核 400MHz 主频。在研 RISC-V 多核应用处理器项目集成 RISC-V 多核处理器的无线 MCU。

2.2 高性能专用核集成,端侧 AI 算力及音视频多模态能力提升

2.2.1 NPU 集成,满足端侧算力升级需求

NPU(neural-network processing units)即嵌入式神经网络处理器,专门用于加速神经网络计 算,采用数据驱动并行计算的架构,擅长处理视频、图像类的海量多媒体数据。与传统 CPU 和 GPU 相比,NPU 在处理 AI 任务上具有更高的能效比、更低的延迟和更强的场景适配性等优势。TOPS 通过以万亿单位测量一秒钟内执行的运算(加法、乘法等)次数来量化 NPU 处理能力,而 NPU 真 实性能是由内存带宽、软件优化和系统集成等因素协同作用的结果。

手机端侧仍需与云端协同,实现通用 Agent、复杂任务、超长文本等高级功能。根据高通 AI 白 皮书,端侧模型参数规模提升,适合终端侧手机或 PC 执行的生成式 AI 模型日益复杂,参数规模 从 10 亿参数提升至到 100 亿,甚至 700 亿参数,手机端 NPU 算力水平也随之提高。根据赛迪顾 问预测,2027 年国内 AI 手机端侧参数量可达 240 亿,NPU 算力为 150TOPS。端侧算力需求以 100 亿参数为例估算,模型推理的每秒所需算力 FLOPS=6*Tokens/s*参数量(B),在保证内存带宽的 前提下,假设 token 生成速度 30 tokens/s, 一 个 10B 大 模 型 对 应 6*30*10*10^9=1.8*10^12=1.8TFLOPS,假设低精度低功耗模型用 INT8(通常用 INT8+FP16 混合 精度),1TFLOPS≈2TOPS,则所需 NPU 算力为 3.6TOPS;假设算力利用率 30%,则对应所需 NPU 的 理论峰值算力约为 12TOPS。腾讯研究院数据预测,假设每 1-2 年推理速度提升 10%,单位功耗提 升 50%,电池容量提升 5-10%,手机端侧有望在未来 3-4 年搭载 100 亿规模模型。

高通骁龙 8gen3(45TOPS):支持终端侧运行 100 亿参数的模型,面向 70 亿参数大语言模型 每秒生成 20 个 token;

联发科天玑 9300(33TOPS):搭载全新第七代 APU 790 的 AI 性能引擎,可以支持终端运行 10 亿、70 亿、130 亿、至高 330 亿参数的 AI 大语言模型;

苹果 A18 pro(35TOPS):通过制程和内存升级提升了模型效率,设备端约 30 亿参数大模型。

PU 平衡算力和功耗,高能效比提升产品性能。NPU 算力需求取决于应用场景,低功耗方案适合 端侧音频类轻量级任务,而高性能方案支持复杂识别和交互。同时,NPU 算力越大,体积越大, 功耗随之增加,因此 NPU 的算力配置需要平衡功能需求,在有限功耗下提升算力处理端侧 AI 任 务。理论算力(TOPS)越大、能效比(TOPS/W)越高、延迟越低,产品性能越好。提升能效比的 途径有:硬件方面,异构多核架构,动态计算分配负载,存内计算或近存计算减少数据搬运;软 件方面,算法和模型的稀疏化和轻量化,减少计算内容移除冗余;知识蒸馏保持精度并降低计算 要求。

2.2.2 ISP 图像视频模块协同,增强多模态交互性能

ISP(Image Signal Processor)图像信号传感器,ISP 的性能决定动态防抖和低功耗成像能力。 在同等 CMOS 的条件下,性能好的 ISP 芯片对图像质量的改善空间可达 10%~15%。AI 眼镜正朝着 小型化、低功耗、高画质的方向发展,多模态交互能力十分重要,ISP 核不可或缺。 ISP 外挂方案低功耗长续航高性能,降低方案成本。ISP 分为内置和独立两种:(1)内置 ISP: 指将 ISP 集成在 SoC 处理器中,如高通 AR1、恒玄 BES2800。(2)独立 ISP:独立于 SoC 处理器 外挂,如星宸 SSC309QL。外挂 ISP 较内置成本更高,但运算能力、成像质量更优秀。外挂 ISP 芯 片方案相比于集成 ISP 的高通 AR1 芯片,具有高性价比、低功耗长续航的特点。以星宸 SSC309QL 为例,采用模块化电源管理动态调压和软硬件结合的低功耗技术,降低功耗,比高通 AR1 下降 50%。芯片算力为 1.5TOPS,低延迟,支持识别模型、辅助阅读、动作捕捉、场景互动等 AI 功能, 且对接大模型,适配多模态。外挂方案的拍摄效果可做到约等于高通 AR1 芯片的拍摄效果,同时 相比 AR1 可以保持较低成本,从而使得整体 AI 智能眼镜的 BOM 成本可以控制在千元以内。 AI ISP 具有 HDR 增强、智能降噪、自动对焦曝光、颜色矫正增强、人像优化等功能。AIISP 是在 传统 ISP 的基础上通过机器学习增加了 AI 后处理算法,即传统 ISP+NPU 的架构,传统 ISP 通过 固定算法和参数进行图像处理,如降噪、白平衡、曝光调整等;AI ISP 通过训练模型自适应优 化参数,以达到更智能、更个性化的图像处理效果,更适合处理降噪、低光照、暗光提亮等应用 需求。例如,全志科技研发全新一代 AI-ISP 降噪算法,消耗 V851 芯片 1T NPU 算力,在相同信 噪比下实现 2-4 倍感光度提升,提升低照度下的画质。

2.3 国产 SoC 厂商逐鹿端侧 AI 创新趋势

1. 恒玄科技

公司主营业务为低功耗无线计算 SoC 芯片的研发、设计与销售,主要包括无线音频芯片、智能可 穿戴芯片、智能家居芯片和无线连接芯片。主营业务分为智能手表/手环芯片和蓝牙音频芯片。 2024 年实现营业收入 32.63 亿元,较上年同期增长 49.94%;归母净利润 4.60 亿元,较上年同期 增长 272.47%。2024 年智能手表/手环芯片业务营收同比增长 116%。 产品和研发进展方面,公司新一代智能可穿戴芯片 BES2800 在 2024 年量产落地,采用 6nmFinFET 工艺,单芯片集成多核 CPU/GPU、NPU、大容量存储、低功耗 Wi-Fi 和双模蓝牙,可应用于 TWS 耳 机、智能手表、智能眼镜、智能助听器等产品,进一步巩固公司龙头地位。自研 BECO 嵌入式 AI 协处理器及对应指令集,和主 CPU 核心配合工作,更好的完成基于神经网络 AI 算法的各种音频 处理,同时保持更低的功耗水准。全集成音频 DSP,能够在更低的主频下处理各种音频制式的编 解码,提高芯片能效。自研低功耗高性能的 NPU 和 ISP 系统,提升 SoC 芯片在低功耗下的计算性 能,NPU 峰值算力达 TOPS 级,ISP 支持千万级像素的摄像头接入。自研新一代低功耗 LPDDR、MIPI PHY 等高速接口技术,优化了可穿戴设备上运行 AI 的功耗,延长电池使用时间。

2. 瑞芯微

2024 年实现营业收入 31.36 亿元,同比增长 46.94%,创历史以来新高;净利润 5.95 亿元,同比 增长 341.01%。依托 AIoT SoC 芯片平台布局优势,在旗舰芯片 RK3588 带领下,下游占有率持续 提升。公司内置 NPU 的人工智能应用处理器芯片内置不同性能层次的 CPU、GPU 内核,以及从 0.2TOPs 到 6TOPs 的不同算力的自研 NPU,充分满足不同市场、产品应用对性能和算力的差异化 需求。自研 NPU 可以在不同算力平台之间实现 AI 算法快速移植、更新迭代,从而帮助客户有效 缩短产品研发周期、节省研发投入。公司的人工智能应用处理器芯片按功能侧重方向可分为通用 应用处理器、机器视觉处理器、音频专用处理器等。通用应用处理器包含 RK3588 系列、RK3576 系列、RK3568/66 系列、RK3562 系列等,其中部分系列还推出工业规格及车用规格等专用版本, 具有可靠性高、抗干扰性强、可扩展性好等特点。机器视觉处理器包含 RV1126/09 系列、 RV1106/03 系列、RV1103B/C 系列等,搭载自研核心 IP 如 ISP、AI-ISP、视频编码器、NPU,具 有良好的视觉处理能力,适用于多场景下的机器视觉应用。音频专用处理器如 RK2118 系列,在 音频 NPU 和硬件加速模块的辅助下,满足多声道音效、主动降噪等传统音频处理需求,并可以扩 展 AI 音频算法应用,提高了音频处理效率。

3. 全志科技

2024 年实现营业收入 22.88 亿元,比上年同期增长 36.76%,归属上市公司股东的净利润 1.67 亿 元,比上年同期增长 626.15%。主营业务为智能应用处理器 SoC、高性能模拟器件和无线互联芯 片的研发与设计。主要产品为智能应用处理器 SoC、高性能模拟器件和无线互联芯片。 公司 2024 年实现了 CPU、GPU、NPU、DSP 和 RISC-V 协处理器复杂异构芯片的量产。通过各种算 力组合,在 A 及 T 系列产品上完成了八核 A55、八核 A73+A53、八核 A76+A55 等不同算力档位的 产品布局,同时通过 NPU 实现端侧算力覆盖;音频前后处理方面,公司产品通过 HiFi4、HiFi5 等 DSP 算力补充,满足音频处理应用需求。在视觉类应用场景下,成功研发了全新一代 AI-ISP 降噪算法,并通过深度优化的系统部署策略,仅消耗 V851 系列芯片 1T NPU 算力,便可实现 AI 图像降噪功能的高效运行。在超清显示应用场景下,为了提升显示画质观看体验,基于 T527 云 PC 方案和 A733 平板方案,研发了新一代 AI 超分辨率(AI-SR)算法,针对海量互联网低分辨率 视频显示效果不佳的痛点,通过 NPU+ASIC 并行加速的方式,用较低 NPU 算力即可实现 2~4 倍 AI 超分效果,将低分辨率视频最大提升至 4K 分辨率,对比传统放大算法显示提升了画质细节和清 晰度,并能对视频网站、视频 APP、本地播放器实现全兼容播放。

4. 中科蓝讯

2024 年度实现营业收入 18.19 亿元,较上年同期增长 25.72%;归母净利润 3 亿元,较上年同期 增长 19.23%。公司自成立即采用 RISC-V 指令集架构作为技术开发路线研发、设计芯片,自主设 计开发出 RISC-V CPU 核、蓝牙双模基带和射频、FM 接收发射基带和射频、音频 CODEC、电源管 理系统、接口电路等多个功能模块。 端侧产品进展方面,讯龙二代 BT892X 系列应用在时空壶翻译耳机,支持中英日德法等 40 种语 言在线智能同传,播报速度 0.75X 慢速至 2X 快倍速可调,配合 Beam-forming ENC 智能算法有效 降低环境噪声,搭配高精度 ANC 控制器实现最大 30dB 深度主动降噪,单次续航时长达 7.5 小时。 讯龙三代芯片采用 CPU+DSP+NPU 的多核架构,可满足音频类各种 AI 算法的应用开发,并结合双 模蓝牙数据传输,可很好地连接到云端,以使用云端的大模型 AI 能力。讯龙三代 BT896X 系列芯 片已运用于百度推出的小度添添 AI 平板机器人的智能音箱中,能实现 AI 语音交互功能。公司与 字节跳动旗下的云服务平台火山引擎展开了深度合作,讯龙三代 BT895X 芯片高算力、低功耗,可 满足 AI 耳机端侧对语音处理、高速音频传输等的需求。完成了与火山方舟 MaaS 平台的对接,已 可向用户提供适配豆包大模型的软、硬件解决方案。公司与豆包大模型的合作现阶段已适配了实 时翻译、会议纪要、实时对话等功能。

5. 乐鑫科技

2024 年实现营业收入 20 亿元,同比增长 40.04%;归母净利润 3.39 亿元,同比增长 149.13%。 主营业务已有多款物联网芯片产品系列。以 SoC 为核心,包括 AI 计算;以无线通信为核心,已 包括 Wi-Fi、蓝牙和 Thread、Zigbee 技术。公司核心 IP 皆为自研,拥有从 IP 开发到完整的芯 片设计、操作系统、固件、软件框架、应用方案、硬件设计、边缘 AI、云和 APP 的全栈工程开发 能力。 ESP32-S 系列自 ESP32-S3 芯片开始,强化了边缘 AI 方向的应用。ESP32-S3 芯片增加了用于加速 神经网络计算和信号处理等工作的向量指令(vector instructions)。开发者通过使用这些向量 指令,可以实现高性能的图像识别、语音唤醒和识别等应用。目前公司的 Wi-Fi 产品已涵盖 WiFi4 和 Wi-Fi 6 技术。Wi-Fi 6 技术能够通过 OFDMA 支持现有 2.4GHz 和 5GHz 频段的大规模物联 网使用场景。公司与豆包合作提供一站式 Turnkey 解决方案,通过 Wi-Fi 传输接入云端智能体服 务,为传统行业注入智能化能力。基于豆包 AIGC 等大模型的智能硬件产品在理解用户意图、精 准反馈需求方面更加智能化和人性化,能够根据用户行为偏好自我学习和进化,从而提供更加个 性化的服务和体验。

6. 炬芯科技

2024 年公司实现营业收入 6.52 亿元,同比上升 25.34%;实现归母净利润 1.07 亿元,同比增长 63.83%。公司基于 CPU、DSP 加 NPU 三核异构的核心架构已研发成功,第一代采用三核异构架构 的芯片已发布,基于存内计算(Computing in Memory,以下简称 CIM)架构的 NPU 加速引擎优势 明显,算力水平大幅提升。CIM 的架构可以大幅降低数据搬移存储来提升访存效率和降低功耗, 使得新产品在大幅提高算力的同时降低功耗,满足端侧设备对于低功耗的要求。其中基于 CIM 的 NPU 单核可提供 100GOPS 的算力,能效比达 6.4TOPS/W@INT8。 端侧 AI 的专用音频 DSP 处理器芯片 ATS361X 已被客户采用并有多款产品大规模量产,集成存内 计算 NPU 的端侧 AI 处理器新品 ATS362X 已流片推广中。第一代集成存内计算 NPU 的高端蓝牙音 箱 SoC 芯片 ATS286X、低延迟高音质无线音频 SoC 芯片 ATS323X 均已正式推出,这两款芯片集成 了强大的 NPU 和 DSP 的算力及内存,除支持蓝牙 LE Audio 的所有功能以外,还采用新一代 2.4G 私有高带宽技术,具有更高效的无线传输带宽。

芯片设计公司以产品创新驱动业绩增长,需要公司不断投入研发用于开发新技术和新产品,增强 自身竞争力,研发投入可体现公司研发力度和技术实力。对比各公司的数据(未完全披露),瑞 芯微、全志科技的累计获得专利数较多,全志科技、中科蓝讯的布图设计权数量较多。恒玄科技、 全志科技、中科蓝讯的研发人员数量占比较高超 80%。同时各公司研发费用逐年稳定增长,恒玄 科技、瑞芯微、全志科技等保持高研发投入,炬芯科技研发费用率相对较高。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告