2025年Deepseek冲击波:AI狂潮下计算机行业的颠覆与重生

DeepSeek 冲击波及背景解析

(一)DeepSeek 冲击波引发全球科技市场的连锁反应

DeepSeek作为中国AI领域的突破性成果,凭借其低成本、高性能的技术路线和开源策略,引发了全球科技市场的深刻变革。其技术普惠化和开源模式不仅推动了AI技术的广泛应用,还对全球科技产业链、资本市场和国际竞争格局产生了深远影响。

根据数据分析平台QuestMobile最新数据显示,从上线以来至2月9日,DeepSeekAPP的累计下载量已超1.1亿次,周活跃用户规模最高近9700万。其中,1月20日至1月26日,DeepSeek

APP周下载量达到226万次。次周,下载量则直接飙升至6300万次,环比增长超2700%。在用户体验方面,DeepSeek表现不俗。用户普遍认为DeepSeekR1的性能出色,特别是在数学推理、编程能力和自然语言理解等领域。其推理速度和准确度在多个测试场景中达到业界领先水平。此外,DeepSeekR1的“聪明”特性使得用户无需复杂的提示词技巧,即可获得高质量的回答。在实际使用场景中,无论是游戏、视频播放还是日常工作的辅助,其流畅的操作体验都得到了用户的高度评价。用户反馈显示,DeepSeek界面简洁直观、操作简单,在实时数据推送和内容推荐上十分出色能够有效提升工作效率,减少用户在信息检索上的时间投入。

DeepSeekR1的发布引起了硅谷科技领袖、国际媒体及学术界的广泛关注。其性能和开源策略获得了高度评价,被认为是“非美国公司践行 OpenAI初心”的典范。DeepSeekR1的发布引发了全球科技市场的连锁反应。其开源策略、低成本、高性能的特性,对科技巨头形成了压力。其训练成本仅为 600万美元,远低于 OpenAI和谷歌等公司的同类模型,《MIT Technology Review》提到,DeepSeek开发了一种名为“Group Relative Policy Optimization(GRPO)”的新算法,通过创新的训练方法大幅降低了模型的训练成本,还指出,DeepSeek在硬件优化方面也取得了突破,并强调了DeepSeek通过免费开放模型的方式,推动了AI技术的普及和应用。

DeepSeek的崛起促使全球投资重心从硬件密集型企业转向算法优化和应用开发领域。尽管DeepSeek降低了单个模型的算力需求,但其技术普惠化反而刺激了应用场景的扩展,导致算力总需求暴增(“杰文斯悖论”再次生效),而其技术路径的转变降低了对高端GPU的依赖,为国产芯片提供了新的发展机遇,其软硬件协同优化(如尽可能绕过英伟达提供的CUDA软件,直接使用汇编语言PTX与硬件对话),为国产芯片和系统闭环提供了技术验证,推动国内从“模型-芯片-系统”全链条自主化。

(二)DeepSeek公司成立背景与发展历程

DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,由幻方量化的联合创始人梁文峰创立。公司自2023年7月年成立以来,始终专注于大语言模型(LLM)及其相关技术的深度研发。公司坚持技术创新路线,开创性地提出多头潜在注意力机制(MLA)和DeepSeekMoE等创新架构。凭借这些创新成果,DeepSeek的大模型在多项权威测评中展现出顶尖的性能表现。DeepSeek的成立标志着幻方量化从量化投资领域向通用人工智能(AGI)领域的拓展。幻方量化为DeepSeek提供了强大的硬件支持,使得DeepSeek在技术研发上具备了坚实的基础。

DeepSeek自成立以来,迅速在大语言模型(LLM)及相关技术研发方面取得了显著进展。以下是其主要发展历程:

2023年11月2日:发布首个开源代码大模型DeepSeekCoder,支持多种编程语言的代码生成、调试和数据分析任务。

2023年11月29日:推出DeepSeekLLM,参数规模达670亿,涵盖对话和文本生成等自然语言任务。

2024年1月5日:发布DeepSeekLLM,包含670亿参数,从零开始在2万亿token的数据集上进行训练。

2024年2月5日:推出DeepSeekMath,专注于数学相关任务。

2024年3月11日:发布DeepSeek-VL,一个开源视觉-语言模型。

2024年5月7日:发布DeepSeek-V2,采用Mixture-of-Experts(MoE)架构,显著提升性能。

2024年6月17日:推出DeepSeek-Coder-V2,提升编码和数学推理能力。

2024年9月5日:合并DeepSeekCoderV2和DeepSeekV2Chat,升级推出 DeepSeekV2.5.

2024年12月13日:发布DeepSeek-VL2,改进视觉语言型的多模态理解能力。

2024年12月26日:上线DeepSeek-V3首个版本并同步开源。

2025年1月20日:发布DeepSeek-R1,采用强化学习技术提升模型推理能力。

(三)DeepSeek开源战略

DeepSeek的开源战略是其技术发展和市场推广的核心策略之一。公司坚持“非商业化优先”的开源路线,通过技术共享推动AI普惠。这一战略不仅体现了 DeepSeek的技术理想主义,也展示了其对全球AI技术发展的贡献。

DeepSeek的开源策略对闭源巨头如OpenAI等形成了竞争压力。DeepSeek的开源战略不仅推动了AI技术的普及和创新,还对全球AI产业格局产生了深远影响。通过开源,DeepSeek的技术得以在全球范围内广泛传播和持续改进,形成了一个庞大且活跃的开发者社区。这种开源模式极大地促进了知识共享和技术创新,加速了人工智能技术的普及与应用。未来,DeepSeek将继续在模型架构、训练效率、无限上下文长度等方面进行研究,力求在通往AGI(通用人工智能)的道路上不断前进。

全球大模型对比及 DeepSeek 技术创新要点

(一)全球大模型技术性能及成本效益对比

1、全球大模型推理效率与准确性对比

DeepSeek-R1和DeepSeek-V3都拥有370亿激活参数和6710亿总参数,虽然参数量相同,但DeepSeek-R1的推理性能在多个基准测试中优于DeepSeek-V3。这表明模型参数规模不是决定性能的唯一因素。训练方法(例如强化学习、冷启动数据、多阶段训练)和知识蒸馏在提高模型性能方面起着至关重要的作用。DeepSeek-R1在多个推理基准测试中取得了与OpenAI-01-1217相当的性能在数学推理任务上:DeepSeek-R1在AIME2024测试中取得了79.8%的Pass@1分数,略微超过了OpenAI01-1217。在MATH-500测试中,DeepSeek-R1的 Pass@1得分达到了 97.3%,与OpenA-o1-1217的表现相当,并且显著优于其他模型。在代码相关任务上:DeepSeek-R1在代码竞赛任务中达到了专家水平,在Codeforces上获得了2029的E10评分,超过了96.3%的参赛者。在工程相关的任务中,DeepSeek-Rl的表现略优于DeepSeek-V3.

在知识基准测试上:DeepSeek-R1在MMLU上获得了90.8%的分数,在MMLU-Pro上获得了 84.0%的分数,在GPOADiamond上获得了71.5%的分数。虽然在这些测试中略低于OpenAI01-1217,但 DeepSeek-R1优于其他闭源模型。在事实性基准测试 SimpleQA上,DeepSeek-Rl的表现优于 DeepSeek-V3。

在知识基准测试上:DeepSeek-R1在MMLU上获得了90.8%的分数,在MMLU-Pro上获得了 84.0%的分数,在GPQADiamond上获得了71.5%的分数。虽然在这些测试中略低于OpenAI01-1217,但 DeepSeek-R1 优于其他闭源模型。在事实性基准测试 SimpleQA上,DeepSeek-Rl

的表现优于 DeepSeek-V3。其他任务:Deepeek-R1在创意写作、一般问答、编辑、摘要等多种任务中表现出色。在AlpacaEval2.0上取得了87.6%的长度控制胜率,在ArenaHard上取得了 92.3%的胜率。这些结果表明,DeepSeek-R1在处理非考试导向型查询方面具有强大的能力。DeepSeek-R1在长上下文理解任务上也表现出色,显著优于DeepSeek-V3。

2、全球大模型成本效益对比

近期,马斯克旗下xAI公司发布了最新的Grok3模型,全球大模型竞争愈演愈烈,我们认为,DeepSeek和Grok3代表了两种不同的技术路线,DeepSeek通过算法优化和开源策略推动AI

技术的普惠化,而Grok3则通过高算力堆砌追求极致性能。DeepSeek在全球顶尖大模型中凭借其低算力、高性价比和开源生态的独特优势,展现了强大的竞争力。尽管Grok3在某些特定任务中表现卓越,但DeepSeek通过算法优化和开源策略,为AI技术的普及化和普惠化提供了新的路径。

1)OpenAI:GPT-40的 API价格是输入 2.5美元/百万 tokens,输出 10 美元/百万 tokens.而 GPT-40-mini的 API价格只需要输入 0.15 美元/百万 tokens,输出 0.60 美元/百万 tokens.OpenAI-01的 API价格是输入15美元/百万tokens,输出60美元/百万 tokens。而 OpenAI-o1-mini的 API价格只需要输入3美元/百万 tokens,输出 12美元/百万 tokens。

2)DeepSeek:DeepSeek-R1价格为每百万token输入4元、输出16元(64K上下文),价格仅为 01的二十分之一。DeepSeek-V3 已降价为每百万token输入1元、输出2元(64K上下文)

3)Claude:Claude3.5Sonnet的 API价格是输入3美元/百万 tokens,输出 15 美元/百万tokens.

4)火山引擎(字节跳动旗下):火山引擎自研“豆包”最高级别模型Doubao-pro-256k的定价为输入0.005元/千tokens,输出0.009元/千tokens。

5)阿里云:通义千问最强推理模型Owen-max的API输入价格为0.02元/千tokens,输出0.06元/千tokens。

6)智谱 AI:智谱 AI高智能旗舰版 GLM4-plus 模型调用价格为 0.05 元/千 tokens。

我们认为,2025年AI现象级应用有望持续涌现。一方面,AIAgent更自然的交互体验将成为AI应用的关键;另一方面,大模型圈价格战进入白热化阶段,推理成本的下降将持续推动AI应用加速落地。

(二)DeepSeek技术创新的核心要点

DeepSeekV3大模型的基础架构仍在Transformer的框架中,但是DeepSeek对每个TransformerBlock的注意力机制(Attention)和前馈神经网络(Feed-ForwardNetwork)都采用了创新的架构设计。对于注意力机制,DeepSeek设计了多头潜在注意力(MultiHeadLatentAttention(MLA)),通过将键值(Key-Value(KV))缓存显著压缩为一个潜在向量来确保高效推理。对于前馈神经网络,DeepSeekMoE通过稀疏计算的方式实现了以经济的成本进行强大模型的训练。

1、DeepSeek算法优化历程

DeepSeek-R1-Zero是第一个无需监督微调,仅通过纯强化学习训练(RL)就获得强大推理能力的开源模型。DeepSeek-R1在DeepSeek-R1-Zero的基础上使用了多阶段训练管道,包括冷启动数据和多次强化学习训练迭代,实现了更好的推理性能和可读性。而通过蒸馏,可以将这种推理能力迁移到更小的模型中,小型模型(如 DeepSeek-R1-Distill-Qwen-7B)能够超越 GPT-4o 等非推理模型,而 DeepSeek-R1-Distill-Owen-32B和70B模型甚至超越了 o1-mini。通过蒸馏得到的模型在性能上通常优于直接进行强化学习训练的小型模型。

1.1DeepSeek-V系列模型算法优化

1.1.1多头潜在注意力(MLA)

传统的Transformer模型通常采用多头注意力机制(MHA),但在生成过程中,其庞大的键值缓存将成为限制推理效率的瓶颈。为了减少键值缓存,谷歌研究团队提出了两种共享键值的模型:多查询注意力机制(MOA)和成组查询注意力机制(GOA)。虽然这两种模型所需的键值缓存较小,但是性能却不及MHA。针对这些挑战,DeepSeek设计了创新的注意力机制 MLA。MLA的核心是用低秩键值联合压缩来降低键值缓存,这些被压缩的潜在向量可以通过投影方式还原为键值,从而在不牺牲模型质量的前提下保证高效的推理吞吐最。

MLA是一种改进的注意力机制,DeepSeek-V2率先采用了MLA技术,之后的DeepSeek-V3也延续使用该技术。该技术使用压缩的潜在向量来表示查询,与标准的多头注意力(MHA)相比,MLA在保持或提高性能的同时,大大降低了KV缓存的需求,从而提高了推理效率。根据DeepSeek-V2技术报告,MLA在小型MoE模型上减少了86%的KV缓存,在大型MoE模型上减少了96%的 KV 缓存。

1.1.2DeepSeekMoE架构:

DeepSeekMoE是一种创新的大规模语言模型架构,其核心在于专家混合系统,该系统通过稀疏化专家分配策略,显著降低了计算量。通过整合专家混合系统(MixtureofExperts,MoE)、改进的注意力机制和优化的归一化策略,在模型效率与计算能力之间实现了新的平衡。该架构通过更细粒度的专家划分和隔离共享专家来减少知识冗余,从而提升模型性能。DeepSeekMoE 架构从DeepSeek-V2开始得到应用。采用该架构的模型,在相同激活参数和总参数条件下,性能优于传统的 MoE架构模型。根据DeepSeekMoE论文结果,与经典 MoE模型 GShard 相比,仅需不到后者28.5%的计算量。

DeepSeekMoE有两个关键理念:一是将专家进行更细粒度的划分,以实现更高程度的专家专业化以及更精准的知识获取;二是隔离部分共享专家,来减轻被路由专家之间的知识冗余。与诸如GShard 这类传统的混合专家(MoE)架构相比,DeepSeekMoE架构能够以经济的成本训练出强

大的模型。当采用专家并行时,被路由的专家将分布在多个设备上。每个token与MoE相关的通信频率与目标专家所覆盖的设备数量成正比。由于DeepSeekMoE采用了更细粒度的专家划分,激活的专家可能会很多,所以专家并行会使MoE相关的通信成本更高。对此,DeepSeekMoE首先确保每个token的目标专家最多分布在M个专家亲和度得分最高的设备上,之后对这些设备进行 Top-K选择。DeepSeekMoE引入专家和设备级别的平衡损失,有效降低这些风险,保障各设备间计算均衡,使模型在训练和推理过程中更稳定、高效地运行。

1.1.3多令牌预测(MTP)

多令牌预测(Multi-TokenPrediction,MTP)方法在 DeepSeek-V3 技术报告中被提出,是DeepSeek-V3模型中一项重要创新。该技术旨在提高大语言模型在解码阶段的推理效率。通过 MTP技术,DeepSeek-V3解码速度提高了1.8倍,模型预测第二个token接受率在 85%到90%之间,与传统方法一次只能预测一个token相比,MTP技术可以同时预测多个token。以上结果表明,模型进行序列生成时,能够高效预测后续输出,减少计算步骤,更快生成文本。

1.2DeepSeek-R1模型算法优化

1.2.1纯强化学习(RL)驱动推理能力提升

DeepSeek-R1-Zero 基于 DeepSeek-V3模型开发,是完全通过大规模强化学习进行训练得到的首个开源推理大模型。DeepSeek-R1-Zero在训练过程中自然涌现出多种推理行为,如自我验证、反思和生成长链式思考(CoT),证明了大语言模型的推理能力可以通过纯RL过程来激励获得。该技术的成功尝试为推理大模型领域未来发展奠定了基础。结果表明,DeepSeek-R1-Zero在AIME2024测试中pass@1得分从 15.6%提高到71.0%,通过多数投票机制,该得分可进一步提高到 86.7%。

1.2.2多阶段训练和冷启动数据

为了解决 DeepSeek-R1-Zero的可读性差和语言混合问题,并进一步提高推理性能,DeepSeek-R1引入了多阶段训练流程和少量冷启动数据。多阶段训练流程包括两个RL阶段与两个SFT阶段。冷启动使用小样本提示与长COT作为示例,直接提示模型生成具有反思和验证的详细答案。通过以上技术训练得到 DeepSeek-R1模型,达到了与OpenAI-01-1217相当的性能。

1.2.3从大型模型到小型模型的知识蒸馏

DeepSeekAl使用DeepSeek-R1作为教师模型生成推理数据,微调多个在研究中广泛使用的小型密集模型,大幅增强了小模型推理能力。例如对Qwen-7B模型进行微调,得到DeepSeek-R1Distill-0wen-7B模型,该模型在AIME2024上达到了55.5%的成绩,超过了OwO-32B-Preview。同时,研究还表明,在DeepSeek-R1中发现的推理模式可以被提炼到小型模型中,性能比直接在小型模型上应用RL更优。

2、FP8低精度训练技术

FP8低精度训练技术是DeepSeek在训练大模型时采用的一项关键创新,旨在通过降低计算精度米显荠提升训练效率和降低成本。

FP8(FloatPoint8-bit)低精度训练技术是一种在深度学习训练中使用8位浮点数来表示数据和进行计算的技术,相比传统的16位或32位浮点数,它在内存占用和计算速度上具有显著优势FP8通常会将这8位划分为符号位、指数位和尾数位。通过特定的编码方式,在有限的位数内尽可能精确地表示数值。在深度学习训练过程中,涉及到大量的矩阵乘法、加法等运算。FP8低精度训练技术通过专门设计的硬件和算法,能够直接对FP8数据进行高效的计算。硬件层面上,相关的计算单元会针对FP8的特点进行优化,例如采用更紧凑的逻辑电路来实现FP8的运算,提高计算效率。算法层面上,会对一些数值计算方法进行调整,以适应FP8的精度范围,确保在低精度下计算结果的准确性和稳定性。

通过采用FP8低精度训练技术,DeepSeek在保持高性能的同时,大幅降低了训练成本和资源需求,为AI模型的训练和应用开辟了新的道路。

1)显著降低显存占用:通过使用FP8格式,DeepSeek大幅减少了训练过程中的显存需求使得大规模模型训练更加高效。

2)提升训练迷度:低精度计算加速了训练过程,使得模型能够在更短时间内完成训练。

3)降低能耗:FP8训练减少了计算资源的使用,从而降低了训练过程中的能耗

3、硬件创新,利好国产算力企业

DecpScck模型已成功适配并部署在华为异腾PU平台上,使用腾910B芯片,结合CANN7.0.1.5和华为CloudEulerOS2.0操作系统,实现了高效的模型推理。华为云ModelArtsStudio模型即服务平台也支持DeepSeek-R1-Distil,进一步降低了 DeepSeek的开发

和部署成本,提升了其运行效率。MindIE(MindInferenceEngine,异腾推理引擎)是华为异腾针对AI全场景业务的推理加速套件。DeepSeek首发支持国内昇腾平台(Ascend)和MindIE推理引擎,这种软硬件一体化的支持使得用户能够在不同的硬件环境中灵活高效地部署模型。DeepSeek支持多种主流框架、全面开源策略。模型支持 SGLang、LMDeploy和TensorRT-LLM等多个主流框架,开发者可以根据自身需求选择合适的开发工具和框架。

DeepSeek 对全球 AI产业链发展趋势影响

(一)“杰文斯”悖论再次到来,算力需求将迎来长周期繁荣

1.DeepSeek工程优化节约训练成本,中长期来看算力需求依旧强劲

DeepSeekV3通过训练与算法等工程优化,训练成本大幅降低。DeepSeek-V3于2024年12月26日发布,是一个强大的混合专家模型(MoE),共有6710亿个参数,每个token激活370亿个参数。DeepSeekV3开创了无需辅助损失的负载均衡策略,并设定了多token 预测训练目标来获得更强的性能,通过使用14.8万亿个多样化且高质量的token进行预训练,随后进行监督微调(SFT和强化学习(RL)。通过采用多头潜在注意力(MLA)和DeepSeekMoE架构,有效的降低了训练成本并实现了高效推理,论文表示,DeepSeekV3完整训练仅需278.8万H800GPU小时,且训练过程非常稳定,没有遇到任何不可恢复的损失峰值且没有进行任何回滚。

DeepSeekR1采用群组相对策略优化(GRPO)算法,进一步降低训练成本。DeepSeekR1与2025年1月20日正式发布,并同步开源模型。DeepSeekR1完全摒弃SFT,核心技术为GRPO算法,其通过组内相对奖励来优化策略模型,进而对训练过程进行简化,减少训练中计算资源的消耗,无需额外的“评估模型”或者“批评模型”来评估当前策略的优劣,通过强化学习(RL)从基础模型中激发推理能力,专为复杂推理任务而设计,尤其在数学、代码生成和逻辑推理领域表现尤为突出,在MATH-500测试中,DeepSeekR1得分97.3%,高于GPT-01的96.8%。

整体来说DeepSee在工程复杂度上大幅提升,即通过调整模型架构、训练精度、算法,且数据质量方面差异化导致单次训练成本大幅降低:

1)DeepSeekV3采用稀疏 MoE架构,激活参数量降低:OpenAI采用密的Transformer架构,即需要在每个前向/后向传播过程中激活并更新全部参数,因此在大规模训练时对算力与显存需求很高,但 DeepSeekV3在训练或者推理过中只会激活少量参数,有效降低每次前向/后向的计算量,降低整体训练成本。

2)DeepSeekV3采用FP8混合精度训练,提升计算效率:OpenAI在训练过程中多采用FP16精度,兼顾数值稳定和计算效率,而DeepseekV3采用了FP8混合精度训练,从而提升单位GPU小时的计算利用率,这也是其大幅缩减成本的重要原因之一,与此同时大幅提升工程复杂度。3)DeepSeek蒸馏策略优化,减少对额外RLHF依赖:OpenAI训练数据规模更大,数据更多元化,且在RLHF环节上投入较大,DeepSeekV3数据规模在14.8万亿token,在后训练与蒸馏策略做了优化,减少了对额外 RLHF资源的依赖,并且上文提到 DeepSeekR1 采用群组相对策略优化(GRPO)算法,进一步优化训练成本,但DeepSeekR1整体训练成本要显著高于 DeepSeekV3.总结来说,DeepSeek通过在算法与工程侧的深度合,把相同的算力资源利用率最大化所以我们看到单次训练成本有显著下降。

“杰文斯”悖论再次到来,技术进步反而推动资源使用总量上升,DeepSeek将推动算力需求总量提升。DeepSeekV3以及R1的出现,反而证明了模型的架构演进还在继续,从整个产业链看,预训练、后训练、测试时间计算等不同路径都仍然与创新优化空间。此外,DeepSeek研究员也曾发推文表示 DeepSeek要做开源的 AGI,目前开源已经完成,且如果证明强化学习是通往 AGI时代的正确的道路,对算力的需求只会越来越大,要向上走到AGI依然需要更强算力。当技术进步提高了资源使用的效率,不仅没有减少这种资源的消耗,反而因为使用成本降低,刺激了更大的需求,最终导致资源使用总量反而上升(杰文斯论),微软CEO萨提亚·纳德拉的推文提到了这一点。所以当模型的成本越低,开源模型发展越好,模型的部署、使用就会更高频率、更多数量,对算力的需求将越来越大。

2.算力需求或将出现结构性改变,国产化进程加速推进

DeepSeek发布文生图大模型Janus-Pro,表现优于DALL-E3。从1月28日DeepSeek发布文生图像大模型 Janus-Pro,该模型是Janus-Flow的进阶版本,相比前一代模型,Janus-Pro 在训练策略上进行了优化并拓展训练数据集,模型也更大。在基础测试中超越美国巨头OpenAI,该开源多模态模型在生成遍真图像、执行复杂视觉推理等多种视觉任务方面具备强大优势。深度求索称,Janus-Pro在使用文本提示函生产图像的基础测试中,表现优于OpenAI的DALL-E3 和StabilityAl的 StableDiffusion.

Janus-Pro 准确率大幅提升,推理算力需求占比进一步提升。DeepSeek 表示,在文生图GenEval和 DPG-Bench基准测试中,Janus-Pro-7B 的准确率较上一代Janus 大幅提高,准确率测试结果分别为80%和84.2%,高于包OpenAIDALL-E3在内的其他对比模型。我们认为,DeepSeek的成功路径将推动算力需求结构性改变,未来多模态持续迭代,推动推理端算力需求占比大幅提升。

二)DeepSeek 加速 AGI到来,大模型从“训练”向“推理”演进

DeepSeek将加速AGI时代到来,AIAgent将成为通往AGI的基石。DeepSeekR1是人工智能革命下里程碑式的产品,对标 OpenAI的 o1模型,并且在强化学习的推动下,展现出了此前未曾预见的推理能力,同时通过工程与算法等深度耦合,大幅降低成本,让大模型更易触达下游厂商。并且 DeepSeek开源其模型预示着开源社区正以全新的方式推进人工智能技术的发展,加速通用人工智能时代到来并推动AIAgent技术更加成熟。

AIAgent是一种能自主感知周遭环境,通过内在的智能处理进行决策,并执行相应行动以达成特定目的的智能体。它基于大型语言模型(LLM),集成了规划、记忆、工具和行动能力。从智能助手、个性化推荐系统到自动化客户服务,AIAgent的应用案例层出不穷,它们在各行各业中展现出巨大的潜力和价值。

AI代理的工作流程比传统的LLM交互方式更高效:通过选代式的AI代理工作流程(例如:先写提纲,再进行网络搜索,再写初稿,再修改),可以显著提高AI模型的输出质量,其提升程度甚至超过了模型本身的迭代升级。

(三)新一轮“得入口者得天下”,从 APP 到 Agent 与终端生态的转变

1,技术驱动下的生态重构

在全球数字化浪潮的推动下,ICT行业正经历着深刻的变革,核心入口从传统APP向以AIAgent(智能代理)和终端设备为主导的新生态转移。这一变革的底层驱动力是多元技术的协同突破,而以DeepSeek未代表的大模型推出将加速这一进程的推进。

Al Agent的崛起是自然语言处理(NLP)、机器学习(ML)、知识图谱等技术深度发展的结果。基于 DeepSeek等先进模型开发的 AIAgent,借助深度学习算法,能够精准理解用户问题的意图,从海量知识库中提取准确答案,甚至能依据对话语境进行多轮交互,提供更具人性化的服务机器学习赋予 Al Agent 自主学习能力,使其在与用户的持续交互中不断优化算法,积累经验,从而更精准地预测用户需求。

终端设备与AI的深度融合,是硬件技术与AI算法相互赋能的成果。以智能家居领域为例,智能音箱、智能摄像头等设备通过内置 AI芯片和算法,实现了“无感化”服务。从算法层面,不断优化的AI算法让设备能够更精准地识别用户声音、理解用户意图,实现智能化控制,而从硬件层面看,低功耗、高性能的AI芯片将为设备实时处理复杂语音和图像数据提供了便利。DeepSeek的出现进一步提升了终端设备的智能化水平。例如,搭载DeepSeek算法的智能音箱,在语音唤醒、语音识别、语义理解和语音合成等方面表现更为出色,用户只需简单的语音指令,就能完成音乐播放。信息查询、家居控制等操作,极大地提升了用户体验,重塑了流量入口格局。

2.AlAgent的市场规模与增长潜力巨大

中国AAgent市场呈现出迅猛的发展态势,预计到2028年,其市场规模预计将达到8520亿元,年复合增长率高达72.7%,DeepSeek在这一增长趋势中扮演着重要角色。

从供给端来看,以 DeepSeek为代表的先进模型技术的成熟是关键因素。DeepSeek基于海量文本数据训练,具备强大的泛化能力,能够快速适应不同领域的应用需求。企业只需在DeepSeek基础上进行微调,就能开发出适用于特定行业的A1Agent,降低了开发成本和周期,加速了AIAgent市场的扩张。

从雷求端来看,各行业数字化转型加速,对智能交互和自动化决策的需求激增。比如:在金融行业,DeepSeek凭借其强大的语言理解和分析能力,能够更精准地解读金融数据和市场动态,为投资者提供更具前瞻性的投资建议,基于其开发的AIAgent可被广泛应用于智能投研、投资顾问风险评估和客户服务等环节;在医疗行业,AlAgent辅助医生进行疾病诊断,通过分析患者病历、影像数据和医学文献,快速给出诊断建议,提高诊断效率和准确性,DeepSeek能够对海量医学知识进行深度挖掘和理解,为医疗诊断提供更全面、准确的参考。随着5G、物联网等技术的普及,产生了海量数据,这些数据为基于DeepSeek开发的AIAgent训练提供了丰富素材,将进一步推动其在各行业的应用。

3.DeepSeek的加入终端设备的生态重构

全球ICT终端设备市场规模稳步增长,5G和AI技术是推动这一增长的核心动力,而DeepSeek在其中发挥着重要的赋能作用。

5G技术的商用,为终端设备带来了高速率、低时延和大连接的网络环境。在工业物联网领域5G使工厂设备实现高速互联,大量生产数据能够实时传输到云端或边缘计算节点进行分析处理DeepSeek能够对这些生产数据进行深度分析,挖掘数据背后的潜在价值,为企业提供更精准的生产优化建议。在智能家居领域,5G保障了智能家电之间的稳定通信,用户可以通过手机或智能音箱远程控制家中设备,实现智能化家居场景。搭载DeepSeek算法的智能终端设备,能够更准确地理解用户指令,实现更智能的家居控制。

AI技术则赋予终端设备智能化的“大脑”。智能家居设备通过AI算法实现智能场景识别和自动控制。DeepSeek的加入,使得智能设备在场景识别和决策制定方面更加精准和高效。例如,智能灯光系统可以根据环境光线、用户活动状态自动调节亮度和颜色,借助DeepSeek的强大分析能力,灯光系统能够更好地理解用户的生活习惯和需求,提供更贴心的服务。物联网终端借助AI实现设备故障预测和智能运维。DeepSeek能够对设备运行数据进行实时监测和分析,提前预测设备故障,为企业节省维护成本,保障设备的稳定运行。这些技术升级提升了产品附加值,刺激了市场需求,推动终端设备市场持续增长。

AIagent模型通过实现自然语言与硬件的交互,解决端侧AI痛点。端侧AI之前的痛点之一是无法通过用户指令调用操作界面并实现用户目标。最新的agent智能体模型比如Caude3.5Sonnet、智谱AutoGLM 以及OpenAI即将发布的“Operator”可以解决这一难题。Alagent模型与硬件争夺流量入口,ICT未来发展趋势将从当前的APP生态转向模型生态或终端设备生态。在互联网时代,C端用户通过自发向APP输入指令来实现功能;而在Alagent时代,C端用户可以向模型输入指令来实现功能,并且获得模型的双向反馈,模型通过自然语言更好地完成与硬件的交互。这改变了流量入口的分配,Alagent模型将取代APP的地位,并与硬件争夺流量入口。

(四)DeepSeek推动 AI Agent崛起,B 端+C 端应用开启新篇章

从Open、歌、Salesforce、Servicenow、Hubspot等全球头部的 AI应用公司新产品即将发布情况来看,AIAgent有望成为2025年AI应用的新趋势。Agent将成为AI落地的最佳选择,市场规模和应用场景将持续扩大。全球头部公司的一致布局代表对AAgent发展前景的认可,Salesforce的股价也因AIAgent产品的推出而跃升至历史高点。

DeepSeek推动AIAgent快速进化,AI应用进入新时代。当前,伴随全球数据量维持高速增长,为AIAgent发展提供数据资源。未来五年,全球数据量将维持增长,2022年,全球数据规模已达到103ZB,中国数据规模达到23.9ZB;预计2027年,全球数据规模可达到284.3ZB,近五年的 CAGR可达到 22%,中国数据量规模则可达到76.6ZB,近五年的CAGR为26%,超过全球增长速度。国产大模型自2023年7月开始进行密集发布,截至2023年7月,国产大模型累计数量达到300个,并且涉及金融、法律、教育、医疗、娱乐等多个垂直细分领域。

(五)生态应用统一接口条件下,端侧 AI迎来巨大发展机遇

生态应用统一接口条件下,AI手机、AIPC、AI眼镜等端侧AI能够解决用户痛点,迎来巨大发展机遇。AI手机硬件升级提速,2024年行业创新重点聚焦端侧AI应用。华为鸿蒙通过软硬芯云整合构建了鸿蒙原生智能架构,使AI与操作系统深度融合,用户可通过全局拖拽方式直接处理文字、图片、文档,实现摘要、润色、提取表格等功能;OPPO在FindX7系列中率先集成了端侧AIGC消除、AI通话摘要功能;vivo推出了从 10亿到1750亿参数的不同规模端侧模型,构建起较为完整的 AI能力矩阵;小米14 Ultra搭载首个 AI大模型计算摄影平台AISP,通过整合 CPU、GPU、NPU和ISP将AIGC技术应用于数码变焦的实时处理。

Al agent对手机界面的操作是一个复杂任务,而这一难题正通过 AI与端侧结合得以实现。端云结合的方式使得手机既能使用端侧模型,也能利用云端模型,使用agent方式完成操作,以平衡性能、参数和能耗等不足。华为AI助手小艺搭载盘古大模型,现已具备23类TOP场景的记忆感知能力,任务成功率达90%,已实现与300多个重点服务的无缝对接。

联想 Yoga Pro 9i和 Yoga 9i二合一搭载最新的英特尔酷睿 Ultra处理器和联想 AI芯片,配备YogaCreatorZone生成式 AI软件,可将基于文本的描述或草图转换为图像;Aura系列由联想与英特尔合作打造,以“至轻、至强、至AI”为特性,内嵌“天个人智能体系统”,具备自然交互和感知,意图理解和任务规划等功能。

AI 眼镜搭载大模型,功能渐全,迎来发展新机遇。Gyges Labs自研的 DigiWindow技术基于视网膜投影原理,创造了全球最轻、小的近眼显示光学方案,使得智能眼镜实现真正的可全天候佩戴。这款 AI眼镜不仅体积小、重量轻,还能降低功耗,并实现对于近远视的完全视光学兼容。GygesLabs将协同式 AI融入技术中,为可穿戴硬件设备赋予了感知与交互能力,从而进一步拓展了其商业化价值。GygesLabs的 AI眼镜实现了双向同步翻译功能,并且接入多个大模型,如通义千问、百度文心一言等,提供物体识别、文字翻译、数学题解答等多任务处理能力。此外,用户可以在不干扰视线的情况下,接收和发送信息;此款AI眼镜还能够根据用户的需求和环境,智能地提供信息提示,比如日程提醒、天气信息等。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告