DeepSeek会产生哪些影响?

最佳答案 匿名用户编辑于2025/04/03 15:17

DeepSeek在推动降本、强推理等层面驱动下,有望加速AI应用普及度迎来跨越式提升。

1.DeepSeek对于算力的影响?

AI的演进路径中,推理成本不断下降,计算效率持续提高是长期趋势。例如:据Semi a n a l y sis,算法进步的速度约为每年4次;Anthropic CEO Dario甚至认为,这一进步速度可能达到10倍。 Jevons 悖论:技术进步提高了资源使用效率,效率提高降低了资源使用成本,成本下降刺激了资源需求的增长,需求增长可能超过效率提升带来的节约,最终导致资源总消耗增加。 我们认为,短期训练侧算力需求或受影响,但De epSe ek推理价格下降吸引更多用户调用模型,带来英伟达H100 GPU的租赁价格提升,故表明算力需求量短期仍呈提升趋势,中长期推理算力需求有望持续增长。

2.对芯片未来格局的影响?

NV仍具备计算与生态护城河。我们认为,DeepSeek的成果使用低精度计算、模型侧发展MOE架构、使用PTX层,这些会带来预训练算力使用效率的提升,但是这些技术仍与NV生态紧密联系,NV护城河仍在。 模型训练算力使用效率提升,NV高等级芯片或主要用于探索AGI。根据《De epSe ek-V3 Te chni c a l Report》,模型的训练过程仅使用2048块H800,这表明使用A100、H800等相对低端的芯片可以实现类似OpenAI o1类似性能。这可能会影响英伟达2025年以后,B200 等最先进GPU的普及,Blackwell/Rubin 等最先进的 GPU 的用途,初期可能会被局限在探索下一代大模型(探索AGI)上。

推理芯片百花齐放。 国产化:我们认为,考虑到目前中美半导体博弈加剧,De epSe ek积极适配昇腾、海光等国产 芯片,国产化推理算力需求有望持续增长。  ASIC/LPU/单芯片等:ASIC芯片在性能、能效以及成本上优于标准GPU等芯片,更加契合 AI推理场景的需求。据Tr endFor c e预估,2024年北美CSPs业者(如AWS、Me t a等)持续扩 大自研ASIC,以及中国的阿里巴巴、百度、华为等积极扩大自主ASIC 方案,促ASIC服务器 占整体AI服务器的比重在2024年将升至26%,而主流搭载GPU的AI服务器占比则约71%。

3.De epSe ek发生后对应用侧的影响?

核心观点:DeepSeek在推动降本、强推理等层面驱动下,有望加速AI应用普及度迎来跨越式提升。 云端算力是新的卖铲子公司。我们认为,无论是开源还是闭源模型,计算资源都很重要,如果云厂商基于计算资源打造上层服务或产品,那么计算资源的价值就有可能提升,这意味着更多的Capex流向硬件领域,软件也有望受益。 模型厂商:DeepSeek R1模型能力对标OpenAI o1,且开源,对于闭源模型厂商等或造成一定冲击,但其也可在此基础上训练。应用侧:我们认为,C端用户数据基础好、生态和产品力强、与AI结合度好的公司,B端行业市占率高、用户基数大、积累较多用户数据和产品案例的厂商,且具备AI结合能力的公司有望受益。

4.De epSe ek发布对于端侧的影响?

DeepSeek产品协议明确可“模型蒸馏” ,有望加速AI端侧落地。DeepSeek决定支持用户进行“模型蒸馏” ,已更新线上产品的用户协议,有望加速AI在端侧进程,未来手机、PC、小型设备等端侧或可部署。我们认为,除AI眼镜和AI手机外,机器人、电子狗、AR/VR设备后期有望迎来快速成长,大模型在端侧的应用发展之后,会进一步带动AI算力硬件的需求。