DeepSeek整顿AI圈,GPU增长焦虑如何解?
3 天前 / 阅读约8分钟
来源:集微网
价格亲民的DeepSeek-V3及R1分别在2024年12月和2025年1月上线,随之而来,全球最大数据中心GPU供应商英伟达的股价和市值应声下挫。根据Stock Analysis数据,以月为单位,英伟达市值在2024年12月和2025年1月分别下降2.86%和10.59%。当地时间1月27日,英伟达股价较上一个交易日(1月24日)下跌近17%,市值蒸发5920亿美元。

价格亲民的DeepSeek-V3及R1分别在2024年12月和2025年1月上线,随之而来,全球最大数据中心GPU供应商英伟达的股价和市值应声下挫。根据Stock Analysis数据,以月为单位,英伟达市值在2024年12月和2025年1月分别下降2.86%和10.59%。当地时间1月27日,英伟达股价较上一个交易日(1月24日)下跌近17%,市值蒸发5920亿美元。

尽管2月英伟达市值回调,其股市际遇仍值得警醒。2024年以来,资本市场对英伟达信心满满,上一次市值跌去双位数,还是2023年9月。去年11月,英伟达一度取代苹果成为全球市值第一的上市公司。这份信心,为何出现了动摇?

在OpenAI推出的ChatGPT卷起AIGC浪潮之初,大模型的参数规模与GPU的集群规模深度绑定。Omdia分析称,微软在2024年购买了48.5万块英伟达Hopper GPU,OpenAI o1大模型就是在微软Azure的AI基础设施训练。Meta在2022年构建了16000块英伟达A100组成的算力集群,以支持Llama和Llama2大模型的发展,又在2024年3月宣布建设两个由24576块英伟达H100 GPU组成的集群,以训练Llama3。

如此高昂的训练成本,对于大模型厂商的ROI(投资回报率)是一个巨大的考验。有报道称,OpenAI预计2024年营收37亿美元,亏损50亿美元。红杉资本投资人曾估计,2023年人工智能行业在用于训练先进人工智能模型的英伟达芯片上花费了500亿美元,但仅带来30亿美元的收入。因而,对于大模型开发商来说,除了拓展服务场景以提升盈利能力,如何降低大模型的训练和部署成本同样关键。

这也是为什么DeepSeek-V3一经推出,就备受市场青睐——它让业界看到了大模型训练从“GPU堆料”走向“精耕细作”的可能性。

具体来看,6710亿参数的DeepSeek-V3在配备2048块英伟达H800 GPU的集群上训练,整个训练流程用时278.8万个H800 GPU小时,总成本为557.6万美元(按照每GPU小时2美元的租用价格计算)。在GPU用量、训练用时、算力成本上,较同等性能的闭源模型大幅缩减。

之所以能用如此少量的计算资源完成大规模参数量的训练,得益于DeepSeek团队对算法、训练框架和硬件的优化协同。

从架构来看,DeepSeek-V3沿用了在DeepSeek-V2进行验证的多头潜在注意力(MLA)和DeepSeek MoE进行具有成本效益的训练。多头潜在注意力机制通过将键值(KV)缓存压缩为潜在向量,显著降低了计算成本,加快了推理速度并提高了吞吐量。同时,专家混合(MoE)架构通过稀疏计算实现高效推理。

在训练精度上,Deepseek-V3支持FP8计算和存储,在加快训练速度的同时,减少了对GPU内存的使用。

在训练框架上,Deepseek-V3团队打造了HAI-LLM框架,并进行了细致的工程优化。首先是设计了DualPipe(双管道)算法以实现高效的管道并行,并实现了计算和通信重叠(而不是按照串行模式,完成计算再进行通信),从而解决了跨节点专家并行带来的巨大通信开销问题。其次是开发了跨节点全对全通信内核,使InfiniBand(IB)和NVLink的通信充分重叠,仅需20个流式多处理器就能充分利用IB和NVLink的带宽。其三是优化了内存占用,在不使用成本高昂的张量并行的情况下,也能够训练DeepSeek-V3。

训练成本的压缩,使DeepSeek能够提供远低于其对标的闭源模型(DeepSeek-V3性能比肩GPT-4o, DeepSeek-R1性能对标OpenAI o1)的API服务价格。

记者计算得知,DeepSeek-V3的每百万输入tokens价格约为GPT-4o的5.5%(缓存命中)/11%(缓存未命中),每百万输出tokens价格约为GPT-4o的11%。DeepSeek-R1的每百万输入tokens价格约为OpenAI o1的1.8%(缓存命中)/3.7%(缓存未命中),每百万输出tokens价格约为OpenAI o1的3.7%。

DeepSeek与对标的OpenAI模型API价格对比

来源:中国电子报根据DeepSeek、OpenAI官网报价整理,以2月14日汇率为准

GPU规格和用量降下来了,大模型价格也便宜了,这对于产业界来说是一个好消息,对于尖端GPU厂商来说,则带有一些不确定性。

首先,云厂商和数据中心厂商在过去两年“买爆”英伟达,很大程度上是为大模型的训练、部署和运行提供基础设施,可一旦MoE、小模型等更具成本效益的模型流行开来,头部买家能否持续现有的GPU采购量,要打一个问号。

其次,大模型训练使用的GPU向来由英伟达独占鳌头,但若算力投入不再高企,其他厂商也有了分一杯羹的机会。目前,龙芯中科、昆仑芯、燧原科技、华为昇腾、海光信息、天数智芯、奕斯伟等多家国产芯片企业宣布与DeepSeek适配。

再次,降低训练开销的可能性,也让广大GPU买家开始将目光转向其他架构——尤其是自家研发的ASIC芯片,以增加硬件收入、增强云服务的整体性并提升客户粘性。

以全球最大的云服务厂商亚马逊AWS为例,2月12日,亚马逊AWS宣布已于1月上线DeepSeek系列大模型,用户可以使用亚马逊云科技自研芯片Trainium和Inferentia通过Amazon EC2或者Amazon SageMaker部署DeepSeek-R1蒸馏模型,规模从15亿参数的Qwen蒸馏模型到706亿参数的Llama蒸馏模型不等。亚马逊自研芯片的一个重要目标就是降低训练成本,与基于GPU的同类实例相比,Trainium芯片支持的Amazon EC2Trn1实例,可节省50%的训练成本。

OpenAI也在近期再传自研芯片的消息。据悉,OpenAI将在年内完成首款自研芯片设计,计划采用台积电3nm工艺制造。

此外,LPU(语言处理器)受到市场关注,采用RISC-V指令集的AI SoC也实现了与DeepSeek的适配。

当然,也有观点认为,DeepSeek对算力产业是长期利好。

比如,在英伟达市值蒸发5920亿美元的那个交易日,微软CEO萨提亚·纳德拉(Satya Nadella)在社交媒体平台表示:“杰文斯悖论再次应验!随着人工智能变得更高效、更易用,我们会看到其使用量急剧飙升,它会变成一种我们怎么都用不够的大众资源。”

杰文斯悖论是一种经济学理论,主张当技术进步提高了资源使用的效率,即减少资源使用的数量,但成本降低导致需求增加,令资源消耗的速度不减反增。

这套逻辑,当然也适用于算力。既然DeepSeek等MoE模型降低了单个大模型训练所需的算力开销,使大模型更具性价比,就会加速大模型的落地开花。如果各行各业部署大模型的积极性提升,从长远来看,对算力的整体需求就有较为充足的上升空间,自然利好GPU等算力芯片的发展。

只是这杯羹,不一定再由英伟达的尖端GPU独占,算力需求带来的利润洪流,也未必再被CUDA这道大坝截留。

在DeepSeek-V3的技术报告中,DeepSeek团队向人工智能硬件供应商提出了芯片设计建议,包括提高张量核心中FP8通用矩阵乘法的累加精度、支持分块和块级量化等。对于芯片企业来说,除了持续提升芯片性能,能够与大模型开发团队进行紧密协作、将工程化做好做精,会更有机会在“效率至上”的训练竞赛中站到前排。