英伟达就DeepSeek发表声明:R1模型是一项出色的AI进步
4 天前 / 阅读约3分钟
来源:凤凰网
人工智能的热潮和对Nvidia GPU的需求很大程度上是由“缩放定律”推动的

鞭牛士报道,1月28日消息,据CNBC报道,英伟达称 DeepSeek 的 R1 模型是一项出色的人工智能进步,尽管这家中国初创公司的崛起导致这家芯片制造商的股价在周一暴跌 17%。

Nvidia 发言人周一向 CNBC 表示:DeepSeek 是一项出色的 AI 进步,也是测试时间扩展的完美范例。DeepSeek 的工作展示了如何使用该技术创建新模型,利用广泛使用的模型和完全符合出口管制的计算。

上周,DeepSeek 发布了 R1,这是一个开源推理模型,据报道,其表现优于 OpenAI 等美国公司的最佳模型。R1 自报的培训成本不到 600 万美元,这只是硅谷公司为构建人工智能模型所花费的数十亿美元的一小部分。

Nvidia 的声明表明,它认为 DeepSeek 的突破将为这家美国芯片制造商的图形处理单元 (GPU) 创造更多的工作。

该发言人补充道:推理需要大量 NVIDIA GPU 和高性能网络。我们现在有三条扩展法则:继续进行预训练和后训练,以及新的测试时间扩展。

Nvidia 还表示,DeepSeek 使用的 GPU 完全符合出口要求。这与 Scale AI 首席执行官 Alexandr Wang上周在 CNBC 上发表的评论相矛盾,后者认为 DeepSeek 使用的是中国禁止使用的 Nvidia GPU 型号。

DeepSeek 表示,它使用的是专为中国市场设计的 Nvidia GPU 的特殊版本。

分析师们现在正在问,微软,谷歌和Meta等公司数十亿美元的资本投资是否基于 Nvidia 的 AI 基础设施被浪费了,因为相同的结果可以更便宜地实现。

本月早些时候,微软表示,仅在 2025 年,它就会在人工智能基础设施上投入 800 亿美元,而 Meta 首席执行官马克·扎克伯格上周表示,作为其人工智能战略的一部分,这家社交媒体公司计划在 2025 年投资 600 亿至 650 亿美元资本支出。

美国银行证券分析师贾斯汀·波斯特 (Justin Post) 在周一的一份报告中写道:如果模型训练成本被证明可以大幅降低,我们预计,使用云 AI 服务的广告、旅游和其他消费应用公司将在短期内获得成本效益,而长期来看,超大规模 AI 相关的收入和成本可能会更低。

Nvidia 的评论也反映了 Nvidia 首席执行官黄仁勋 (Jensen Huang)、OpenAI 首席执行官 Sam Altman 和微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 近几个月来讨论的一个新主题。

人工智能的热潮和对 Nvidia GPU 的需求很大程度上是由“缩放定律”推动的,这是 OpenAI 研究人员在 2020 年提出的人工智能开发概念。该概念表明,可以通过大大扩展构建新模型所需的计算量和数据量来开发更好的人工智能系统,从而需要越来越多的芯片。