AI 芯片厂商 Cerebras 部署 DeepSeek 服务爆单,降低成本反而扩大市场容量
3 小时前 / 阅读约3分钟
来源:IT之家
AI 芯片厂商 Cerebras 的 CEO Andrew Feldman 接受采访时说,该公司已经被运行 DeepSeek-R1 大语言模型的订单压垮。

IT之家 2 月 12 日消息,据 ZDNET 2 月 10 日报道,AI 芯片厂商 Cerebras 的 CEO Andrew Feldman 接受采访时说,该公司已经被运行 DeepSeek-R1 大语言模型的订单压垮

据IT之家此前报道,Cerebras 曾推出用于 AI 的晶圆级芯片,一块芯片就提供 125 PFLOPS 的峰值算力,搭配片外内存可以实现至高 1.2PB 的内存容量。

DeepSeek-R1 的预训练成本可以低到 GPTo1 等主流模型的十分之一,且效果相近甚至更好,被一些人认为是 AI 的分水岭。

Feldman 认为,DeepSeek 对人工智能的影响不仅在当下,更在于将刺激出更大的 AI 系统。随着成本的降低,市场正在变得越来越大

Cerebras 在官网展示,Cerebras 的晶圆级 AI 芯片,部署 DeepSeek-R1 70B 可以达到 1508 tokens / s 的性能,比 GPU 快很多

用户在使用包括 DeepSeek-R1 等“推理模型”时,输入提示词后需要时间等待是一大痛点。因为采用了名为 Chain-of-thought(CoT)的方法来增强模型的推理能力,将多步问题分解为中间步骤,允许模型在需要时执行额外的计算。推理时逐字进行推理,对整段提示词的推理需要进行多次,需要大量算力。

客户可以通过蒸馏将大模型的“知识”转移到小模型来缓解痛点,大模型通常被称为教师模型,较小的模型被称为学生模型。

为了改善使用 DeepSeek 模型的体验,Cerebras 为客户提供的标准做法是利用 DeepSeek 开源在 Hugging Face 的模型参数(权重)作为教师模型,蒸馏出一个较小的学生模型用于实际部署,Cerebras 在官网表示 DeepSeek R1 蒸馏到 Llama 70B 后精度几乎没有下降。

Feldman 表示,DeepSeek 是第一个顶级的开源推理模型,是开源 AI 的重大胜利。通过蒸馏技术,开源模型只需要公开模型参数(权重),研究人员不需要访问源码也可以复制新 AI 模型的进步。他认为,DeepSeek 的经济性不仅震惊整个人工智能行业,更可以使尖端 AI 芯片和网络技术获得更多投资。

有些人认为计算成本的下降将导致市场萎缩,但过去 50 年都表现出降低成本反而扩大市场容量。无论是电脑还是智能手机,价格的降低都推动了普及。

Cerebras 从去年 8 月开始提供公共推理服务,自称是“世界上最快的人工智能推理服务提供商”。该公司目前只提供蒸馏后的 70B 模型,Feldman 表示,405B 的模型太贵了,客户更青睐价格实惠的模型,当然也有一部分客户认为准确性的提升值得更高的成本而选择更大的模型。

相关阅读:

  • 《中小 AI 芯片企业感谢 DeepSeek R1:给了我们机会和订单》