20+ 车企接入 DeepSeek,为啥没有「蔚小理华米特」?
4 小时前 / 阅读约10分钟
来源:36kr
没人在乎车机能不能写出一篇满分作文。

DeepSeek 成为了蛇年开年最火的事物,连家里的爸妈甚至爷爷奶奶,都在过年的饭桌上叫我给他们讲讲 AI 是怎么回事。 

由于同时具备强大的推理能力及开源模型两个特质,导致几乎所有科技公司都在研究怎样和 DeepSeek「深度融合」一下。华为、腾讯、百度、字节等互联网巨头,尽管都有各自自研的模型,但不妨碍纷纷第一时间在自己的云服务器里接入 DeepSeek,一群因为「服务器繁忙,请稍后再试」的用户得以曲线救国,云服务商得以也接住了泼天流量。 

芯片、金融、电信等行业的头部玩家也因为相似的逻辑接入了模型。毕竟大家都希望体验一下 R1 模型的最强大脑。不管在业务层面起到了多大的帮助,大部分公司的股价至少都涨了。 

不过有一个行业稍显例外,那就是汽车行业的主机厂们。 

截止 2 月 13 日,已经有包括比亚迪、吉利、东风、长城、极氪、智己等超过 20 家车企宣布完成和 DeepSeek 的深度融合。不过,新势力里的蔚小理华米,以及特斯拉均没有宣布和 DeepSeek 的相关融合信息。 

大模型上车,现阶段最大的问题,是还没有展示出足够好的场景。相反,在一些主机厂的微博评论区里,车主更在意一些已有的功能能否及时通过 OTA 得到优化。 

可以看出,技术并不是用户最在意的点,用户真正在意的是产品体验。如何用更好的模型获得更智能化的体验,才是用户真正在意的。相反,如果现阶段不能达到更智能的体验,那么用户更在意的是这车好不好开,内饰舒不舒服,还有便宜不便宜。 

用户想得到的是一辆「更智能的车」,但并不代表他们要在车上用车机写出一篇高考满分作文。 

01 车企排队接入 DeepSeek?「如来」

在目前各主机厂释出的有限信息里,DeepSeek 上车后,智能座舱中的人机交互,有望成为第一个深度融合的典型场景。 

智己、吉利发布的两条视频里,展示了 3 个和智能座舱有关的使用场景,分别是: 

场景 1:激活座舱模型,调用 DeepSeek 进行文本生成,如案例演示中「生成一篇文章庆祝亚冬会金牌诞生」。 

智能座舱通过 DeepSeek 进行文本生成 | 图片来源:视频截图 

在这个场景中,座舱通过接入 DeepSeek 的 API,把 DeepSeek「好文笔」搬上了车。和绝大多数人习惯在手机、电脑端操作略有不同的点在于添加了语音作为新的交互方式。 

场景 2:提问在某段里程中遇到的一个湖叫什么名字。DeepSeek 通过调用车辆行程记录、地图等信息,推理给出了相应答案。 

通过 DeepSeek 推理回答车主问题 | 图片来源:视频截图 

在这个场景中,通过接入 DeepSeek,把车机内储存的端侧信息(行程记录、地图)作为推理语料提供给了模型,由此可以得到更个人向的推理问答。 

场景 3:直接对车机表达「我累了,一会叫我」的模糊指令,车机识别后分别调整了车窗、座椅、空调、氛围灯、闹钟的硬件或功能,生成了一个休闲场景。 

通过 DeepSeek 实现模糊语义识别及相关车控操作 | 图片来源:视频截图 

和手机里的 DeepSeek 应用不同,接入车机后,最显著的不同在于模型可以调用车端信息作为推理语料,为车主提供更个性化的服务。 

不过,这些推理要消耗多少运算资源、需要怎样的硬件支撑、以及是否需要联网服务,目前主机厂还没有释出太明确的信息。 

02 更聪明的智能语音,未必是真 PMF

DeepSeek 有希望让车内的智能语音变得更聪明,更能理解用户的各种模糊指令。不过,这真的此刻主机厂和用户最紧迫的真实需求吗? 

从企业端来说,目前积极接入 DeepSeek 主要分为三类,分别是:芯片、云服务和终端硬件厂商(手机+智能汽车)。 

对于芯片厂商而言,由于 DeepSeek 是基于英伟达芯片进行推理的,而不同芯片间架构不同,所以其他厂商必须进行软件和算法层面的适配,才能兼容 DeepSeek 的模型训练和推理。换句话说,芯片商参与到这轮 DeepSeek 热里,是出于用户最真实且紧迫的需求,这是保住和扩大市场必须要做的一个关键动作。

云服务商的积极接入,也有类似的逻辑。对于 C 端用户而言,在频繁遭遇「服务器繁忙,请稍后再试」的提示时,云服务商的出现提供了新的入口,接住了这次泼天的流量,让人多普通消费者认识了自己;对于 B 端用户如开发者和企业用户而言,在云上部署 DeepSeek,可以降低企业使用模型的门槛,提供更好的开发体验。 

因此,在这轮 DeepSeek 热潮里,包括华为云、腾讯云、阿里云、百度云、火山引擎等主力玩家,都先后对 DeepSeek 进行了云端部署——哪怕这些云厂商背后的科技公司都有自己独立研发的模型,但用户要用 DeepSeek,他们就要接入这个开源模型。

「不堪重负」的 DeepSeek 服务器 | 来源:网络截图 

但到了硬件领域,对终端厂商和用户来说,此刻在产品完成对端侧 DeepSeek 的部署,既有难度,也不是优先级最高的需求。 

首先,目前的端侧计算资源并不支持「满血版」DeepSeek 的本地化部署。不同于云端服务器,如果要在个人设备上部署 671B 参数模型的 R1 模型,需要将近 1300G 的显存,远超 PC、手机、汽车的端侧计算资源。如果退而求其次,用 7B 或 10B 的蒸馏模型,其推理能力又和满血版有显著差别。 

所以,如果把 DeepSeek 模型接入车机,但实质只是多了一个语音入口,对用户来说,为什么非要在车上使用 DeepSeek 而不是打开手机或电脑上的应用呢? 

对于智能汽车用户而言,相比车机是否可以解答一道数学题或者写出一篇好作文,显然更在意它是否能发挥好「助理」的角色。这才是真正的需求。例如,手机微信里接收到的地图甚至大众点评的餐厅位置信息,是否可以一键流转到车机导航,并显示在 HUD 导航里。这是减少车机端操作,提升体验的一个具体场景。 

而要执行这类任务,需要的核心能力并不在于 DeepSeek 所擅长的「推理」,而是打通不同设备间接口的工程能力。目前,包括鸿蒙智行、小米、蔚来等拥有多端设备的企业实际已经具备了类似功能。这大概也是为什么华为云宣布和 DeepSeek 融合,但鸿蒙智行旗下车企却暂时没有相关发声的原因。 

其实,无论是手机还是汽车用户,大家真正期待的是将 AI 的「大脑」和硬件的「身体」结合起来后的智能化体验,也就是 OpenAI 定义的人工智能阶段里,从 L2(推理者)到 L3(Agent)的提升。但在产品层面,这并不单单取决于某个模型的能力,还和硬件层面的产品定义、接口、功能开发都息息相关。 

03 除了座舱,DeepSeek 还能为车企做点啥?

在产品层面之外,在近年角逐越来越激烈的智能驾驶层面,DeepSeek 能为车圈提供什么帮助吗? 

要回答这个问题,首先我们得知道目前智能驾驶开发层面最大的问题是什么? 

一句话概括,就是:目前智驾系统还搞不定复杂的城区路况,接管次数频繁,使用体验不佳。 

接管次数多的原因除了一些难以预测的安全情况,如行人横穿、车辆加塞、电瓶车逆行等,还包括系统对一些特殊交通规则的识别和判断,比较典型的场景包括:一线城市的潮汐车道、公交车道;不同城市左转、掉头车道设计思路不同(有些在最左侧,有些在最右侧);以及临时施工或管制时的各种电子屏幕信息。 

这些烧脑的交通变化,别说是智驾系统了,就算是人类司机,当第一次遇上这些情况,也得打起 100% 的专注度才不会走错道。 

理想汽车的 CEO 李想去年年中有个著名的演讲,把人类驾驶者的大脑分为系统 1 和系统 2,系统 1 负责以低能耗的方式处理直觉类工作,而系统 2 则负责在复杂情况中进行推理,处理各种 Corner Case。 

而以推理见长的语言模型 DeepSeek-R1,从原理来说是有望提升「系统 2」的能力的。例如,更精准识别和理解不同交通标识(公交车道、潮汐车道),从而做出更好的驾驶判断。并且,DeepSeek-R1 提高了模型的训练效率和推理能力,也有望优化车端的推理速度,在算力有限的端侧也达到更好的智驾能力。 

智驾开发的另一个难度,体现在数据采集侧。不同于语言大模型可以直接利用海量的数字文本资源进行训练,智驾往往需要先在真实物理世界中采集数据,才能进行训练。 

由于引入了 MoE(混合专家架构)、MLA(多头潜在注意力机制)等技术,DeepSeek 本身降低了对数据标注的需求,因此可以帮助智驾企业进行数据挖掘和生成,降低数采和标注的成本。 

而在另一个层面,DeepSeek 的多模态模型(非 R1)可以模拟生成一些难以采集的场景数据,如极端路线、罕见交通标识等。而通过仿真数据进行智能驾驶的训练或验证,也是包括华为、蔚来等多家车企进行智驾模型训练的重要工作之一。 

以上这些工作,虽然不像云服务商接入 DeepSeek,可以直接解决用户访问主站时转圈圈的燃眉之急,但对车企而言同样重要。毕竟比亚迪已经喊出了「全民智驾」的口号,智驾毫无疑问将成为 2025 年竞争的重点。在同价位段车型里提供更好的智能化功能,将成为消费者选择决策中新的重要考量因素。 

当然,正如前文所言,一辆智能汽车各项功能的发挥,不仅只仰仗于某些单一技术的突破,车端其他硬件层面的优化(如更大算力的智驾芯片)以及模型侧其他能力的优化,将共同决定我们何时达到 L3 级别的智驾智舱能力。 

DeepSeek 在智能化浪潮里,给了所有创新者一个小成本高性能的样本,但不是一套可以照抄的答案,未来的汽车产品应该走向何方,还需要真正懂产品懂 AI 的人来「深度求索」。