DeepSeek:重塑全球AI格局的开源创新与产业变革
4 小时前 / 阅读约27分钟
来源:36kr
DeepSeek-R1开源模型引领AI革命,低成本挑战OpenAI重塑全球格局。

前言

2025年2月15日,当微信AI搜索正式灰度测试接入DeepSeek-R1模型时,这场始于中国杭州的AI革命迎来标志性时刻——国民级应用全面拥抱开源大模型,这款不到两年时间便改写全球AI格局的大模型,正以开源生态与极致成本重塑行业规则。

DeepSeek的诞生正值全球AI技术格局重塑的关键时期——美国通过OpenAI、Anthropic等企业主导闭源模型生态,而中国则亟需突破算力与数据壁垒,探索差异化发展路径。DeepSeek于2025年1月20日发布开源模型R1,对标OpenAI最先进的推理模型O1,其不仅用557.6万美元(GPT-4O模型训练成本的1/20)的训练成本实现与OpenAI O1相近的性能,更凭借其"算法-算力-生态"协同创新的中国范式,在硅谷主导的AI竞赛中独辟蹊径,备受全世界AI产业圈及资本市场瞩目。

DeepSeek创新推出混合专家架构(MoE)和多头潜在注意力机制(MLA),大幅压缩了推理成本并有效解决了内存限制问题。在此基础上,DeepSeek-R1通过分组相对策略优化(GRPO)算法强化学习,极大的提高了训练效率并降低训练成本。更关键的是,DeepSeek在开源社区GitHub上线不到3个月,其Star数量便超越OpenAI,开发者生态贡献的优化方案被反哺至企业版模型,形成"开源驱动创新-商业反哺技术"的闭环。

当前,DeepSeek凭借其“高性能、低成本”的技术优势,正推动全球AI竞争进入新维度。OpenAI紧急下调API价格(DeepSeek R1的API定价仅为GPT-4的1/50),国内外云厂商纷纷上线DeepSeek大模型,华为昇腾、寒武纪等国产芯片厂商通过与DeepSeek深度适配正在改写英伟达的算力垄断格局,华为、海光、龙芯等国内芯片设计公司纷纷完成了对DeepSeek的适配工作,手机、汽车厂商也开始加速部署DeepSeek寻求AI转型。我们有理由相信,DeepSeek这场“开源普惠式变革”正在催生一个更开放、更多元的AI生态,国内AI产业链参与方也将从“被动跟随”转向“主动引领”,为全球下一代人工智能探索出一条行之有效的中国路径。

DeepSeek影响下的AI产业趋势

1. 算力平权运动:DeepSeek通过新的训推范式实现降本增效,但算力仍是AI产业发展之基,算力、存力、运力缺一不可

传统的AI模型训练主要依赖于预训练(pre-training),但这一范式的成本越来越高,且难以获得稳定的性能提升。而新的AI训练范式,即基于合成数据和强化学习进行推理的后训练(post-training)方法,则能够较低成本下更快提升模型能力。DeepSeek采用多Token预测(MTP)、FP8训练、混合专家模型(MoE)、强化学习(RL)、多头潜在注意力机制(MLA)等技术创新大幅优化了算力利用效率,以极低的训练和推理成本实现与顶尖模型相媲美的性能,实现“算力平权化”

展望未来,我们认为全球算力总需求将遵循“杰文斯悖论*”,仍将大幅扩张,高端算力将成为国内稀缺资源,高性能存储和高速网络也是提升算力利用效率的必要条件。当前阶段大模型行业正处于从传统的生成式模型向深度推理模型过渡阶段,算力的整体需求也从预训练阶段逐步过渡向后训练和推理侧。算力行业的长期增长逻辑并未受到挑战,算、存、网三大板块核心芯片共同构成算力生态,将持续受益于AI行业的旺盛需求。

*杰文斯悖论:当技术进步提高了使用资源的效率,但成本降低导致需求增加,底层资源的消耗量反而提升。

训练角度,大规模算力依然是探索大模型路线的必须门槛。虽然蒸馏策略经济有效,但要探索更强的模型性能,仍然需要更强大的基础模型和更大规模的强化学习,强化学习需要消耗巨量的算力,要生成用于后训练的合成数据也需要投入大量计算资源。推理角度,随着DeepSeek的高性能和低成本刺激AI在更多场景的商业化落地,推理算力需求预计将迎来爆炸式增长。

*资料来源:OpenAI

2. Scaling Law延拓:Scaling Law仍然有效,助力模型性能持续提升

DeepSeek通过算法创新、通信调度优化而非硬件堆砌的方式显著提升了模型的表现。这也验证了AI一直遵循推理成本不断下降、计算效率持续提高、相同级别AI能力所需计算量大幅减少的趋势,算法改进使得更少的计算资源就能训练和推理出相同能力的模型。

Scaling Law(缩放定律)指出,当模型的参数量、训练数据量和计算资源(如训练时间)按一定比例同步增加时,模型的性能会以可预测的方式持续提升。虽然由于电力、训练数据等限制,预训练Scaling Law的边际效益到一定规模后可能会逐渐递减,但只有大量部署者才会遇到Scaling Law边际效应放缓的情况,而国内算力集群建设仍远未触及天花板,DeepSeek的算法进步也将推动预训练侧的Scaling Law迈向后训练、深度推理等更广阔的空间。

*资料来源:英伟达

与此同时,国内外的一线云服务厂商(CSP)对于AI基建的资本支出争先恐后,仍在保持高速增长。根据SemiAnalysis数据,DeepSeek V3和R1发布以来,H100 GPU价格在许多地区均大幅上涨。

*资料来源:各公司官网,Wind

3. 类安卓的革命:DeepSeek引领AI成本下行,AI应用将呈现百花齐放、众人拾柴火焰高的局面

在集成电路、PC互联网、移动互联网时代,成本下降均推动了技术普及和下游应用的百花齐放,DeepSeek亦有望打开AI应用市场空间。DeepSeek-R1采取激进的定价策略,可免费使用,且其API/token定价最低不到OpenAI-o1的1/100,引发业内价格战,带动AI使用成本下降。应用层有望受益于模型平权和降本,加速AI应用多元化。

*资料来源:共研产业咨询,工信部,中国宽带发展白皮书,芯原股份,东方财富,IBS,Semianalysis,WSTS

DeepSeek的开源举措具有重大意义,可类比移动互联网时代安卓系统的开源。正如安卓系统的开源最终带来了手机市场的更新换代和移动互联网产业的蓬勃发展,DeepSeek开源便于下游应用厂商进行私有部署和自主微调,从而更好探索PMF(Product-Market Fit,产品市场匹配度)。DeepSeek-R1也有望引发新一轮大模型API降价,小模型通过蒸馏亦能具备强劲推理能力,促使开发者探索更多应用落地的可能性,AI应用迎来“安卓时刻”。深耕细分领域和垂类行业、具有数据壁垒、用户量多且生态好的的应用及模型将率先享受行业红利。

4. 地缘政治影响:DeepSeek为国内AI行业注入新动力,存在国产产业链投资机会

随着DeepSeek成为全球现象级大模型,其突破性表现颠覆了国际社会对中国AI发展的刻板认知,为中国AI企业创新注入强心剂。此前外界普遍认为中美AI技术存在两年差距,但DeepSeek-V3、R1等产品在推理效率、多模态交互等维度展现的竞争力,证明差距已经被大大缩小,甚至在某些方面实现了超越。

与此同时,DeepSeek也给美国敲响了警钟,美国对中国先进制程设备及先进计算芯片的出口管制可能进一步加强。英伟达1月取消了大量H20订单,预示美国可能出台新的禁令,国内AI和半导体产业强链、补链需求迫在眉睫,亟待优秀的国内企业破局。

DeepSeek对一级市场投资风向的影响

1. DeepSeek仍利好算力产业链,但侧重点出现转变

DeepSeek通过算法创新与开源生态,推动大模型行业进入"降本增效-场景爆发-算力反哺"的正向循环。但这种创新并非抑制算力需求,而是通过MoE、MLA注意力机制改进、FP8混合精度训练等技术突破,实现单位算力效率的指数级提升,为算力资源的集约化利用提供了新范式。

国内训练算力集群建设仍处于早期,头部厂商万卡集群部署对比国际领先水平较为落后。尽管可能存在短期算力采购节奏调整(部分厂商转向架构优化替代硬件堆叠),但行业长期遵循ScalingLaw逻辑未改,多模态等复杂场景将持续推高训练算力需求。

国内推理算力集群建设过去受制于大模型落地场景规模不足因而算力密度较低,但DeepSeek 0.014美元/百万token的极致定价将推动推理需求呈百倍级增长,带动推理算力集群部署模式革新。云端推理算力集群有望升级为千卡级高效集群,并向边端侧时延敏感场景延伸,驱动推理算力向"云边端"三级架构演进。

1.硬件

1.1 算力

在训练侧,单个集群的加速计算芯片需求已从千卡级跃升至万卡级别,头部科技企业也正加速布局十万卡级超大规模集群。随着ScalingLaw持续发展,预计未来2-3年内万卡以上的训练集群将成为行业标配。

在推理侧,虽然单个集群算力需求普遍低于训练集群,但其部署规模具备量级优势。值得注意的是,随着DeepSeek模型发布及未来在垂直领域的深度渗透,推理集群正经历结构性升级:公有云企业最先面临算力配置需求升级,单集群算力从百卡级向千卡级演进,私有化部署的推理算力(如私有云、一体机)需求也在增加。

① 云/边算力芯片

从技术路线来看,训练芯片与推理芯片正沿着不同路径迭代升级:

训练芯片:

DeepSeek不会让训练成本的下降曲线变得更陡峭,也不会改变现有芯片设计理念及整体走势。训练芯片仍持续追求算力密度突破,重点关注显存带宽、FP32/FP64高精度算力。目前训练卡90%以上均为英伟达A100、H100和H200等,国产训练芯片在高精度算力、HBM容量和互联带宽等关键指标上仍存在代际差距。

推理芯片:

推理芯片层面相对而言,国内头部芯片代差较小,目前英伟达4090占推理卡近一半,其余部分为国产算力卡,随着DeepSeek带来的推理集群建设需求爆发,国产推理芯片凭借性价比优势有望获得更大部分市场占比。

训练阶段需要高精度计算芯片(如支持FP32/FP64的GPU),以保障模型参数更新的准确性;而推理阶段对精度要求较低(如FP16/INT8),更注重能效比和成本,因此ASIC等专用推理芯以及算力相对较低的国产GPU卡有望逐渐普及。

国内训练卡通常采用7nm,而推理卡则多采用12-14nm工艺,国产工艺有望补齐制造端国产化。

DeepSeek带来推理集群规模升级,相应推理芯片也将从单节点向单机多卡架构演进,多卡集群对推理芯片 多卡互联能力要求提升。但目前市面可用的推理卡在带宽、互连速率上与训练卡存在差异,尤其是国产卡类“NVLink”的多卡互联能力较低,相比A100等训练卡的劣势明显,进而可能导致模型推理的时效性不佳。

训推一体:

传统上训练与推理集群分离,但随着推理需求升级“训推一体”技术逐渐兴起。头部厂商正通过统一计算架构降低客户切换成本,通过同一集群分时复用资源(如白天训练、夜间推理)或动态调度来提高GPU利用率。

② 端侧AI芯片:云端先行,边缘升级加速迭代

DeepSeek通过强化学习等后训练技术创新,为下游客户部署降低模型开销和大小,这种模型轻量化突破直接推动边缘端部署成本下降,为智能手机、IoT设备等终端的AI功能普及扫清障碍。

边缘AI芯片作为大模型落地的"最后一公里"载体,正经历从通用GPU向专用AISoC的范式转变。边缘AI芯片更多承担推理任务,主要作为AISoC嵌入终端设备,核心是解决终端设备的算力和功耗问题,性能上更追求在单位算力、功耗和成本等多方面的综合表现。

复杂的下游需求导致端侧芯片设计多种多样,端侧芯片厂商正大量涌现,长远来看“性能层面可支持绝大部分大模型落地”、“深度绑定下游客户紧密结合客户需求的”厂商将有望得到快速发展。潜力厂商需突破两大壁垒:算法-芯片协同优化能力和客户场景理解深度。

在AI端侧应用升级浪潮中,下游应用领域呈现明显的技术分层特征,尤其以AI手机、AIPC、智能汽车和具身智能为代表的"算力密集型"场景正成为投资焦点。相对于其他AI硬件,这些领域因需承载复杂的环境感知、实时决策和自主执行能力,对AI大模型的推理精度和响应速度提出更高要求,形成了从芯片架构到算法优化的多重技术壁垒。

*数据来源:光羽芯辰、IDC、OPPO、联想、counterpoint

1.2 运力

训练集群网络架构着重于大规模并行计算及高带宽互联,数千乃至数十万张GPU卡协同工作,这就要求网络能够支持点对点的充分互联。首先,大量的数据需要在GPU卡之间快速传输,因此对网络带宽、时延和可靠性的要求极高。为了满足这些需求,目前业界优先采用高性能、高速且可扩展的网络技术,比如支持RDMA(远程直接内存访问)功能的RoCEv2等方案。这些方案不仅能提供超高的带宽,保障数据传输的高效性,还需要具备出色的扩展性,能够支持弹性扩展至数十万卡规模,为大模型训练提供坚实的网络基础。

推理集群则更侧重于低时延和灵活性。由于推理任务大多需要实时响应,网络必须保障单次请求能够得到快速处理。在过去,推理任务通常依靠单台GPU服务器即可完成,网络结构相对简单,不需要大规模的并行互联。然而,随着DeepSeek出现,下游推理需求的爆发有望推动推理集群网络的升级,未来推理集群多卡互联、多机互联的需求也将逐渐增加,这也相应地带动了对带有RDMA功能芯片和设备的需求增长。

① 网卡

一方面,训练集群的建设步伐仍将持续加速,单集群计算卡规模也稳步增长。为应对未来万卡、十万卡集群的网络需求,网卡是否具备可扩展性、容错能力成为关键。可扩展性确保在算力需求激增时,集群能够迅速扩展资源,无缝衔接高强度训练任务。同时鉴于大规模集群网络中丢包率、拥塞情况易增加,网卡若具备容错能力也能够保障训练进程不受个别节点故障的干扰,维持运算的连续性与稳定性。

另一方面,推理集群领域同样迎来深刻变革。不仅其总体数量呈上升趋势,单个推理集群的规模也在经历跨越式升级,正逐步从传统的百卡集群向更为强大的千卡集群迈进。这一升级过程直接驱动了对先进网络设备的需求激增,尤其是具备多卡互联、多机互联功能的RDMA网卡。RDMA网卡凭借其低延迟、多机高速互联的数据传输特性,能够更好的契合千卡集群内部海量数据交互需求,保障推理任务在复杂集群架构下的高效执行。

此外,训推一体算力集群的出现对网卡提出了潮汐算力调配的需求。首先,在模型的全生命周期内,对算力的需求呈现出显著的动态变化特征。在初始阶段,随着模型训练的深入、参数调优的推进,算力需求呈上升曲线;而临近生命周期尾声,训练算力需求则逐渐回落。同样,在一天的时间跨度内,深夜时段业务低谷期算力需求相对低迷,白昼高峰时段则因大量实时推理与密集训练任务而飙升。面对如此复杂多变的算力需求,动态调整模型算力分配策略势在必行,确保资源精准投放,避免浪费。

在这种情况下,推理集群的算力以池化形式存在,服务于众多各异的模型。由于每个模型在不同时段的算力需求均处于动态变化之中,导致GPU分配无法始终遵循传统的成块分配模式。此时,构建强大的高速互联网络成为破局关键,借助该网络,即便在超大规模集群环境下(涵盖万卡、十万卡甚至更庞大的规模),GPU之间也能实现近乎实时的高速互联,进而达成推理GPU的灵活调配。例如,可将夜间闲置的推理专用GPU资源灵活转用于训练任务,最大化提升GPU池化利用率,真正借助高速网络将碎片化资源转化为高效可用的算力资产。

② 交换机及其光电芯片

RDMA作为一种高效的协议层解决方案,能够实现节点间直接的内存数据访问,极大地提升了数据传输效率,为集群运算中的高速通讯筑牢根基。然而,仅有出色的协议设计还远远不够,与之相匹配的物理层支持同样不可或缺。光模块作为物理层部件也十分关键,否则容易导致丢包等状况,严重影响数据传输的完整性与及时性,进而阻碍集群运算的流畅进行。

从集群应用场景来看,训练集群与推理集群对传输速率的需求存在显著差异。当下,训练集群在速率追求上堪称激进,800G速率的设备炙手可热,并且行业仍在不遗余力地向1.6T更高峰攀登。这源于训练大模型时,海量的数据需要在极短时间内于各个GPU节点间交互穿梭,对带宽要求极高。相较而言,推理集群的速率需求则相对缓和,现阶段主要应用112G和224G的设备。推理任务侧重于对已有模型的快速调用,单次数据传输量相对训练环节少得多,因此不需要训练集群那般超高速率。

但未来随着DeepSeek带来的应用推理普及与成本优化,推理端展现出强劲的落地增长势头,中小客户群体将进一步增加。一方面,基座大模型如DeepSeek通过算法创新训练推理成本得以大幅削减,这为细分领域的企业开启了更多机遇,使其能够以更具性价比的方式训练专属的细分模型。另一方面,细分领域的数据往往具有高度的企业内部关联性与敏感性,需要妥善保存在特定企业内部。这些企业在未来借助成本可控的推理算力,有望利用自身积累的数据构建小型私有云中心,实现数据的内部闭环利用,推动业务创新。尽管单个推理集群的规模相较于训练集群较小,但鉴于众多企业对此类应用的广泛需求,将会涌现出大批新增的中小客户群体。

1.3 存力

高性能GPU集群在训练期间,需要存储海量的中间激活值、梯度数据等。同时,训练作业还必须支持例如FP32/FP64的高精度计算,这使得其对内存及显存带宽的要求十分苛刻。目前大部份GPU训练卡都采用CoWoS方案内部封装HBM芯片。

与之相比,推理集群内存需求相对训练环节要低得多,只需要计算模型的权重、KV Cache和激活,并且大多采用低精度计算模式(如FP16/INT8)。一般推理阶段的内存需求仅为训练时的15%-30%,但鉴于大模型本身参数量极为庞大,即便在推理流程中仍离不开较高容量内存的有力支撑。

① HBM、存算一体

HBM在大模型的训练与推理进程中,始终稳稳占据着核心地位。无论是训练时海量参数的频繁调整,还是推理阶段模型结果的快速输出,都离不开高性能存储的有力支撑,特别是对于大模型参数的实时存取需求,HBM能够凭借其超高带宽与低延迟特性,确保模型运算流程高效运行。

训练计算卡普遍采用SoC+HBM合封的方式,借助其强大的带宽优势,保障训练过程中数据能够在GPU与内存之间高速传输,避免因带宽瓶颈导致的运算效率低下问题。推理集群计算模式通常采用低精度计算,如INT8格式,这使得其对存储带宽的需求相对缓和。鉴于此部分推理卡在设计时,从成本效益角度出发,采用性价比更高的DDR5来代替HBM,或考虑利用CXL技术外挂大容量且成本较低的内存。

② 低功耗的嵌入式存储及新型存储

随着人工智能技术的不断下沉,AI模型逐渐向端侧设备迁移,诸如手机、智能家居等日常电子产品,都开始融入AI功能。在这些端侧设备中,由于受到电池电量、设备空间等因素的限制,对于低功耗、高能效的存储方案需求极为迫切。

其中,LPDDR5凭借其出色的功耗表现与一定的存储性能,成为端侧AI推理的热门选择之一。此外,高速、紧凑的嵌入式存储方案也日益受到关注,这类存储能够在极小的空间内提供高效的数据存储与读取服务,完美契合端侧设备小巧便携、功能集成的特性。

此外,端侧AI应用的新场景也推动了新型存储市场的增长。新兴的存储技术旨在集成SRAM的开关速度和DRAM的高密度特性,并具有Flash的非易失特性,具备千亿市场空间。在ReRAM等新型存储器的发展上,中国与其他国家站在同一起跑线,有机会出现下一个三星和海力士。

2.下游:降本后API/Token价格显著下降,加速AI Infra、AI应用、垂类模型、智能终端等领域的发展机遇

2.1 AI Infra(人工智能基础设施)作为连接算力与应用的关键中间层,其重要性在大模型时代愈发凸显。

随着大模型从训练转向应用落地,推理需求呈现爆发式增长。预计到2026年,大模型推理在算力使用中的占比将达到60%以上。推理优化部署解决方案成为关键,包括低延迟、高吞吐、低显存占用等技术需求。相关企业如清程极智推出的“赤兔”推理引擎,已在国产芯片上实现高效推理支持。MaaS(模型即服务)平台通过提供模型API和算力调度服务,帮助企业降低推理成本和提高效率。尽管面临与通用大模型公司的竞争,但MaaS平台在私有化部署和垂直领域仍有广阔市场,适合搭建自己的生态系统。训推一体机结合训练和推理功能,适合中小型企业客户,这部分客户出于安全和业务规模的考虑,可能对云端的模型需求不大。

2.2 随着大模型技术的快速发展和多模态技术的突破,AI应用/垂类模型/Agent正迎来前所未有的发展机遇

DeepSeek作为“AI界拼多多” 引爆了大模型行业的价格战,包括字节在内的大厂都不惜做“赔本买卖”把API价格降到业界估计的成本线下,但对使用模型的AI应用者而言,这样的价格战解锁了全新的可能性。对Open AI之后,DeepSeek之前的商业化to B AI应用而言,API降价引发的是利润的量变而非质变。比如原本那些取代白领劳动力的AI应用,所以他们会继续不惜代价的追求极致的AI大模型,价格的降低同时会释放他们的利润率。对于另外一种需要持续烧钱补贴的AI应用,DeepSeek属于“雪中送炭”,现在因为API降价后就变得有利可图了,从而可以迅速普及、上规模。比如,情感陪伴型的AI应用,过去的时候对于这类应用用户使用的越多反而是个“甜蜜的”负担,行业龙头Character AI的用户单次使用时长平均为两个小时,是Chat GPT的17倍。作为AI算力黑洞的AI gent(AI代理)受DS影响也很大,通常AI gent完成一个任务需要多步模型调用以及反复的自我修正与验证,甚至多个代理相互配合,对API调用的需求指数级上升,而如今在成本和响应速度上由于DeepSeek进步带来的改善也格外显著。AI数据标注行业作为人工智能发展的基石,正通过技术革新、政策支持与产业升级,重塑数据价值并推动智能化进程。

2.3 AI智能硬件依托大模型,训练的端侧模型具备参数小且无需依赖云端算力的成本优势,正快速赋能AI智能硬件的发展

DeepSeek让本地部署的AI小模型的能力突飞猛进,可能将迎来设备端AI应用的爆发,尤其是2C应用的百花齐放,例如娱乐类或虚拟人助手类的端侧应用。端侧AI使用推理成本对于应用开发者来讲边际成本几乎为0,因为端应用使用的计算资源全部来自用户所用的设备而不是云服务器。2025年CES展会上,AI智能眼镜和AI智能耳机作为两大智能终端等设备率先开始搭载专用AI模型。但物理世界的规则限制了硬件的发展速度,不会像数据增长与纯数据应用发展这么快。同时,因为DeepSeek的开源,可能会使得同品类的AI智能硬件差异性越来越小,那么如何避免创意趋同和抢占硬件红利的先机就显得尤为关键。

并且,AI智能硬件对基座模型的选择其实是个复杂的问题,不是简单地由成本和效能来定的,还包括切换成本、云厂商在搭建端侧模型的成本,甚至AI智能硬件还可以多个模型进行合作根据具体任务动态选择模型的策略越来越普遍,都让AI硬件的发展充满了不确定性。

① AI SaaS将迎来新的发展机遇,若能抓住这一技术红利,快速布局关键场景,将在竞争中占据显著优势

过去的SaaS行业,主要依赖规则引擎或小模型,导致产品平台的处理能力有限且需要人工矫正。而大模型能提升了工具的理解能力,支持多轮对话,个性化回答,还能处理多模态输入。比如语音、图片和视频,这对AI SaaS应用场景是一个极大的能力提升。此外,大模型的持续学习能力可以优化服务,比如自动更新知识库,减少人工维护。例如Zendesk、Salesforce Service Cloud等集成大模型,实现复杂问题自动分诊、工单摘要生成、情绪安抚。大模型对传统的AI SaaS行业是一场新的技术革命,可能会颠覆传统SaaS行业认知和发展路径,当下抢占先机很重要。大模型驱动的AI SaaS正从“工具赋能”迈向“智能重构”,企业需以场景深挖、技术闭环、模式创新为核心,在窗口期内建立护城河。优先布局客户痛点明确、数据积累丰富、大模型增益显著的领域(如AI客服、AI营销、AI律师、AI医生),同时通过合作共建生态,分散技术风险,最大化抢占市场红利。

② 大模型赋予人形机器人和智能驾驶从“规则驱动”向“自主智能”的极大想象空间

对于人形机器人,大模型整合视觉、语音、触觉等多传感器数据,提升环境理解能力以及感知、决策和交互能力。大模型突破传统编程逻辑,实现动态任务分解与实时调整,面对“打扫房间”的模糊指令,机器人能自主规划清扫顺序、避让障碍物、识别未清理区域。通过对话理解用户意图,甚至感知情绪(如语音语调分析),实现情感化响应。特斯拉的Optimus或Figure 01,多模态融合处理环境信息,任务规划中的复杂推理,以及更自然的与人互动,可以通过视觉语言模型(VLM)识别物体属性(如“易碎品需轻拿轻放”),结合力控模块调整抓取力度,而从原来的“机械”传感器方案转变为“智能识别”方案。智能驾驶方面,大模型可优化感知系统,比如BEV+Transformer架构。增强场景理解,大模型分析云端交通数据(如拥堵预测、事故预警),优化单车决策。端到端决策控制,大模型直接输入传感器数据,输出控制信号(方向盘、油门),模仿人类驾驶逻辑。特斯拉的FSD v12和Wayve的LINGO-1,说明大模型如何提升驾驶能力。同时,车路协同和仿真测试中的大模型应用也很重要。

总结

由于前沿大模型大部分难分伯仲,效率竞争进入白热化阶段,对于没有针对性行业或使用场景的横向AI创业公司,资本市场会重新评估他们的前景和估值。DeepSeek告诉我们,“价格低”、“好用”只是获客的第一步,成为平台并搭建起一套生态系统才是横向AI企业的发展出路。与之相对应的,专注于特定使用场景的纵向AI企业,则被认为是更容易建立差异化竞争优势。我们与很多投资人和开发者基本达成了一种共识,深耕细分领域的AI模型或应用会超越最厉害的通用大模型。

对于AI创业者和投资人而言,下场的黄金时机很可能才刚刚开始,要干大事儿现在正是好时候,就像当时的互联网时代一样,当年的Google和Amazon也都是后起之秀。总而言之,DeepSeek就像一条鲶鱼,搅乱了大模型行业的“鱼塘”,一方面开发者们受益匪浅,另一方面大模型行业的竞争却依旧“柳暗花明”。