当下,人工智能蓬勃发展,创新技术不断涌出, 整个行业正经历着一场意义深远的变革。
而这其中,DeepSeek 和 LPU 的出现格外引人注目。DeepSeek 凭借其卓越的性能和强大的成本优势,迅速在全球范围内圈粉无数,掀起了一股使用热潮。而LPU,作为专为语言处理任务量身定制的硬件处理器,以其区别于传统 GPU 的创新架构、令人惊叹的性能表现和超低的成本优势,成为了 AI 领域的新宠。
DeepSeek与LPU的结合,或许会为这场变革注入新的动力。
2024年2月,由谷歌TPU设计者Jonathan Ross创立的Groq公司发布新一代LPU,实测性能引发行业震动:在Meta Llama 2-70B推理任务中,其LPU相较英伟达H100实现10倍性能提升,推理成本降低80%。而LPU本质为减少计算中内存调用次数,从而实现推理效率的提升。对推理芯片而言,更高性能、更低成本的LPU,提供了一个新的技术路径选项。
LPU,全称 Language Processing Unitix,是一种专门为语言处理任务设计的硬件处理器。它与我们熟知的 GPU(Graphics Processing Unit,图形处理器)有着本质的区别。GPU 最初是为处理图形渲染任务而设计的,在并行计算方面表现出色,因此后来被广泛应用于人工智能领域的模型训练和推理。然而,LPU 则是专门针对语言处理任务进行优化的,旨在更高效地处理文本数据,执行诸如自然语言理解、文本生成等任务。
从硬件架构来看,LPU 有着独特的设计,采用了时序指令集计算机架构。同时,LPU 不需要芯片外内存,这是其区别于传统硬件架构的重要特点。传统的 GPU 在运行过程中,需要依赖高速的数据传输和大量的芯片外内存来存储和处理数据,这不仅增加了硬件成本,还可能在数据传输过程中产生延迟,影响系统性能。而 LPU 使用的是 SRAM(Static Random - Access Memory,静态随机存取存储器),其速度比 GPU 所用的存储器快约 20 倍。这种高速的内存使得 LPU 在处理数据时能够更快地读取和写入信息,大大提高了处理效率。
在能效方面,LPU通过减少多线程管理的开销和避免核心资源的未充分利用,实现了更高的每瓦特计算性能,在执行推理任务时,无需像GPU那样频繁从内存加载数据,消耗的电量也低于英伟达的GPU。
Groq公司作为LPU的重要推动者,公布的LPU性能令人惊叹。与当前行业内的领先模型相比,LPU展现出了巨大的优势。例如,在与GPT - 4的对比中,Groq的LPU比 GPT - 4 快18倍,在处理速度上达到了每秒500 token的惊人成绩,打破了行业纪录,其性能是英伟达GPU的10倍。而且,不同于英伟达GPU对高速数据传输和高带宽存储器(HBM)的依赖,Groq的LPU系统中没有采用HBM,而是通过优化的SRAM设计,实现了高效的数据处理。这种独特的设计使得LPU在保证高性能的同时,还降低了硬件成本和系统复杂性。
这一突破也凸显了计算模式的潜在转变,即在处理基于语言的任务时,LPU 可以提供一种专业化、更高效的替代方案,挑战传统上占主导地位的 GPU。
国产LPU当然也受到市场关注。
目前,清华系的无问芯穹已研发出全球首个基于FPGA(现场可编程逻辑门阵列)的大模型处理器,称其为无穹LPU,通过大模型高效压缩的软硬件协同优化技术,使得LLaMA2-7B模型的FPGA部署成本从4块卡减少至1块卡,并且性价比与能效比均高于同等工艺GPU,即展示“一张卡跑大模型”。
无问芯穹研发的端侧大模型推理处理器 LPU采用异构计算技术。其核心目标是提供如水电煤般便捷的算力服务,解决当前市场中算力资源匮乏的问题。目前已通过适配多种 AI 芯片,实现不同模型高效并行处理,根据无问芯穹的内部测试数据,这款芯片在大规模模型推理场景中,算力成本下降高达90%,为国内算力之困开辟了一条前路。
据悉,无问芯穹成立于2023年5月,创始团队来自清华大学电子工程系,致力于成为大模型落地过程中的"M×N"中间层,以打造大模型软硬件一体化方案,链接上下游,建立AGI(通用人工智能)时代大模型基础设施。
2025年1月20日,DeepSeek正式发布DeepSeek-R1模型,在数学、代码、自然语言推理等任务上,性能成功比肩OpenAI-o1正式版,在1月24日国外大模型排名Arena上,DeepSeek-R1基准测试升至全类别大模型第三,在风格控制类模型分类中与OpenAI-o1并列第一,展现出强大的技术实力。仅仅一周后,DeepSeek在中国区及美区苹果App Store免费榜均占据首位,成为首个同期在中国和美区苹果App Store占据第一位的中国应用,用户量在短时间内迅速攀升,在全球范围内掀起了使用热潮。
DeepSeek发展速度之快令人咋舌,日活数据的增长堪称 “火箭式” 上升。前几日,DeepSeek 的日活刚突破 2000 万,然而不到一周的时间,日活已经飙升至 3000 万,短短 7 天内用户增长一个亿。与之形成鲜明对比的是,曾经风靡全球的 ChatGPT 达到同样的用户增长规模需要 2 个月的时间。DeepSeek 的快速崛起,彰显了其在人工智能领域的强大竞争力和市场吸引力。
随着 DeepSeek 用户的大规模增长,对上游做算力的公司产生了显著的利好影响。算力作为人工智能运行的基础支撑,是模型训练和推理得以实现的关键。DeepSeek 的火爆意味着对算力的需求呈指数级增长,这为上游的算力供应商提供了广阔的市场空间。
值得一提的是,三家基础电信企业均全面接入 DeepSeek 开源大模型。这一举措不仅进一步推动了 DeepSeek 的广泛应用,还为电信企业自身的业务发展带来了新的机遇。电信企业拥有丰富的网络资源和庞大的用户基础,接入 DeepSeek 大模型后,可以将人工智能技术融入到通信服务、智能客服、大数据分析等多个业务领域,提升服务质量和用户体验,同时也为自身在人工智能时代的转型发展奠定了坚实的基础。
在市场层面,DeepSeek 的成功也引发了资本的关注。大量的投资涌入与 DeepSeek 相关的产业链,从算力支持到算法优化,再到应用开发,各个环节都成为了资本追逐的热点。这不仅促进了相关企业的技术研发和业务拓展,还加速了整个行业的发展进程。
之所以DeepSeek如此受到关注,除了其在性能上的卓越表现外,还在于其具有强大的成本优势。DeepSeek模型厉害的地方在于,整个训练仅花费了557.6万美元,在2048xH800集群上运行55天完成。性能却能和OpenAI的顶尖模型ChatGPT-o1比肩,甚至在某些领域还强一点。
这笔费用是什么概念呢?Anthropic 的 CEO曾透露,GPT-4o这样的模型训练成本约为1亿美元。而目前正在开发的AI大模型训练成本可能高达10亿美元。他还预测,未来三年内,AI大模型的训练成本将上升至100亿美元甚至1000亿美元。换句话说,DeepSeek-V3的这个成本几乎可以忽略不计。由于OpenAI的大模型成本巨大,在美国政府的支持下,甚至发起了总投资5000亿美元的星门计划来建设AI设施。
AI基础设施建设的巨额成本一直是阻挡AI大规模应用的绊脚石。
DeepSeek-R1具备高性能、低成本、开源三大属性。DeepSeek-R1问世,其开源属性为企业提供了技术底座,如教育机构可基于开源代码定制学科知识库、教学场景交互逻辑等,人力资源机构也可针对招聘培训等垂直场景构建垂直助手。且DeepSeek-R1大模型单次训练和推理对算力的需求低,因此基于DeepSeek-R1二次训练的成本也更低,更有利于企业低成本训练及本地部署。简而言之,DeepSeek-R1的突破性发展,直接降低了AI应用的研发落地成本,将加速AI技术在各行业的渗透。
如果说,DeepSeek属于“核弹”级,那LPU就是“氢弹”级。据了解,美国Groq公司已经在自己的LPU芯片上实机运行DeepSeek,效率比最新的H100快上一个量级,达到每秒24000token。某种程度上,单纯靠堆砌硬件算力,实现智力的逻辑也将失效。随着硬件芯片制程逐渐到达瓶颈,后期人工智能主要靠算法和芯片架构优化推动。
而DeepSeek 与 LPU 的结合标志着 AI 算力领域的重要变革,特别是在大语言模型(LLM)推理场景中展现出显著的技术突破和市场潜力。这种结合使得大语言模型在处理速度、成本控制和应用范围等方面都有了新的突破,为人工智能的发展开辟了新的道路。
作为LPU的主要供应商,美半导体初创公司Groq也受到了投资市场的看好。据了解,目前该公司已获得沙特阿拉伯15亿美元的承诺投资,以支持 Groq 扩建位于沙特达曼的 AI 推理基础设施。Groq 的达曼数据中心由该企业同石油巨头沙特阿美旗下子公司合作建设,目前该数据中心已包含 19000 个 Groq LPU(语言处理单元),可向 41 个国家的 40 亿用户提供服务。
另一方面,这也对英伟达和其他美国人工智能科技公司造成打击,三星电子和 SK 海力士预计将在快速增长的人工智能 (AI) 内存芯片业务中面临越来越多的不确定性。而这两家公司主要生产用于英伟达GPU的HBM芯片。SK海力士1月份的数据比12月下跌了19.3%。这是自2023年4月该公司开发出全球12层HBM3芯片以来,环比跌幅最大的一次。
当LPU技术将AI创作成本降至消费级硬件可承载范围,普通人使用RTX显卡即可运行百亿参数模型时,UGC内容生产将迎来核爆式增长。这种生产力解放可能提前10年实现"人人都是创作者"的预言。
当 LPU 架构与神经拟态芯片结合后,个人设备的计算能力将得到质的飞跃。也许,未来的智能手机或笔记本电脑,借助这种技术,用户无需联网就能在本地快速运行复杂的语言模型,实现高效的个人工作流部署。