从 DeepSeek 火热,到李飞飞团队新成果,“幕后高手”竟是它
3 小时前 / 阅读约5分钟
来源:IT之家
最近 AI 大模型领域可以说是热点话题不断,DeepSeek 的热潮还未消退,国内李飞飞团队提出的一种模型训练新方法又在行业里引发热议

最近 AI 大模型领域可以说是热点话题不断,DeepSeek 的热潮还未消退,国内李飞飞团队提出的一种模型训练新方法又在行业里引发热议。

具体来说,他们以阿里云通义千问 Qwen2.5-32B-Instruct 开源模型为底座,在 16 块 H100 GPU 上进行监督微调,仅用时 26 分钟便训练出了新模型 s1-32B。令人惊叹的是,该模型在数学及编码能力上取得了与 OpenAI 的 o1 和 DeepSeek 的 R1 等尖端推理模型相当的效果,甚至在竞赛数学问题上的表现比 o1-preview 高出 27%。

同时值得关注的是,DeepSeek 早在之前也曾透露,将 DeepSeek-R1 的推理能力蒸馏 6 个模型开源给社区,其中 4 个模型正是基于 Qwen 开发的。基于 Qwen-32B 蒸馏的模型,在多项能力上实现了对标 OpenAI o1-mini 的效果。

这表明,Qwen 模型不仅能够满足顶尖团队对模型性能的高要求,还能为不同团队提供多样化的开发路径,助力他们在各自的研究方向上取得突破。

一时间,在开源社区备受追捧的通义千问 Qwen 模型,因这一轮推理模型技术新浪潮又一次成为大家关注的焦点。

李飞飞团队与 DeepSeek 纷纷选择 Qwen 作为基座模型,已经足以引发业界的关注和广泛讨论,而这一现象背后,不仅是 Qwen 模型自身强大的性能与独特优势的体现,更是开源理念推动技术进步的生动案例。

那么 Qwen 模型究竟强在哪里?又为什么如此受到热捧呢?IT之家认为主要有以下几点原因。

首先,是阿里云 Qwen 模型具有强劲的性能优势。

据了解,阿里云通义千问 Qwen 模型自 2023 年 8 月起相继开源了 Qwen、Qwen1.5、Qwen2、Qwen2.5 等 4 代模型,涵盖了大语言模型、多模态模型、数学模型和代码模型等数十款。这些模型在全球多个权威榜单上屡次斩获“全球开源冠军”,性能全球领先。

例如,在 HuggingFace 的 Open LLM Leaderboard、Chatbot Arena 大模型盲测榜单、司南 OpenCompass 等多个国内外知名榜单上,Qwen 模型都展现出了卓越的实力。其强大的性能为开发者提供了坚实的基础,使得基于 Qwen 开发的模型能够在各种应用场景中表现出色。

除了强劲的性能,Qwen 模型的开源策略也是是其受到广泛欢迎的重要原因之一。

要知道,阿里云率先实现了“全尺寸、全模态、多场景”的开源,从 1.5B 到 72B 乃至 110B,Qwen 开源的模型尺寸及版本覆盖面最广。这种多样化的选择为开发者和企业提供了极大的便利,无论是小型项目还是大规模应用,都能找到适合的 Qwen 模型版本。2024 年,仅 Qwen2.5-1.5B-Instruct 这款模型,就占到了全球模型下载量的 26.6%,远高于第二名 Llama-3.1-8B-Instruct-GGUF 的 6.44%。同时仅视觉理解 Qwen-VL 及 Qwen2-VL 两款模型,全球下载量就突破 3200 万次,一周前,Qwen2.5-VL 全新升级,又引发新一轮开源社区狂热。这充分说明了 Qwen 模型在开源社区中的受欢迎程度。

第三点,Qwen 模型的火热还得益于其庞大的衍生模型群。

截至目前,海内外开源社区中 Qwen 的衍生模型数量已突破 9 万,超越了 Llama 系列衍生模型,成为世界最大的生成式语言模型族群。这一庞大的衍生模型群不仅体现了 Qwen 模型的广泛影响力,也反映了其在技术上的可扩展性和适应性。全球 AI 模型开发者都可以基于 Qwen 进行不同技术的差异化比较,从而进一步推动了 Qwen 的火热。这种开源生态的繁荣,使得 Qwen 成为了开源社区事实上最重要的标杆基座模型。

通过以上三点的分析,我们其实已经可以得出结论:Qwen 模型性能强劲,开源尺寸多样化,并且拥有全球最大的衍生模型群,已经取代 Llama 成为开源社区事实上最重要的标杆基座模型。

总之,阿里云通义千问 Qwen 模型因其强劲的性能、开源与尺寸多样化以及庞大的衍生模型群等优势,成为了李飞飞团队和 DeepSeek 的共同选择。这不仅展示了 Qwen 模型在人工智能领域的卓越实力,也体现了开源理念在推动技术创新、促进开源生态建设和助力行业应用落地等方面的重要价值。随着人工智能技术的不断发展,我们有理由相信,Qwen 模型将继续引领开源潮流,为全球人工智能的发展贡献更多力量。