32B 推理模型,仅用 1/8 数据,与同尺寸 DeepSeek-R1 打成平手。
就在刚刚,来自斯坦福、UC 伯克利、华盛顿大学等机构联手发布了一款 SOTA 级推理模型 ——OpenThinker-32B,并同时开源了高达 114k 的训练数据。
项目主页:https://www.open-thoughts.ai/blog/scale
Hugging Face:https://huggingface.co/open-thoughts/OpenThinker-32B
数据集:https://huggingface.co/datasets/open-thoughts/OpenThoughts-114k
团队发现:采用经 DeepSeek-R1 验证标注(基于 R1 蒸馏)的大规模优质数据集,便可训练出 SOTA 的推理模型。
具体方法,就是通过数据规模化、推理过程验证以及模型规模扩展。
由此得到的 OpenThinker-32B,在数学、代码和科学等多个基准测试中,OpenThinker-32B 性能直接碾压了李飞飞团队 s1 和 s1.1 模型,直逼 R1-Distill-32B。
值得一提的是,相比于使用了 800k 数据(包含 600k 个推理样本)的 R1-Distill,OpenThinker-32B 仅用了 114k 数据,就能拿下几乎同等的优异成绩。
除此之外,OpenThinker-32 还把模型权重、数据集、数据生成代码、训练代码上,全部都给公开了!
研究人员使用了与之前训练 OpenThinker-7B 模型相同的 OpenThoughts-114k 数据集来训练 OpenThinker-32B。
他们利用 DeepSeek-R1 模型,收集了精心挑选的 17.3 万个问题的推理过程和解答尝试。然后将这些原始数据作为 OpenThoughts-Unverfied-173k 数据集公开发布。
整个流程的最后一步是,如果推理过程未能通过验证,就过滤掉相应的数据样本。
下图可视化地展示了整个过程。
研究团队首先输入源数据或问题提示,这些内容可以来自不同的领域和平台,如 BAAI / TACO、DeepMind、Python 提交等,涉及代码、谜题、科学和数学等多个方面。
接着这些多元的输入会进入核心的处理模块 ——DeepSeek-R1,在这里对数据进行分析与处理。这些问题会被分成三个方面,分别是:科学类问题、数学与谜题和代码。
有些结果不需要验证,可能是简单的分析或直接输出。对于一些需要深入验证的内容,利用大语言模型(LLM)采用与 GT(Ground Truth)对比的方式进行评判。如果是代码,执行代码并进行单元测试,确保代码的正确性和有效性。
最后能将不同方向的结果结合起来,生成开放的思考和更为综合的解决方案。
研究团队更新了最终的 OpenThoughts-114k 数据集,加入了一个名为「metadata」的配置,其中包含了一些用于数据集构建的额外列:
problem
ground_truth_solution
test_cases (code only)
starter_code (code only)
DeepSeek_reasoning
DeepSeek_solution
domain
source
这些额外的元数据将使得这个数据集更容易用于新的场景,例如数据过滤、领域切换、验证检查以及更改推理过程的模板。
这些额外的元数据将得使该数据集使用起来更加容易,仅需一行代码就能完成例如过滤、更换领域、检查验证和更改推理跟踪模板等。
load_dataset("open-thoughts/OpenThoughts-114k", "metadata", split="train")
研究团队表示,他们期待看到社区利用这些问题和标准答案,在 OpenThinker 模型上进行强化学习(RL)的研究。DeepScaleR 已经证明,规模较小时,这种方法效果特别好。
为了得到最终的 OpenThoughts-114k 数据集,研究团队对答案进行了验证,并剔除了不正确的回答。
如下表所示,保留那些未通过验证的推理过程可能会损害性能,尽管未经验证的模型与其他 32B 推理模型相比仍然表现良好。
验证的作用在于,在扩大训练提示集的多样性和规模的同时,保持 R1 注释的质量。另一方面,未经验证的数据可以更容易地扩展,因此也值得进一步探索。
对于代码问题,他们通过对照已有的测试用例来验证解答尝试,从而完成推理过程的验证。
受到代码执行过程中所面临挑战的启发,他们在 Curator 中实现了一个代码执行框架,使用户能够大规模、安全地执行代码,并对照预期输出进行验证。
对于数学问题,研究团队使用一个 LLM(大语言模型)评判器来进行验证,它会同时接收标准答案和 DeepSeek-R1 的解答尝试。
结果发现,在数据生成过程中,使用 LLM 评判器而不是更严格的解析引擎(Math-Verify)进行验证,可以获得更高的有效数据率,并能训练出性能更好的下游模型。
研究团队使用 LLaMa-Factory 对 Qwen2.5-32B-Instruct 在 OpenThoughts-114k 数据集上进行了三轮微调,上下文长度为 16k。完整训练配置可在 GitHub 中找到。
OpenThinker-32B 在 AWS SageMaker 集群上使用四个 8xH100 P5 节点训练了 90 小时,累计使用了 2,880 个 H100 小时。
同时,OpenThinker-32B-Unverified 在 Leonardo 超级计算机上使用 96 个 4xA100 节点(每个 GPU64GB)训练了 30 小时,累计使用了 11,520 个 A100 小时。
研究团队使用开源评估库 Evalchemy(炼金术)对所有模型进行评估。
对于 AIME24 和 AIME25,他们通过平均五次运行的结果来计算准确率。评估配置使用 0.7 的温度参数,将模型响应限制在 32,768 个 token 以内,不添加任何额外的系统或用户提示词,也不使用任何特殊的解码策略(如预算强制)。
当启动 OpenThoughts 项目时,他们设定了一个目标,即创建一个性能可以达到 DeepSeek-R1-Distill-Qwen-32B 的开放数据模型。
现在这个差距已经几乎消除。
最后,研究团队为社区在过去几周在构建开放数据推理模型方面取得的快速进展感到振奋,并期待基于彼此的洞见继续向前发展。
OpenThinker-32B 的开源,证明了数据、验证和模型规模的协同作用是提升推理能力的关键。
这一成果不仅推动了开源推理模型的发展,也为整个 AI 社区提供了宝贵的资源和启示。
本文来自微信公众号:新智元(ID:AI_era),原标题《直逼 DeepSeek-R1-32B,碾压李飞飞 s1!UC 伯克利等开源全新 SOTA 推理模型》