openthinker

| 选择喜欢的代码风格  

openthinker 参数量


7b 32b
 

openthinker 模型介绍



openthinker AI Models

OpenThinker 是 Qwen2.5 在 OpenThoughts-114k 数据集 上进行微调的一系列模型,在某些基准测试中超越了 DeepSeek-R1 蒸馏模型

该数据集是使用 GitHub 上提供的数据流水线对 DeepSeek-R1 进行蒸馏而得。有关该数据集的更多信息,请参阅 OpenThoughts-114k 数据集的数据集卡片。Open Thoughts 项目:SkyT1、STILL-2 和 DeepSeek-R1 等近期取得的突破表明,只需数十万次推理演示即可显著提升语言模型的推理能力。随着 DeepSeek-R1 的发布,如今此类思维演示可以低成本、大规模地合成创建。

 

ollama CLI 调用 openthinker


ollama run openthinker:32b
ollama run openthinker:7b # default
 

openthinker 模型数据对比


openthinker 7B (Default)


AIME24 MATH500 GPQA-Diamond LCBv2 Easy LCBv2 Medium LCBv2 Hard LCBv2 All
OpenThinker-7B 31.3 83.0 42.4 75.3 28.6 6.5 39.9
Bespoke-Stratos-7B 22.7 79.6 38.9 71.4 25.2 0.8 35.8
DeepSeek-R1-Distill-Qwen-7B 60 88.2 46.9 79.7 45.1 14.6 50.1
gpt-4o-0513 8.7 75.8 46.5 87.4 42.7 8.9 50.5
o1-mini 64 85.6 60 92.8 74.7 39.8 72.8

openthinker 32B


Model Name Dataset Size AIME24 I/II AIME25 I MATH500 GPQA Diamond LCBv2
LIMO-32B 0.8k 56.7 49.3 86.6 58.1 60.0
s1-32B 1k 36.0 25.3 84.8 50.5 40.9
s1.1-32B 1k 64.7 49.3 89.0 60.1 65.5
DeepSeek-R1-Distill-Qwen-32B 800k (closed) 76.7 55.9 89.4 57.6 71.2
OpenThinker-32B 114k 66.0 53.3 90.6 61.6 68.9
 

OpenThinker 引文


@misc{openthoughts,
  author = {Team, OpenThoughts},
  month = jan,
  title = {{Open Thoughts}},
  howpublished = {https://open-thoughts.ai},
  year = {2025}
}
 

AI 扩展阅读:




发表评论