Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.07629

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2508.07629 (cs)
[提交于 2025年8月11日 (v1) ,最后修订 2025年8月12日 (此版本, v2)]

标题: Klear-Reasoner:通过梯度保留剪切策略优化提升推理能力

标题: Klear-Reasoner: Advancing Reasoning Capability via Gradient-Preserving Clipping Policy Optimization

Authors:Zhenpeng Su, Leiyu Pan, Xue Bai, Dening Liu, Guanting Dong, Jiaming Huang, Wenping Hu, Fuzheng Zhang, Kun Gai, Guorui Zhou
摘要: 我们提出Klear-Reasoner,一种具有长期推理能力的模型,在解决问题时表现出仔细的权衡,实现了在多个基准测试中的卓越性能。 尽管目前社区中已有许多关于推理模型的优秀工作,但由于训练细节披露不全,仍然存在许多难以复现高性能推理模型的问题。 本报告对推理模型进行了深入分析,涵盖了从数据准备、长期思维链监督微调(long CoT SFT)到强化学习(RL)的整个训练后工作流程,并对每个实验组件进行了详细的消融研究。 对于SFT数据,我们的实验表明,少量高质量的数据源比大量多样化的数据源更有效,且困难样本在不进行准确率过滤的情况下也能取得更好的结果。 此外,我们研究了当前剪切机制在RL中的两个关键问题:剪切抑制了关键的探索信号并忽略了次优轨迹。 为了解决这些挑战,我们提出了梯度保留剪切策略优化(GPPO),该方法温和地将梯度从剪切标记反向传播。 GPPO不仅增强了模型的探索能力,还提高了其从负样本中学习的效率。 Klear-Reasoner在数学和编程方面表现出卓越的推理能力,在AIME 2024上得分为90.5%,在AIME 2025上得分为83.2%,在LiveCodeBench V5上得分为66.0%,在LiveCodeBench V6上得分为58.1%。
摘要: We present Klear-Reasoner, a model with long reasoning capabilities that demonstrates careful deliberation during problem solving, achieving outstanding performance across multiple benchmarks. Although there are already many excellent works related to inference models in the current community, there are still many problems with reproducing high-performance inference models due to incomplete disclosure of training details. This report provides an in-depth analysis of the reasoning model, covering the entire post-training workflow from data preparation and long Chain-of-Thought supervised fine-tuning (long CoT SFT) to reinforcement learning (RL), along with detailed ablation studies for each experimental component. For SFT data, our experiments show that a small number of high-quality data sources are more effective than a large number of diverse data sources, and that difficult samples can achieve better results without accuracy filtering. In addition, we investigate two key issues with current clipping mechanisms in RL: Clipping suppresses critical exploration signals and ignores suboptimal trajectories. To address these challenges, we propose Gradient-Preserving clipping Policy Optimization (GPPO) that gently backpropagates gradients from clipped tokens. GPPO not only enhances the model's exploration capacity but also improves its efficiency in learning from negative samples. Klear-Reasoner exhibits exceptional reasoning abilities in mathematics and programming, scoring 90.5% on AIME 2024, 83.2% on AIME 2025, 66.0% on LiveCodeBench V5 and 58.1% on LiveCodeBench V6.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 计算与语言 (cs.CL)
引用方式: arXiv:2508.07629 [cs.LG]
  (或者 arXiv:2508.07629v2 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.07629
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zhenpeng Su [查看电子邮件]
[v1] 星期一, 2025 年 8 月 11 日 05:17:51 UTC (186 KB)
[v2] 星期二, 2025 年 8 月 12 日 07:59:00 UTC (186 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CL
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.AI
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号