计算机科学 > 机器学习
[提交于 2025年10月29日
]
标题: 将测试时计算最优缩放推广为可优化的图
标题: Generalizing Test-time Compute-optimal Scaling as an Optimizable Graph
摘要: 测试时缩放(TTS)通过在推理期间分配额外的计算来提高大型语言模型(LLMs),通常通过并行、顺序或混合缩放实现。 然而,先前的研究通常假设固定的协作架构(例如,拓扑结构)和单模型使用,忽略了最优架构和模型组合可能因任务而异。 因此,我们在固定预算下研究了TTS中搜索计算最优模型组合和架构的新问题。 我们将它形式化为一个多LLM协作图,其中节点编码角色和LLM模型分配,边捕捉信息流。 这个问题具有挑战性,因为(i)组合搜索空间过于庞大,且(ii)特定任务的要求需要定制设计。 为了解决这些问题,我们将问题重新表述为概率图优化,并通过初步实验得出了关于TTS协作图的三个经验见解。 在这些见解的指导下,我们提出了Agent-REINFORCE,这是一种LLM代理增强的框架,通过将采样-梯度更新映射到采样-反馈更新,模仿REINFORCE流程,其中反馈作为文本梯度来更新概率图,并高效地搜索最优多LLM协作图。 实验表明,Agent-REINFORCE在样本效率和搜索性能方面优于传统和基于LLM的基线,并能有效识别在准确性和推理延迟联合目标下的最优图。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.