计算机科学 > 机器学习
[提交于 2025年11月4日
]
标题: LLMs能进行数字减法吗?
标题: Can LLMs subtract numbers?
摘要: 我们对大型语言模型(LLMs)中的减法进行了系统研究。 尽管之前的基准测试强调了加法和乘法,但减法作为一种非交换运算,在结构上具有独特性,却受到了相对较少的关注。 我们在加法和减法问题上评估了八个预训练的LLMs,这些模型涵盖了四个家族。 我们的实验结果显示,减法的准确性与加法相比存在很大差距。 我们发现,对于($a-b$)来说,错误集中在($a<b$)的情况下。 在这些情况下,LLMs通常能正确生成数值大小,但会省略负号。 探查分析表明,LLMs内部会编码结果是否应为负数,但这种信息往往没有反映在生成的输出中。 我们进一步测试了诸如少样本学习和指令调优等著名技术,以查看它们是否能提高LLMs的表现。 我们的结果表明,虽然少样本提示产生了一定的改进,但经过指令调优的模型在生成负号方面达到了接近完美的准确率。 综上所述,这些发现更清晰地描述了LLMs在减法中的算术能力的局限性和可恢复性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.