计算机科学 > 人工智能
[提交于 2026年1月8日
]
标题: 代理工具选择中幻觉的内部表示作为指示器
标题: Internal Representations as Indicators of Hallucinations in Agent Tool Selection
摘要: 大型语言模型(LLMs)在工具调用和工具使用方面表现出显著的能力,但存在幻觉问题,即选择错误的工具、提供格式错误的参数,并通过执行模拟和生成输出而不是调用专用工具或外部系统来表现出“工具绕过”行为。 这会降低基于LLM的代理在生产系统中的可靠性,因为它会导致结果不一致,并绕过安全和审计控制。 代理工具选择中的此类幻觉需要早期检测和错误处理。 与现有需要多次前向传递或外部验证的幻觉检测方法不同,我们提出了一种计算高效的框架,通过利用生成过程中使用的同一前向传递中的LLM内部表示,实现实时工具调用幻觉检测。 我们在多个领域的推理任务上评估了这种方法,证明了强大的检测性能(最高达86.4%的准确率),同时保持实时推理能力,计算开销最小,尤其在检测参数级幻觉和不适当的工具选择方面表现突出,这对可靠的代理部署至关重要。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.