Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2601.05200

帮助 | 高级搜索

计算机科学 > 信息检索

arXiv:2601.05200 (cs)
[提交于 2026年1月8日 ]

标题: 多向量重新排序在强大第一阶段检索器的时代

标题: Multivector Reranking in the Era of Strong First-Stage Retrievers

Authors:Silvio Martinico, Franco Maria Nardini, Cosimo Rulli, Rossano Venturini
摘要: 学习到的多向量表示增强了现代搜索系统的检索效果,但其在现实世界中的应用受到逐标记检索的高昂成本限制。因此,大多数系统采用\emph{收集和精炼}策略,其中轻量级的收集阶段会选择候选文档进行完整评分。然而,这种方法需要在大型逐标记索引上进行昂贵的搜索,并且常常遗漏在完整相似性下排名最高的文档。在本文中,我们在两个公开可用的数据集上复现了几种最先进的多向量检索方法,提供了当前多向量检索领域的清晰图景,并观察到逐标记收集的低效性。在此基础上,我们表明用单向量文档检索器——特别是学习到的稀疏检索器(LSR)——替换逐标记收集阶段可以产生更小且语义更连贯的候选集合。这将收集和精炼流程重新构造成已建立的两阶段检索架构。随着检索延迟的减少,使用两个神经编码器进行查询编码成为主要的计算瓶颈。为缓解这一问题,我们整合了最近的无推理LSR方法,证明它们在显著降低查询编码时间的同时保持了双编码器流程的检索效果。最后,我们研究了多种重排序配置,以平衡效率、内存和效果,并引入了两种优化技术来提前修剪低质量的候选文档。实证结果表明,这些技术在不损失质量的情况下,检索效率提高了最多1.8$\times$。总体而言,我们的两阶段方法在最先进的多向量检索系统上实现了超过$24\times$的加速,同时保持了可比或更优的检索质量。
摘要: Learned multivector representations power modern search systems with strong retrieval effectiveness, but their real-world use is limited by the high cost of exhaustive token-level retrieval. Therefore, most systems adopt a \emph{gather-and-refine} strategy, where a lightweight gather phase selects candidates for full scoring. However, this approach requires expensive searches over large token-level indexes and often misses the documents that would rank highest under full similarity. In this paper, we reproduce several state-of-the-art multivector retrieval methods on two publicly available datasets, providing a clear picture of the current multivector retrieval field and observing the inefficiency of token-level gathering. Building on top of that, we show that replacing the token-level gather phase with a single-vector document retriever -- specifically, a learned sparse retriever (LSR) -- produces a smaller and more semantically coherent candidate set. This recasts the gather-and-refine pipeline into the well-established two-stage retrieval architecture. As retrieval latency decreases, query encoding with two neural encoders becomes the dominant computational bottleneck. To mitigate this, we integrate recent inference-free LSR methods, demonstrating that they preserve the retrieval effectiveness of the dual-encoder pipeline while substantially reducing query encoding time. Finally, we investigate multiple reranking configurations that balance efficiency, memory, and effectiveness, and we introduce two optimization techniques that prune low-quality candidates early. Empirical results show that these techniques improve retrieval efficiency by up to 1.8$\times$ with no loss in quality. Overall, our two-stage approach achieves over $24\times$ speedup over the state-of-the-art multivector retrieval systems, while maintaining comparable or superior retrieval quality.
评论: 17页,2图,ECIR 2026
主题: 信息检索 (cs.IR)
引用方式: arXiv:2601.05200 [cs.IR]
  (或者 arXiv:2601.05200v1 [cs.IR] 对于此版本)
  https://doi.org/10.48550/arXiv.2601.05200
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Silvio Martinico [查看电子邮件]
[v1] 星期四, 2026 年 1 月 8 日 18:22:18 UTC (69 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.IR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2026-01
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号