Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.14321

帮助 | 高级搜索

计算机科学 > 信息检索

arXiv:2510.14321 (cs)
[提交于 2025年10月16日 (v1) ,最后修订 2025年10月17日 (此版本, v2)]

标题: 大型推理嵌入模型:迈向下一代密集检索范式

标题: Large Reasoning Embedding Models: Towards Next-Generation Dense Retrieval Paradigm

Authors:Jianting Tang, Dongshuai Li, Tao Wen, Fuyu Lv, Dan Ou, Linli Xu
摘要: 在现代电子商务搜索系统中,密集检索已成为不可或缺的组成部分。 通过计算查询与项目(产品)嵌入之间的相似性,它能够从大规模存储库中高效地选择候选产品。 随着大语言模型(LLMs)的突破,主流嵌入模型逐渐从BERT转向LLMs,以实现更精确的文本建模。 然而,这些模型仍然采用直接嵌入方法,嵌入的语义准确性仍显不足。 因此,对比学习被大量用于实现正对之间的紧密语义对齐。 结果,此类模型倾向于捕捉训练数据中的统计共现模式,使其偏向于浅层的词汇和语义匹配。 对于与目标项目存在明显词汇差异的困难查询,性能会显著下降。 在此工作中,我们提出了大型推理嵌入模型(LREM),该模型创新性地将推理过程融入表示学习中。 对于困难查询,LREM首先进行推理以深入理解原始查询,然后生成增强推理的查询嵌入用于检索。 这一推理过程有效弥合了原始查询与目标项目之间的语义差距,显著提高了检索准确性。 具体而言,我们采用两阶段训练过程:第一阶段通过SFT和InfoNCE损失在精心策划的查询-CoT-项目三元组上优化LLM,以建立初步的推理和嵌入能力,第二阶段通过强化学习(RL)进一步精炼推理轨迹。 大量的离线和在线实验验证了LREM的有效性,导致其自2025年8月起在中国最大的电子商务平台上部署。
摘要: In modern e-commerce search systems, dense retrieval has become an indispensable component. By computing similarities between query and item (product) embeddings, it efficiently selects candidate products from large-scale repositories. With the breakthroughs in large language models (LLMs), mainstream embedding models have gradually shifted from BERT to LLMs for more accurate text modeling. However, these models still adopt direct-embedding methods, and the semantic accuracy of embeddings remains inadequate. Therefore, contrastive learning is heavily employed to achieve tight semantic alignment between positive pairs. Consequently, such models tend to capture statistical co-occurrence patterns in the training data, biasing them toward shallow lexical and semantic matches. For difficult queries exhibiting notable lexical disparity from target items, the performance degrades significantly. In this work, we propose the Large Reasoning Embedding Model (LREM), which novelly integrates reasoning processes into representation learning. For difficult queries, LREM first conducts reasoning to achieve a deep understanding of the original query, and then produces a reasoning-augmented query embedding for retrieval. This reasoning process effectively bridges the semantic gap between original queries and target items, significantly improving retrieval accuracy. Specifically, we adopt a two-stage training process: the first stage optimizes the LLM on carefully curated Query-CoT-Item triplets with SFT and InfoNCE losses to establish preliminary reasoning and embedding capabilities, and the second stage further refines the reasoning trajectories via reinforcement learning (RL). Extensive offline and online experiments validate the effectiveness of LREM, leading to its deployment on China's largest e-commerce platform since August 2025.
主题: 信息检索 (cs.IR)
引用方式: arXiv:2510.14321 [cs.IR]
  (或者 arXiv:2510.14321v2 [cs.IR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.14321
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jianting Tang [查看电子邮件]
[v1] 星期四, 2025 年 10 月 16 日 05:37:39 UTC (5,366 KB)
[v2] 星期五, 2025 年 10 月 17 日 16:24:26 UTC (5,366 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.IR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号