Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.14223

帮助 | 高级搜索

计算机科学 > 信息检索

arXiv:2510.14223 (cs)
[提交于 2025年10月16日 ]

标题: 使用因果语言模型进行领英动态的大规模检索

标题: Large Scale Retrieval for the LinkedIn Feed using Causal Language Models

Authors:Sudarshan Srinivasa Ramanujam, Antonio Alonso, Saurabh Kataria, Siddharth Dangi, Akhilesh Gupta, Birjodh Singh Tiwana, Manas Somaiya, Luke Simon, David Byrne, Sojeong Ha, Sen Zhou, Andrei Akterskii, Zhanglong Liu, Samira Sriram, Crescent Xiong, Zhoutao Pei, Angela Shao, Alex Li, Annie Xiao, Caitlin Kolb, Thomas Kistler, Zach Moore, Hamed Firooz
摘要: 在像LinkedIn动态这样的大规模推荐系统中,检索阶段对于将数亿个潜在候选者缩小到可管理的子集以进行排序至关重要。LinkedIn的动态从成员网络之外提供基于成员主题兴趣的建议内容,其中在几毫秒的延迟预算和每秒数千次的入站QPS下,从数亿个候选者中检索出2000个候选者。本文介绍了一种新颖的检索方法,该方法微调了一个大型因果语言模型(Meta的LLaMA 3)作为双编码器,仅使用文本输入为用户(成员)和内容(项目)生成高质量的嵌入。我们描述了端到端的流程,包括嵌入生成的提示设计、在LinkedIn规模上的微调技术以及低延迟、成本效益高的在线服务基础设施。我们分享了关于如何在提示中量化数值特征以使信息在嵌入中正确编码的发现,从而促进检索层和排序层之间的更好对齐。该系统通过离线指标和在线A/B测试进行了评估,结果显示了成员参与度的显著提升。我们观察到新成员有显著的提升,他们通常缺乏强大的网络连接,这表明高质量的建议内容有助于留存。这项工作展示了生成式语言模型如何在工业应用中有效适应实时、高吞吐量的检索。
摘要: In large scale recommendation systems like the LinkedIn Feed, the retrieval stage is critical for narrowing hundreds of millions of potential candidates to a manageable subset for ranking. LinkedIn's Feed serves suggested content from outside of the member's network (based on the member's topical interests), where 2000 candidates are retrieved from a pool of hundreds of millions candidate with a latency budget of a few milliseconds and inbound QPS of several thousand per second. This paper presents a novel retrieval approach that fine-tunes a large causal language model (Meta's LLaMA 3) as a dual encoder to generate high quality embeddings for both users (members) and content (items), using only textual input. We describe the end to end pipeline, including prompt design for embedding generation, techniques for fine-tuning at LinkedIn's scale, and infrastructure for low latency, cost effective online serving. We share our findings on how quantizing numerical features in the prompt enables the information to get properly encoded in the embedding, facilitating greater alignment between the retrieval and ranking layer. The system was evaluated using offline metrics and an online A/B test, which showed substantial improvements in member engagement. We observed significant gains among newer members, who often lack strong network connections, indicating that high-quality suggested content aids retention. This work demonstrates how generative language models can be effectively adapted for real time, high throughput retrieval in industrial applications.
评论: 9页,4图
主题: 信息检索 (cs.IR) ; 人工智能 (cs.AI)
引用方式: arXiv:2510.14223 [cs.IR]
  (或者 arXiv:2510.14223v1 [cs.IR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.14223
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Sudarshan Srinivasa Ramanujam [查看电子邮件]
[v1] 星期四, 2025 年 10 月 16 日 02:01:33 UTC (141 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.IR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号