计算机科学 > 信息检索
[提交于 2025年8月2日
]
标题: 端到端个性化:将推荐系统与大型语言模型统一
标题: End-to-End Personalization: Unifying Recommender Systems with Large Language Models
摘要: 推荐系统对于引导用户通过数字内容的广泛和多样化景观至关重要,它们通过提供个性化和相关的建议来帮助用户。然而,在涉及有限用户反馈或异构项目属性的情况下,提高个性化和可解释性仍然是一个挑战。在本文中,我们提出了一种新的混合推荐框架,该框架结合了图注意力网络(GATs)和大型语言模型(LLMs)以解决这些限制。首先使用LLMs通过基于标题、类型和概要等元数据生成语义上有意义的资料来丰富用户和项目表示。这些增强的嵌入作为用户和电影双部图中的初始节点特征,该图通过基于GAT的协同过滤模型进行处理。为了提高排名准确性,我们引入了一个混合损失函数,该函数结合了贝叶斯个性化排序(BPR)、余弦相似度和鲁棒的负采样。后处理涉及使用LLM对GAT生成的推荐进行重新排序,同时LLM还会生成自然语言的理由以提高透明度。我们在基准数据集上评估了我们的模型,包括MovieLens 100k和1M,其中它始终优于强基线。消融研究证实,基于LLM的嵌入和余弦相似度项对性能提升有显著贡献。这项工作展示了整合LLMs在提高推荐系统的准确性和可解释性方面的潜力。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.