计算机科学 > 信息检索
[提交于 2025年10月17日
]
标题: FACE:将协同过滤嵌入映射到LLM标记的通用框架
标题: FACE: A General Framework for Mapping Collaborative Filtering Embeddings into LLM Tokens
摘要: 近年来,大型语言模型(LLMs)已被探索用于与基于协同过滤(CF)的推荐系统集成,这对于个性化用户体验至关重要。 然而,一个关键挑战是 LLMs难以解释CF方法产生的潜在的非语义嵌入,这限制了推荐效果和进一步应用。 为了解决这个问题,我们提出了FACE,一个通用的可解释框架,将CF嵌入映射到预训练的LLM标记。 具体而言,我们引入了一个解耦投影模块,将CF嵌入分解为特定概念的向量,然后设计了一个量化自编码器,将连续嵌入转换为LLM标记(描述符)。 随后,我们设计了一个对比对齐目标,以确保标记与相应的文本信号对齐。 因此,模型无关的FACE框架在不微调LLMs的情况下实现了语义对齐,并通过利用其预训练能力提高了推荐性能。 在三个真实世界推荐数据集上的实证结果表明,基准模型的性能得到了提升,可解释性研究证实了描述符的可解释性。 代码可在https://github.com/YixinRoll/FACE中获得。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.