Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.17245

帮助 | 高级搜索

计算机科学 > 信息检索

arXiv:2510.17245 (cs)
[提交于 2025年10月20日 (v1) ,最后修订 2025年10月22日 (此版本, v3)]

标题: 基于扩散的推荐系统的效率-效果权衡

标题: On Efficiency-Effectiveness Trade-off of Diffusion-based Recommenders

Authors:Wenyu Mao, Jiancan Wu, Guoqing Hu, Zhengyi Yang, Wei Ji, Xiang Wang
摘要: 扩散模型已成为生成序列推荐的强大范式,通常通过多步骤去噪过程,根据用户交互历史生成要推荐的下一个项目。 然而,多步骤过程依赖于离散近似,引入了离散化误差,这在计算效率和推荐效果之间形成了权衡。 为了解决这一权衡,我们提出了TA-Rec,这是一个两阶段框架,在预训练期间通过平滑去噪函数实现一步生成,同时在微调期间通过与用户偏好对齐来缓解轨迹偏差。 具体而言,为了在不牺牲推荐性能的情况下提高效率,TA-Rec使用时间一致性正则化(TCR)对去噪模型进行预训练,强制相邻步骤之间的去噪结果保持一致性。 因此,我们可以平滑去噪函数,以有限的误差将噪声映射为理想项目。 为进一步提高效果,TA-Rec引入了自适应偏好对齐(APA),该方法基于偏好对相似性和时间步数,自适应地将去噪过程与用户偏好对齐。 大量实验证明,TA-Rec的两阶段目标有效缓解了由离散化误差引起的权衡,提高了基于扩散的推荐器的效率和效果。
摘要: Diffusion models have emerged as a powerful paradigm for generative sequential recommendation, which typically generate next items to recommend guided by user interaction histories with a multi-step denoising process. However, the multi-step process relies on discrete approximations, introducing discretization error that creates a trade-off between computational efficiency and recommendation effectiveness. To address this trade-off, we propose TA-Rec, a two-stage framework that achieves one-step generation by smoothing the denoising function during pretraining while alleviating trajectory deviation by aligning with user preferences during fine-tuning. Specifically, to improve the efficiency without sacrificing the recommendation performance, TA-Rec pretrains the denoising model with Temporal Consistency Regularization (TCR), enforcing the consistency between the denoising results across adjacent steps. Thus, we can smooth the denoising function to map the noise as oracle items in one step with bounded error. To further enhance effectiveness, TA-Rec introduces Adaptive Preference Alignment (APA) that aligns the denoising process with user preference adaptively based on preference pair similarity and timesteps. Extensive experiments prove that TA-Rec's two-stage objective effectively mitigates the discretization errors-induced trade-off, enhancing both efficiency and effectiveness of diffusion-based recommenders.
主题: 信息检索 (cs.IR)
引用方式: arXiv:2510.17245 [cs.IR]
  (或者 arXiv:2510.17245v3 [cs.IR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.17245
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Wenyu Mao [查看电子邮件]
[v1] 星期一, 2025 年 10 月 20 日 07:35:12 UTC (405 KB)
[v2] 星期二, 2025 年 10 月 21 日 11:23:18 UTC (414 KB)
[v3] 星期三, 2025 年 10 月 22 日 12:40:23 UTC (408 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs.IR

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号