Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.02305

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2510.02305 (cs)
[提交于 2025年10月2日 ]

标题: 扩散模型与流形假设:对数域平滑是几何自适应的

标题: Diffusion Models and the Manifold Hypothesis: Log-Domain Smoothing is Geometry Adaptive

Authors:Tyler Farghly, Peter Potaptchik, Samuel Howard, George Deligiannidis, Jakiw Pidstrigach
摘要: 扩散模型已实现了最先进的性能,在多个领域表现出显著的泛化能力。 然而,这些强大能力背后的机制仍然只有部分被理解。 一种主要的假设基于流形假设,将这种成功归因于它们适应数据中低维几何结构的能力。 本研究为这一假设提供了证据,重点探讨了通过分数匹配制定学习问题如何导致这种现象。 我们通过研究经验分数匹配目标的平滑最小值的影响,检查了隐式正则化的作用。 我们的理论和实证结果证实,对分数函数进行平滑处理——或等效地,在对数密度域中进行平滑处理——会产生沿着数据流形的平滑效果。 此外,我们表明,扩散模型泛化的流形可以通过选择适当的平滑来控制。
摘要: Diffusion models have achieved state-of-the-art performance, demonstrating remarkable generalisation capabilities across diverse domains. However, the mechanisms underpinning these strong capabilities remain only partially understood. A leading conjecture, based on the manifold hypothesis, attributes this success to their ability to adapt to low-dimensional geometric structure within the data. This work provides evidence for this conjecture, focusing on how such phenomena could result from the formulation of the learning problem through score matching. We inspect the role of implicit regularisation by investigating the effect of smoothing minimisers of the empirical score matching objective. Our theoretical and empirical results confirm that smoothing the score function -- or equivalently, smoothing in the log-density domain -- produces smoothing tangential to the data manifold. In addition, we show that the manifold along which the diffusion model generalises can be controlled by choosing an appropriate smoothing.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 统计理论 (math.ST); 机器学习 (stat.ML)
引用方式: arXiv:2510.02305 [cs.LG]
  (或者 arXiv:2510.02305v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.02305
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Tyler Farghly [查看电子邮件]
[v1] 星期四, 2025 年 10 月 2 日 17:59:39 UTC (1,290 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.AI
math
math.ST
stat
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号