Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2306.00342v1

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2306.00342v1 (cs)
[提交于 2023年6月1日 ]

标题: 结合显式和隐式正则化在深度网络中的高效学习

标题: Combining Explicit and Implicit Regularization for Efficient Learning in Deep Networks

Authors:Dan Zhao
摘要: 对隐式正则化的工作研究了优化过程中的梯度轨迹,以解释为什么深度网络更倾向于某些类型的解决方案。 在深度线性网络中,已经证明梯度下降在矩阵完成/分解任务中会隐式地正则化为低秩解决方案。 增加深度不仅提高了这些任务的性能,还作为一种加速的预条件,进一步增强了这种对低秩性的偏倚。 受此启发,我们提出了一种显式惩罚来模拟这种隐式偏倚,该惩罚仅在某些自适应梯度优化器(例如 Adam)上生效。 这种组合可以使退化的单层网络实现与深度线性网络相当的泛化误差的低秩近似,使深度不再是学习的必要条件。 尽管结构简单,该单层网络在各种参数和数据条件下,在矩阵完成任务中仍表现出竞争力或优于各种方法。 结合优化器的归纳偏倚,我们的研究结果表明,显式正则化可以在设计不同且理想的正则化形式中发挥作用,而对这种相互作用更细致的理解可能是必要的。
摘要: Works on implicit regularization have studied gradient trajectories during the optimization process to explain why deep networks favor certain kinds of solutions over others. In deep linear networks, it has been shown that gradient descent implicitly regularizes toward low-rank solutions on matrix completion/factorization tasks. Adding depth not only improves performance on these tasks but also acts as an accelerative pre-conditioning that further enhances this bias towards low-rankedness. Inspired by this, we propose an explicit penalty to mirror this implicit bias which only takes effect with certain adaptive gradient optimizers (e.g. Adam). This combination can enable a degenerate single-layer network to achieve low-rank approximations with generalization error comparable to deep linear networks, making depth no longer necessary for learning. The single-layer network also performs competitively or out-performs various approaches for matrix completion over a range of parameter and data regimes despite its simplicity. Together with an optimizer's inductive bias, our findings suggest that explicit regularization can play a role in designing different, desirable forms of regularization and that a more nuanced understanding of this interplay may be necessary.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 神经与进化计算 (cs.NE); 机器学习 (stat.ML)
引用方式: arXiv:2306.00342 [cs.LG]
  (或者 arXiv:2306.00342v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2306.00342
通过 DataCite 发表的 arXiv DOI
期刊参考: Advances in Neural Information Processing Systems 35 (NeurIPS 2022), 3024--3038

提交历史

来自: Dan Zhao [查看电子邮件]
[v1] 星期四, 2023 年 6 月 1 日 04:47:17 UTC (7,313 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2023-06
切换浏览方式为:
cs
cs.AI
cs.NE
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号