计算机科学 > 机器学习
[提交于 2023年6月1日
]
标题: 结合显式和隐式正则化在深度网络中的高效学习
标题: Combining Explicit and Implicit Regularization for Efficient Learning in Deep Networks
摘要: 对隐式正则化的工作研究了优化过程中的梯度轨迹,以解释为什么深度网络更倾向于某些类型的解决方案。 在深度线性网络中,已经证明梯度下降在矩阵完成/分解任务中会隐式地正则化为低秩解决方案。 增加深度不仅提高了这些任务的性能,还作为一种加速的预条件,进一步增强了这种对低秩性的偏倚。 受此启发,我们提出了一种显式惩罚来模拟这种隐式偏倚,该惩罚仅在某些自适应梯度优化器(例如 Adam)上生效。 这种组合可以使退化的单层网络实现与深度线性网络相当的泛化误差的低秩近似,使深度不再是学习的必要条件。 尽管结构简单,该单层网络在各种参数和数据条件下,在矩阵完成任务中仍表现出竞争力或优于各种方法。 结合优化器的归纳偏倚,我们的研究结果表明,显式正则化可以在设计不同且理想的正则化形式中发挥作用,而对这种相互作用更细致的理解可能是必要的。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.