计算机科学 > 机器学习
[提交于 2024年7月7日
]
标题: Stability and Generalization for Stochastic Recursive Momentum-based Algorithms for (Strongly-)Convex One to $K$-Level Stochastic Optimizations
标题: Stability and Generalization for Stochastic Recursive Momentum-based Algorithms for (Strongly-)Convex One to $K$-Level Stochastic Optimizations
摘要: 基于STOchastic Recursive Momentum (STORM)的算法已被广泛开发,用于解决一至$K$级($K \geq 3$)的随机优化问题。 具体而言,它们使用估计器来缓解有偏梯度问题,并实现接近最优的收敛结果。 然而,关于它们泛化性能的研究相对较少,特别是在从一至$K$级优化情境过渡时尤为明显。 本文对三种典型的基于STORM的算法:STORM、COVER和SVMR,在凸和强凸设置下,针对一、二和$K$级随机优化问题进行了全面的泛化分析。 首先,我们定义了$K$级优化的稳定性,并将其与泛化联系起来。 然后,我们详细阐述了三种突出的基于STORM的算法的稳定性结果。 最后,我们通过平衡稳定性结果与优化误差推导出它们的过量风险界。 我们的理论结果为完善基于STORM的算法提供了有力证据:(1) 每个估计器可能由于方差而降低其稳定性,这取决于其估计目标。 (2) 每增加一级可能会加剧泛化误差,这受到其累积随机梯度与真实梯度之间稳定性与方差的影响。 (3) 增加初始估计器计算的批量大小可以带来有利的权衡,从而提高泛化性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.