计算机科学 > 机器学习
[提交于 2019年1月26日
]
标题: 堆叠与稳定性
标题: Stacking and stability
摘要: 堆叠是一种结合多个模型以提高预测准确性的通用方法。由于其元学习的本质,它已在不同领域找到了各种应用。然而,我们对堆叠为何以及如何有效工作的理解仍然停留在直观层面,并缺乏理论上的洞察力。本文使用学习算法的稳定性作为基本分析框架来解决这一问题。为此,我们分析了堆叠、包堆叠和DAG堆叠的假设稳定性,并建立了包堆叠与加权装袋之间的联系。我们证明了堆叠的假设稳定性是基础模型和组合器假设稳定性的乘积。此外,在包堆叠和DAG堆叠中,假设稳定性取决于生成训练集副本所使用的抽样策略。我们的研究结果表明:1)子抽样和自助抽样可以提高堆叠的稳定性;2)堆叠可以提高子袋装法和袋装法的稳定性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.