统计学 > 机器学习
[提交于 2024年6月25日
]
标题: 分布可学习性与鲁棒性
标题: Distribution Learnability and Robustness
摘要: 我们研究分布学习问题中可学习性与鲁棒(或无认知)可学习性之间的关系。 我们表明,与其它学习设置(例如函数类的PAC学习)不同,概率分布类的可实现可学习性并不意味着其无认知可学习性。 我们继续研究哪种类型的数据损坏会破坏分布类的可学习性,以及这种可学习性对什么情况是鲁棒的。 我们表明,分布类的可实现可学习性意味着其仅对加法损坏具有鲁棒可学习性,但不对减法损坏具有鲁棒可学习性。 我们还探讨了在压缩方案和差分隐私可学习性的背景下相关的含义。
当前浏览上下文:
stat.ML
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.