统计学 > 机器学习
[提交于 2025年9月30日
]
标题: 小石类的私有学习,再审视
标题: Private Learning of Littlestone Classes, Revisited
摘要: 我们考虑在近似差分隐私约束下的Littlestone类的在线学习和PAC学习。 我们的主要结果是一个私有学习者,在可实现情况下,可以以错误界为$\tilde{O}(d^{9.5}\cdot \log(T))$在线学习一个Littlestone类,其中$d$表示Littlestone维数,$T$表示时间范围。 这比最新的成果[GL'21]有了双重指数级的改进,并且与该任务的下限多项式接近。 这一进展得益于几个关键要素。 第一个是对于最新私有PAC学习者中“不可约性”技术的清晰且精炼的解释[GGKM'21]。 我们的新视角也使我们能够改进[GGKM'21]中的PAC学习者,并给出样本复杂度上界为$\widetilde{O}(\frac{d^5 \log(1/\delta\beta)}{\varepsilon \alpha})$,其中$\alpha$和$\beta$分别表示PAC学习者的准确性和置信度。 这比[GGKM'21]提高了$\frac{d}{\alpha}$倍,并实现了与$\alpha$的最优依赖关系。 我们的算法使用了一种私有稀疏选择算法,从一组强输入依赖的候选者中进行\emph{样本}。 然而,与大多数之前使用稀疏选择算法的情况不同,我们只关注输出的效用,我们的算法需要理解和操作输出所来自的实际分布。 在证明中,我们使用了[GKM'21]中的一种稀疏版本的指数机制,它在我们的框架下表现良好,并且易于进行效用证明。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.