Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2510.00076

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2510.00076 (stat)
[提交于 2025年9月30日 ]

标题: 小石类的私有学习,再审视

标题: Private Learning of Littlestone Classes, Revisited

Authors:Xin Lyu
摘要: 我们考虑在近似差分隐私约束下的Littlestone类的在线学习和PAC学习。 我们的主要结果是一个私有学习者,在可实现情况下,可以以错误界为$\tilde{O}(d^{9.5}\cdot \log(T))$在线学习一个Littlestone类,其中$d$表示Littlestone维数,$T$表示时间范围。 这比最新的成果[GL'21]有了双重指数级的改进,并且与该任务的下限多项式接近。 这一进展得益于几个关键要素。 第一个是对于最新私有PAC学习者中“不可约性”技术的清晰且精炼的解释[GGKM'21]。 我们的新视角也使我们能够改进[GGKM'21]中的PAC学习者,并给出样本复杂度上界为$\widetilde{O}(\frac{d^5 \log(1/\delta\beta)}{\varepsilon \alpha})$,其中$\alpha$和$\beta$分别表示PAC学习者的准确性和置信度。 这比[GGKM'21]提高了$\frac{d}{\alpha}$倍,并实现了与$\alpha$的最优依赖关系。 我们的算法使用了一种私有稀疏选择算法,从一组强输入依赖的候选者中进行\emph{样本}。 然而,与大多数之前使用稀疏选择算法的情况不同,我们只关注输出的效用,我们的算法需要理解和操作输出所来自的实际分布。 在证明中,我们使用了[GKM'21]中的一种稀疏版本的指数机制,它在我们的框架下表现良好,并且易于进行效用证明。
摘要: We consider online and PAC learning of Littlestone classes subject to the constraint of approximate differential privacy. Our main result is a private learner to online-learn a Littlestone class with a mistake bound of $\tilde{O}(d^{9.5}\cdot \log(T))$ in the realizable case, where $d$ denotes the Littlestone dimension and $T$ the time horizon. This is a doubly-exponential improvement over the state-of-the-art [GL'21] and comes polynomially close to the lower bound for this task. The advancement is made possible by a couple of ingredients. The first is a clean and refined interpretation of the ``irreducibility'' technique from the state-of-the-art private PAC-learner for Littlestone classes [GGKM'21]. Our new perspective also allows us to improve the PAC-learner of [GGKM'21] and give a sample complexity upper bound of $\widetilde{O}(\frac{d^5 \log(1/\delta\beta)}{\varepsilon \alpha})$ where $\alpha$ and $\beta$ denote the accuracy and confidence of the PAC learner, respectively. This improves over [GGKM'21] by factors of $\frac{d}{\alpha}$ and attains an optimal dependence on $\alpha$. Our algorithm uses a private sparse selection algorithm to \emph{sample} from a pool of strongly input-dependent candidates. However, unlike most previous uses of sparse selection algorithms, where one only cares about the utility of output, our algorithm requires understanding and manipulating the actual distribution from which an output is drawn. In the proof, we use a sparse version of the Exponential Mechanism from [GKM'21] which behaves nicely under our framework and is amenable to a very easy utility proof.
评论: 欢迎评论
主题: 机器学习 (stat.ML) ; 密码学与安全 (cs.CR); 数据结构与算法 (cs.DS); 机器学习 (cs.LG)
引用方式: arXiv:2510.00076 [stat.ML]
  (或者 arXiv:2510.00076v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.00076
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Xin Lyu [查看电子邮件]
[v1] 星期二, 2025 年 9 月 30 日 01:22:40 UTC (37 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.CR
cs.DS
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号