计算机科学 > 数据结构与算法
[提交于 2025年10月1日
]
标题: 差分隐私下指数分布的学习:自适应算法和紧界
标题: Differentially Private Learning of Exponential Distributions: Adaptive Algorithms and Tight Bounds
摘要: 我们研究在差分隐私下的指数分布学习问题。 给定 $n$个来自 $\mathrm{Exp}(\lambda)$ 的独立同分布样本,目标是私密地估计 $\lambda$,使得学习到的分布与真实分布在总变分距离上接近。 我们提出了两种互补的纯差分隐私算法:一种通过截断和拉普拉斯噪声适应经典的最大似然估计器,而另一种利用了 $(1-1/e)$-分位数等于 $1/\lambda$的事实。 每种方法在不同的情况下表现优异,我们将它们结合成一个自适应的双优算法,实现了对所有 $\lambda$的近最优样本复杂度。 我们进一步通过对数变换将方法扩展到帕累托分布,使用打包和群隐私证明了几乎匹配的下界\cite{Karwa2017FiniteSD},并展示了近似$(\epsilon,\delta)$-DP 如何消除对外部提供边界的需求。 这些结果共同给出了差分隐私下指数分布学习的第一个紧致表征,并展示了自适应策略在重尾分布中的强大能力。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.