计算机科学 > 机器学习
[提交于 2023年5月31日
]
标题: 代理模型扩展(SME):一种针对联邦学习的快速且准确的权重更新攻击
标题: Surrogate Model Extension (SME): A Fast and Accurate Weight Update Attack on Federated Learning
摘要: 在联邦学习(FL)和许多其他分布式训练框架中,合作者可以在本地保存其私有数据,并在多次迭代后仅共享使用本地数据训练的网络权重。 梯度反转是一类隐私攻击,可以从生成的梯度中恢复数据。 表面上看,FL可以提供一定程度的保护,以防止对权重更新的梯度反转攻击,因为单步的梯度被多个本地迭代的梯度累积所隐藏。 在本工作中,我们提出了一种系统的方法,将梯度反转攻击扩展到FL中的权重更新,从而更好地暴露FL中固有的隐私保护的弱点。 具体来说,我们提出了一种基于二维梯度流特性和局部更新低秩性质的代理模型方法。 我们的方法大大增强了对包含许多迭代的权重更新的梯度反转攻击能力,并实现了最先进的(SOTA)性能。 此外,在常见的FL场景中,我们的方法比SOTA基线快多达$100\times$倍。 我们的工作重新评估并突显了共享网络权重的隐私风险。 我们的代码可在 https://github.com/JunyiZhu-AI/surrogate_model_extension 获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.