计算机科学 > 机器学习
[提交于 2025年11月4日
]
标题: 快速、私有和受保护:在联邦学习中保护数据隐私并防御模型污染攻击
标题: Fast, Private, and Protected: Safeguarding Data Privacy and Defending Against Model Poisoning Attacks in Federated Learning
摘要: 联邦学习(FL)是一种分布式训练范式,其中参与者合作构建一个全局模型,同时确保所涉及数据的隐私,这些数据保留在参与者设备上。 然而,旨在确保这种隐私的提议也使得抵御试图破坏训练结果的潜在攻击者变得具有挑战性。 在这一背景下,我们提出了快速、私有和受保护(FPP)的方法,这是一种新的方法,旨在保护联邦训练的同时,实现安全聚合以保护数据隐私。 这是通过使用参与者的评估来评估轮次,并在攻击后启用训练恢复来实现的。 FPP还采用基于声誉的机制来减轻攻击者的参与。 我们创建了一个容器化环境,以验证FPP与其他文献中的方法(FedAvg、Power-of-Choice以及通过截断均值和中位数进行聚合)的性能。 我们的实验表明,FPP具有快速的收敛速度,并且即使在恶意参与者执行模型中毒攻击的情况下也能收敛。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.