计算机科学 > 机器学习
[提交于 2023年9月2日
]
标题: Equitable-FL:资源受限环境下的稀疏联邦学习
标题: Equitable-FL: Federated Learning with Sparsity for Resource-Constrained Environment
摘要: 在联邦学习中,模型训练是在多个计算设备上进行的,其中仅与一个公共中央服务器共享参数,而不交换其数据实例。 这种策略假设个体客户端拥有丰富的资源,并利用这些资源来构建更丰富的模型作为用户的模型。 然而,当资源丰富的假设被违反时,学习可能无法进行,因为某些节点可能无法参与该过程。 在本文中,我们提出了一种稀疏形式的联邦学习,它在资源受限环境中表现良好。 我们的目标是无论节点在空间、计算或带宽方面是否稀缺,都能实现学习。 该方法基于这样的观察:模型大小与可用资源之间的关系定义了资源稀缺性,这意味着在不影响准确性的前提下减少参数数量是资源受限环境中模型训练的关键。 在这项工作中,使用了彩票假设方法来逐步对模型进行稀疏化,以鼓励资源稀缺的节点参与协作训练。 我们在$MNIST$、$F-MNIST$和$CIFAR-10$基准数据集以及$Brain-MRI$数据和$PlantVillage$数据集上验证了 Equitable-FL。 此外,我们还研究了稀疏性对性能、模型大小压缩和训练速度提升的影响。 对训练卷积神经网络进行的实验结果验证了 Equitable-FL 在异构资源受限学习环境中的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.