计算机科学 > 机器学习
[提交于 2023年6月1日
]
标题: 面向非均匀和时变通信的FedAvg偏差校正
标题: Towards Bias Correction of FedAvg over Nonuniform and Time-Varying Communications
摘要: 联邦学习(FL)是一种去中心化的学习框架,其中参数服务器(PS)和一组客户端通过最小化全局目标协同训练模型。 通信带宽是一种稀缺资源;在每一轮中,PS仅聚合一部分客户端的更新。 在本文中,我们关注非凸最小化问题,该问题容易受到PS与客户端之间非均匀且随时间变化的通信故障的影响。 具体来说,在每一轮$t$中,PS与客户端$i$之间的链接以概率$p_i^t$活动,该概率对PS和客户端都是$\textit{unknown}$。 当客户端之间的信道条件异质且随时间变化时,就会出现这种情况。 我们表明,当$p_i^t$不是均匀分布时,广泛采用的FL算法$\textit{Federated Average}$(FedAvg)无法最小化全局目标。 观察到这一点后,我们提出了$\textit{Federated Postponed Broadcast}$(FedPBC),这是FedAvg的一个简单变体。 它与FedAvg的不同之处在于,PS会将全局模型的广播推迟到每一轮结束时。 我们证明FedPBC可以收敛到原始目标的平稳点。 引入的延迟是轻微的,没有明显的减速。 提供了理论分析和数值结果。 在技术方面,推迟全局模型的广播使得在第$t$轮中具有活动链接的客户端之间能够进行隐式的闲聊。 尽管$p_i^t$是时变的,但我们能够通过控制闲聊类型的信息混合误差的技术来限制全局模型动态的扰动。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.