计算机科学 > 机器学习
[提交于 2025年9月18日
]
标题: 谁可以信任? 基于Logit的联邦学习中聚合客户端知识
标题: Who to Trust? Aggregating Client Knowledge in Logit-Based Federated Learning
摘要: 联邦学习(FL)通常共享模型权重或梯度,这对大型模型来说成本较高。基于日志的FL通过仅共享在公共代理数据集上计算的日志来降低此成本。然而,从异构客户端聚合信息仍然是一个挑战。本文研究了这个问题,介绍了并比较了三种日志聚合方法:简单平均、不确定性加权平均和一个学习的元聚合器。在MNIST和CIFAR-10上进行评估,这些方法减少了通信开销,在非独立同分布数据下提高了鲁棒性,并实现了与集中训练相当的准确性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.