原文:On the Convergence of FedAvg on Non-IID Data

郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布 arXiv: . v stat.ML Oct Abstract 联邦学习使得大量的边缘计算设备在不共享数据的情况下共同学习模型。联邦平均法 FedAvg 是该算法中的一种主要算法,它在所有设备的一小部分上并行运行随机梯度下降 SGD ,并每隔一段时间对序列进行平均。尽管它很简单,但在现实环境下却缺乏理论上的保障。本文分析了FedAvg在非 ...

2019-11-17 11:59 0 839 推荐指数:

查看详情

Overcoming Forgetting in Federated Learning on Non-IID Data

郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! 以下是对本文关键部分的摘抄翻译,详情请参见原文。 NeurIPS 2019 Workshop on Federated Learning for Data Privacy and Confidentiality, Vancouver ...

Fri Nov 08 03:05:00 CST 2019 0 346
联邦学习:按混合分布划分Non-IID样本

1 混合分布(Mixture Distribution)划分算法 我们在博文《联邦学习:按病态独立同分布划分Non-IID样本》中学习了联邦学习开山论文[1]中按照病态独立同分布(Pathological Non-IID)划分样本。 在上一篇博文《联邦学习:按Dirichlet分布划分 ...

Fri Mar 11 05:39:00 CST 2022 2 1891
联邦学习:按Dirichlet分布划分Non-IID样本

1 导引 我们在《Python中的随机采样和概率分布(二)》介绍了如何用Python现有的库对一个概率分布进行采样,其中的Dirichlet分布大家一定不会感到陌生,这篇博客我们来更详细地介绍Dir ...

Wed Feb 16 03:15:00 CST 2022 2 3457
联邦学习:按病态非独立同分布划分Non-IID样本

1 病态不独立同分布(Non-IID)划分算法 在博客《分布式机器学习、联邦学习、多智能体的区别和联系》中我们提到论文[1]联邦学习每个client具有数据不独立同分布(Non-IID)的性质。 联邦学习的论文多是用FEMNIST、CIFAR10、Shakespare、Synthetic ...

Thu Dec 02 06:47:00 CST 2021 3 2010
FedSGD 与FedAvg小记

减少通信次数:多做计算,少做通信 FedSGD: worker节点: server节点: FedAvg方法: worker节点: 在节点本地进行多次梯度下降更新参数 server节点: 该方法通过增加了节点本地结算量,减少了通信量 ...

Wed Jun 16 06:47:00 CST 2021 0 555
依分布收敛(convergence in distribution)

Convergence in distribution 依分布收敛是随机变量列的一种收敛性,设{ξn,n≥1}是概率空间(Ω,F,P)上的随机变量列,其相应的分布函数列为{Fn(x),n≥1},如果Fn(x)弱收敛于随机变量ξ的分布函数F(x),则称随机变量列ξn依分布收敛到随机变量 ...

Mon Sep 23 23:04:00 CST 2019 0 1462
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM