阅读论文 Optimizing Federated Learning on Non-IID Data with Reinforcement Learning 的笔记 如有侵权,请联系作者,将会撤销发布。 主要讲什么 提出FAVOR,一个经验驱动控制的框架。 智能的选择 ...
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布 arXiv: . v stat.ML Oct Abstract 联邦学习使得大量的边缘计算设备在不共享数据的情况下共同学习模型。联邦平均法 FedAvg 是该算法中的一种主要算法,它在所有设备的一小部分上并行运行随机梯度下降 SGD ,并每隔一段时间对序列进行平均。尽管它很简单,但在现实环境下却缺乏理论上的保障。本文分析了FedAvg在非 ...
2019-11-17 11:59 0 839 推荐指数:
阅读论文 Optimizing Federated Learning on Non-IID Data with Reinforcement Learning 的笔记 如有侵权,请联系作者,将会撤销发布。 主要讲什么 提出FAVOR,一个经验驱动控制的框架。 智能的选择 ...
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! 以下是对本文关键部分的摘抄翻译,详情请参见原文。 NeurIPS 2019 Workshop on Federated Learning for Data Privacy and Confidentiality, Vancouver ...
1 混合分布(Mixture Distribution)划分算法 我们在博文《联邦学习:按病态独立同分布划分Non-IID样本》中学习了联邦学习开山论文[1]中按照病态独立同分布(Pathological Non-IID)划分样本。 在上一篇博文《联邦学习:按Dirichlet分布划分 ...
1 导引 我们在《Python中的随机采样和概率分布(二)》介绍了如何用Python现有的库对一个概率分布进行采样,其中的Dirichlet分布大家一定不会感到陌生,这篇博客我们来更详细地介绍Dir ...
1 病态不独立同分布(Non-IID)划分算法 在博客《分布式机器学习、联邦学习、多智能体的区别和联系》中我们提到论文[1]联邦学习每个client具有数据不独立同分布(Non-IID)的性质。 联邦学习的论文多是用FEMNIST、CIFAR10、Shakespare、Synthetic ...
/lucasb-eyer/pydensecrf/tree/master/examples/Non RGB ...
减少通信次数:多做计算,少做通信 FedSGD: worker节点: server节点: FedAvg方法: worker节点: 在节点本地进行多次梯度下降更新参数 server节点: 该方法通过增加了节点本地结算量,减少了通信量 ...
Convergence in distribution 依分布收敛是随机变量列的一种收敛性,设{ξn,n≥1}是概率空间(Ω,F,P)上的随机变量列,其相应的分布函数列为{Fn(x),n≥1},如果Fn(x)弱收敛于随机变量ξ的分布函数F(x),则称随机变量列ξn依分布收敛到随机变量 ...