阅读论文 Optimizing Federated Learning on Non-IID Data with Reinforcement Learning 的笔记 如有侵权,请联系作者,将会撤销发布。 主要讲什么 提出FAVOR,一个经验驱动控制的框架。 智能的选择 ...
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布 以下是对本文关键部分的摘抄翻译,详情请参见原文。 NeurIPS Workshop on Federated Learning for Data Privacy and Confidentiality, Vancouver, Canada. Abstract 我们解决了非i.i.d.情况下的联邦学习问题,在这种情况下,局部模型漂移,抑制了 ...
2019-11-07 19:05 0 346 推荐指数:
阅读论文 Optimizing Federated Learning on Non-IID Data with Reinforcement Learning 的笔记 如有侵权,请联系作者,将会撤销发布。 主要讲什么 提出FAVOR,一个经验驱动控制的框架。 智能的选择 ...
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! arXiv:1907.02189v2 [stat.ML] 8 Oct 2019 Abstract 联邦学习使得大量的边 ...
1 导引 我们在《Python中的随机采样和概率分布(二)》介绍了如何用Python现有的库对一个概率分布进行采样,其中的Dirichlet分布大家一定不会感到陌生,这篇博客我们来更详细地介绍Dir ...
1 混合分布(Mixture Distribution)划分算法 我们在博文《联邦学习:按病态独立同分布划分Non-IID样本》中学习了联邦学习开山论文[1]中按照病态独立同分布(Pathological Non-IID)划分样本。 在上一篇博文《联邦学习:按Dirichlet分布划分 ...
1 病态不独立同分布(Non-IID)划分算法 在博客《分布式机器学习、联邦学习、多智能体的区别和联系》中我们提到论文[1]联邦学习每个client具有数据不独立同分布(Non-IID)的性质。 联邦学习的论文多是用FEMNIST、CIFAR10、Shakespare、Synthetic ...
引用于:https://blog.csdn.net/u010195841/article/details/69257897 overcoming catastrophic forgetting in neural networks 出处:2017 Jan 25 PNAS ...
1.communication-efficient algorithms parallel gradient descent Federated Averaging Algorithm 比较 (epoch相当于计算量) 结论:FedAvg减少了通信量,增加了计算量 ...
背景 设备中有很多数据,可以用来训练模型提高用户体验。但是数据通常是敏感或者庞大的。 隐私问题 数据孤岛:每个公司都有数据,淘宝有你的购买记录,银行有你的资金状况,它们 ...