原文:【论文解读】Federated Learning of Deep Networks using Model Averaging 模型平均下的深度网络联邦学习

一 阐述了联邦学习的诞生背景: 在当前数据具有价值,并且需要被保护,数据分布为non IID情况下,需要提出一个框架来进行行之有效的训练,这也是联邦学习诞生的原因 二 论文的相关工作: 首先,论文阐述了联邦学习所适用的领域: .数据集应该具有较大隐私,所以无法上传 .对于有监督学习下的任务,可以很轻易地判断其标签 随后,论文举了两个基本例子: .典型的图像分类:根据学习用户以往的浏览照片类型来判断 ...

2020-07-26 17:00 0 917 推荐指数:

查看详情

联邦学习Federated learning

1.communication-efficient algorithms parallel gradient descent Federated Averaging Algorithm 比较 (epoch相当于计算量) 结论:FedAvg减少了通信量,增加了计算量 ...

Thu Mar 12 23:27:00 CST 2020 0 1448
联邦学习Federated Learning

原文链接:https://blog.csdn.net/cao812755156/article/details/89598410 https://zhuanlan.zhihu.com/p/79284686 联邦学习简介 联邦学习Federated Learning)是一种新兴的人工智能基础 ...

Tue Jul 20 00:26:00 CST 2021 0 440
联邦学习Federated Learning

联邦学习简介 联邦学习Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算 ...

Fri Nov 01 02:35:00 CST 2019 0 2255
Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks(用于深度网络快速适应的元学习)

摘要:我们提出了一种不依赖模型的元学习算法,它与任何梯度下降训练的模型兼容,适用于各种不同的学习问题,包括分类、回归和强化学习。元学习的目标是在各种学习任务上训练一个模型,这样它只需要少量的训练样本就可以解决新的学习任务。在我们的方法中,模型的参数被显式地训练,使得少量的梯度步骤和少量的来自 ...

Wed Dec 04 00:28:00 CST 2019 0 372
Federated Learning with Matched Averaging

挖个坑吧,督促自己仔细看一遍论文(ICLR 2020),看看自己什么时候也能中上那么一篇(流口水)~ 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Abstract   联邦学习允许边缘设备协同学习共享模型,同时将训练数据保留在设备上,将模型训练能力与将数据存储在云中 ...

Thu Dec 19 03:11:00 CST 2019 3 761
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM