花费 46 ms
联邦学习中的模型聚合

论文[1]在联邦学习的情景下引入了多任务学习,其采用的手段是使每个client/task节点的训练数据分布不同,从而使各任务节点学习到不同的模型,且每个任务节点以及全局(global)的模型都由多个分 ...

Fri Dec 03 06:45:00 CST 2021 3 4866
联邦学习中的优化算法

1 导引 联邦学习做为一种特殊的分布式机器学习,仍然面临着分布式机器学习中存在的问题,那就是设计分布式的优化算法。 以分布式机器学习中常采用的client-server架构(同步)为例,我们常常会 ...

Fri Mar 04 23:37:00 CST 2022 0 4247
分布式机器学习、联邦学习、多智能体的区别和联系

1 分布式机器学习、联邦学习、多智能体介绍 最近这三个方面的论文都读过,这里写一篇博客归纳一下,以方便搞这几个领域的其他童鞋入门。我们先来介绍以下这三种机器学习范式的基本概念。 1.1 分布式机器 ...

Sun Dec 12 02:47:00 CST 2021 5 4183
联邦学习常用数据集

今天开始跑联邦学习论文实验了,这里介绍一下论文的常用benchmark数据集(因为我的研究领域是联邦/分布式学习,所以下面列出的数据集可能偏向这方面,做其他方向的童鞋参考下就好)。 1. CV数据集 ...

Sun Nov 28 20:24:00 CST 2021 1 2648
分布式多任务学习及联邦学习个性化

1 导引 现在多任务学习根据数据的收集方式可以粗略地被分为两种,一个是集中化的计算方法,即假定数据被事先收集到一个中心节点上然后再运行模型, 大多数基于神经网络的多任务学习应用,比如CV和NLP,主 ...

Wed Mar 02 02:50:00 CST 2022 0 1262
分布式多任务学习:论文总结归纳和展望

1 论文总结归纳 做为最后一篇分布式多任务学习的论文阅读记录,我决定对我目前为止粗读和精读的论文进行一次总结,然后陈述一些个人对该研究领域的见解和想法。 目前已经有许多论文对多任务学习提出了分布式 ...

Sat Nov 13 05:02:00 CST 2021 1 1290
联邦学习中的模型架构

在上一篇博文《联邦学习中的模型聚合》中,我们关注了在联邦学习中模型聚合(参数通信)的问题,但是对每一个client具体的模型架构设计和参数优化方法还没有讨论。本篇文章我们关注具体模型结构设计和参数优化 ...

Mon Dec 06 01:18:00 CST 2021 1 1237
分布式多任务学习:同步和异步优化算法

1 分布式多任务学习(Multi-task Learning, MTL)简介 我们在上一篇文章《基于正则表示的多任务学习》中提到,实现多任务学习的一种传统的(非神经网络的)方法为增加一个正则项[1] ...

Sun Oct 31 06:15:00 CST 2021 1 893

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM