原文:论文阅读笔记 连续学习中的EWC,DeepMind论文Overcoming catastrophic forgetting in neural networks

首先介绍下连续学习 Continuous Learning 吧。连续学习 Continuous Learning 又叫序列学习,顾名思义就是有顺序的学习任务。 参照人类,我们在遇到一个新的问题时,除非是完全陌生的领域,都会或多或少的利用之前所学的知识或技能来帮助自己更快的学习,而不是从零开始 而且在学习完新的知识或技能后,并不会完全忘记之前学过的东西。更直观的栗子:星星羽毛球打的贼溜,最近开始跟 ...

2019-03-22 10:41 0 1434 推荐指数:

查看详情

论文阅读 | Trojaning Attack on Neural Networks

对神经网络的木马攻击 Q: 1. 模型蒸馏可以做防御吗? 2. 强化学习可以帮助生成木马触发器吗? 3. 怎么挑选建立强连接的units? 本文提出了一种针对神经元网络的木马攻击。模型不直观,不易被人理解,攻击具有隐蔽性。 首先对神经元网络进行反向处理,生成一个通用的木马 ...

Wed Aug 14 01:44:00 CST 2019 0 776
《Learning Convolutional Neural Networks for Graphs》论文阅读

首先,容我吐槽一下这篇论文的行文结构、图文匹配程度、真把我搞得晕头转向,好些点全靠我猜测推理作者想干嘛,😈 背景 我们知道传统的CNN针对的是image,是欧氏空间square grid,那么使用同样square grid的卷积核就能对输入的图片进行特征的提取。在上一篇论文中,使用的理论 ...

Mon Apr 20 09:28:00 CST 2020 0 1532
《Diffusion-Convolutional Neural Networks论文阅读

DCNN 主要思想: 这是一篇基于空间域的图神经网络,聚合方式通过采样(hop)1~k 阶的邻居并同 self 使用 mean 的方式得到新的 feature-vector 作者将不同的 ...

Sat Jun 20 07:12:00 CST 2020 0 1023
论文笔记之:Progressive Neural Network Google DeepMind

Progressive Neural Network Google DeepMind   摘要:学习去解决任务的复杂序列 --- 结合 transfer (迁移),并且避免 catastrophic forgetting (灾难性遗忘) --- 对于达到 human-level ...

Thu Oct 27 06:40:00 CST 2016 1 2521
论文笔记《Notes on convolutional neural networks

这是个06年的老文章了,但是很多地方还是值得看一看的. 一、概要 主要讲了CNN的Feedforward Pass和 Backpropagation Pass,关键是卷积层和polling层 ...

Wed Jul 06 20:48:00 CST 2016 0 2501
 
粤ICP备18138465号  © 2018-2026 CODEPRJ.COM