原文:[强化学习论文笔记(1)]:DQN

Playing Atari with Deep Reinforcement Learning 论文地址 DQN 笔记 这篇文章就是DQN,DRL领域非常重要的一篇文章,也是David Silver大神的工作。文章本身没有什么难度。 文章说了RL和DL 的两个不同之处: DL 尤其是supervised learning 需要大量的labelled training data, 强化学习只有一个sc ...

2019-12-30 22:50 0 719 推荐指数:

查看详情

[强化学习论文笔记(3)]:DRQN

Deep Recurrent Q-Learning for Partially Observable MDPs 论文地址 DRQN 笔记 DQN 每一个decision time 需要该时刻前4个frame 来获得完整的状态信息。但是有的游戏四张图片也不能获取完整的状态信息。所以这篇论文 ...

Wed Jan 01 01:09:00 CST 2020 0 856
[强化学习论文笔记(2)]:DoubleDQN

Deep Reinforcement Learning with Double Q-learning 论文地址: Double-DQN Double Q-learning 笔记 在传统强化学习领域里面,学者们已经认识到了Q-learning 存在overestimate的问题 ...

Tue Dec 31 21:19:00 CST 2019 0 229
[强化学习论文笔记(7)]:DPG

Deterministic Policy Gradient Algorithms 论文地址 DPG 笔记 出发点 首先最开始提出的policy gradient 算法是 stochastic的。 这里的随机是指随机策略\(\pi_\theta(a|s)=P[a|s,;\theta ...

Sat Jan 04 03:45:00 CST 2020 0 1239
[强化学习论文笔记(4)]:DuelingDQN

Dueling Network Architectures for Deep Reinforcement Learning 论文地址 DuelingDQN 笔记 基本思路就是\(Q(s,a)\)的值既和state有关,又和action有关。但是两种"有关"的程度不一样,或者说影响力 ...

Wed Jan 01 03:27:00 CST 2020 0 957
强化学习(十一) Prioritized Replay DQN

    在强化学习(十)Double DQN (DDQN)中,我们讲到了DDQN使用两个Q网络,用当前Q网络计算最大Q值对应的动作,用目标Q网络计算这个最大动作对应的目标Q值,进而消除贪婪法带来的偏差。今天我们在DDQN的基础上,对经验回放部分的逻辑做优化。对应的算法是Prioritized ...

Wed Oct 17 00:46:00 CST 2018 65 17117
强化学习DQN 算法改进

DQN 算法改进 (一)Dueling DQN Dueling DQN 是一种基于 DQN 的改进算法。主要突破点:利用模型结构将值函数表示成更加细致的形式,这使得模型能够拥有更好的表现。下面给出公式,并定义一个新的变量: \[q(s_t, a_t)=v(s_t)+A(s_t, a_t ...

Fri Dec 13 21:09:00 CST 2019 0 504
强化学习(十)Double DQN (DDQN)

    在强化学习(九)Deep Q-Learning进阶之Nature DQN中,我们讨论了Nature DQN的算法流程,它通过使用两个相同的神经网络,以解决数据样本和网络训练之前的相关性。但是还是有其他值得优化的点,文本就关注于Nature DQN的一个改进版本: Double DQN算法 ...

Sat Oct 13 00:52:00 CST 2018 30 30076
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM