原文:強化學習(六)時序差分在線控制算法SARSA

在強化學習 五 用時序差分法 TD 求解中,我們討論了用時序差分來求解強化學習預測問題的方法,但是對控制算法的求解過程沒有深入,本文我們就對時序差分的在線控制算法SARSA做詳細的討論。 SARSA這一篇對應Sutton書的第六章部分和UCL強化學習課程的第五講部分。 .SARSA算法的引入 SARSA算法是一種使用時序差分求解強化學習控制問題的方法,回顧下此時我們的控制問題可以表示為:給定強化 ...

2018-09-09 19:30 34 19216 推薦指數:

查看詳情

強化學習(七)時序分離線控制算法Q-Learning

    在強化學習(六)時序分在線控制算法SARSA中我們討論了時序分的在線控制算法SARSA,而另一類時序分的離線控制算法還沒有討論,因此本文我們關注於時序分離線控制算法,主要是經典的Q-Learning算法。     Q-Learning這一篇對應Sutton書的第六章部分和UCL ...

Thu Sep 20 03:32:00 CST 2018 49 20011
強化學習-時序算法(TD)和SARAS法

1. 前言 我們前面介紹了第一個Model Free的模型蒙特卡洛算法。蒙特卡羅法在估計價值時使用了完整序列的長期回報。而且蒙特卡洛法有較大的方差,模型不是很穩定。本節我們介紹時序分法,時序分法不需要完整的序列,並且利用Bellman公式和動態規划進行迭代。 2. 時序分和蒙特卡洛比較 ...

Sat Mar 09 18:50:00 CST 2019 0 1107
強化學習 5 —— SARSA 和 Q-Learning算法代碼實現

上篇文章 強化學習——時序分 (TD) --- SARSA and Q-Learning 我們介紹了時序分TD算法解決強化學習的評估和控制問題,TD對比MC有很多優勢,比如TD有更低方差,可以學習不完整的序列。所以我們可以在策略控制循環中使用TD來代替MC。優於TD算法的諸多優點,因此現在主流 ...

Mon Aug 10 23:34:00 CST 2020 1 914
強化學習 4 —— 時序分法(TD)解決無模型預測與控制問題

在上篇文章強化學習——蒙特卡洛 (MC) 采樣法的預測與控制中我們討論了 Model Free 情況下的策略評估問題,主要介紹了蒙特卡洛(MC)采樣法的預測與控制問題,這次我們介紹另外一種方法——時序分法(TD) 一、時序分采樣法(TD) 對於MC采樣法,如果我們沒有完整的狀態序列 ...

Mon Aug 10 23:32:00 CST 2020 0 660
強化學習 - Q-learning Sarsa 和 DQN 的理解

本文用於基本入門理解。 強化學習的基本理論 : R, S, A 這些就不說了。 先設想兩個場景: 一。 1個 5x5 的 格子圖, 里面有一個目標點, 2個死亡點二。 一個迷宮, 一個出發點, 3處 分叉點, 5個死角, 1條活路Q-learning 的概念 其實就是一個算法 ...

Mon Oct 30 19:32:00 CST 2017 1 4237
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM