原文:強化學習 4 —— 時序差分法(TD)解決無模型預測與控制問題

在上篇文章強化學習 蒙特卡洛 MC 采樣法的預測與控制中我們討論了 Model Free 情況下的策略評估問題,主要介紹了蒙特卡洛 MC 采樣法的預測與控制問題,這次我們介紹另外一種方法 時序差分法 TD 一 時序差分采樣法 TD 對於MC采樣法,如果我們沒有完整的狀態序列,那么就無法使用蒙特卡羅法求解了。當獲取不到完整狀態序列時, 可以使用時序差分法 Temporal Difference, T ...

2020-08-10 15:32 0 660 推薦指數:

查看詳情

強化學習-時序分算法(TD)和SARAS法

1. 前言 我們前面介紹了第一個Model Free的模型蒙特卡洛算法。蒙特卡羅法在估計價值時使用了完整序列的長期回報。而且蒙特卡洛法有較大的方差,模型不是很穩定。本節我們介紹時序分法時序分法不需要完整的序列,並且利用Bellman公式和動態規划進行迭代。 2. 時序分和蒙特卡洛比較 ...

Sat Mar 09 18:50:00 CST 2019 0 1107
強化學習(七)時序分離線控制算法Q-Learning

    在強化學習(六)時序分在線控制算法SARSA中我們討論了時序分的在線控制算法SARSA,而另一類時序分的離線控制算法還沒有討論,因此本文我們關注於時序分離線控制算法,主要是經典的Q-Learning算法。     Q-Learning這一篇對應Sutton書的第六章部分和UCL ...

Thu Sep 20 03:32:00 CST 2018 49 20011
強化學習(六)時序分在線控制算法SARSA

    在強化學習(五)用時序分法TD)求解中,我們討論了用時序分來求解強化學習預測問題的方法,但是對控制算法的求解過程沒有深入,本文我們就對時序分的在線控制算法SARSA做詳細的討論。     SARSA這一篇對應Sutton書的第六章部分和UCL強化學習課程的第五講部分。 1. ...

Mon Sep 10 03:30:00 CST 2018 34 19216
強化學習是如何解決問題的?

強化學習是如何解決問題的? 什么是強化學習算法呢,它離我們有多遠?2016年和2017年最具影響力的AlphaGo大勝世界圍棋冠軍李世石和柯潔事件,其核心算法就用到了強化學習算法。相信很多人想了解或者轉行研究強化學習算法或多或少都跟這兩場賽事有聯系。如今,強化學習繼深度學習之后,成為學術界 ...

Mon Oct 01 09:02:00 CST 2018 0 1272
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM