原文:一個 Q-learning 算法的簡明教程

本文是對 http: mnemstudio.org path finding q learning tutorial.htm 的翻譯,共分兩部分,第一部分為中文翻譯,第二部分為英文原文。翻譯時為方便讀者理解,有些地方采用了意譯的方式,此外,原文中有幾處筆誤,在翻譯時已進行了更正。這篇教程通俗易懂,是一份很不錯的學習理解 Q learning 算法工作原理的材料。 第一部分:中文翻譯 第二部分:英 ...

2016-12-26 23:13 0 8980 推薦指數:

查看詳情

Q-Learning算法簡明教程

Tutorial   本教程將通過一個簡單但又綜合全面的例子來介紹Q-learning算法。該例子描述了一個 ...

Thu Nov 12 06:50:00 CST 2020 0 1776
Q-learning簡明實例

,是一份很不錯的學習理解 Q-learning 算法工作原理的材料。 第一部分:中文翻譯 第二 ...

Tue Sep 05 05:43:00 CST 2017 0 1212
Q-learning算法介紹(2)

前面我們介紹了Q-learning算法的原理,現在我們就一步一步地用實際數值演示一下,給大家一個更直觀的認識。 首先我們選擇Gamma值的初值為0.8,agent的初始位置是房間1,前面顯示的R矩陣不變,Q矩陣所有值都被初始化為0。 由於起始位置是房間1,所以我們先看R矩陣的第二行 ...

Sat Apr 25 11:18:00 CST 2020 0 872
Q-learning算法介紹(1)

我們在這里使用一個簡單的例子來介紹Q-learning的工作原理。下圖是一個房間的俯視圖,我們的智能體agent要通過非監督式學習來了解這個陌生的環境。圖中的0到4分別對應一個房間,5對應的是建築物周圍的環境。如果房間之間有一個門,那么這2個房間就是直接相通的,否則就要通過其他房間相通 ...

Fri Apr 24 16:06:00 CST 2020 0 885
強化學習——Q-learning算法

假設有這樣的房間 如果將房間表示成點,然后用房間之間的連通關系表示成線,如下圖所示: 這就是房間對應的圖。我們首先將agent(機器人)處於任何一個位置,讓他自己走動 ...

Wed Jun 26 17:27:00 CST 2019 1 3283
強化學習-Q-Learning算法

1. 前言 Q-Learning算法也是時序差分算法的一種,和我們前面介紹的SARAS不同的是,SARSA算法遵從了交互序列,根據當前的真實行動進行價值估計;Q-Learning算法沒有遵循交互序列,而是在當前時刻選擇了使價值最大的行動。 2. Q-Learning Q-Learning算法 ...

Sat Mar 09 19:28:00 CST 2019 0 1768
Q-learning簡明實例Java代碼實現

在《Q-learning簡明實例》中我們介紹了Q-learning算法的簡單例子,從中我們可以總結出Q-learning算法的基本思想 本次選擇的經驗得分 = 本次選擇的反饋得分 + 本次選擇后場景的歷史最佳經驗得分 其中反饋得分是單個步驟的價值分值(固定的分值),經驗得分是完成目標的學習分值 ...

Sat Sep 09 10:18:00 CST 2017 0 1480
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM