Policy Derivation Methods for Critic-Only Reinforcement Learning in Continuous Action Spaces
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21730%2F16%3A00300604" target="_blank" >RIV/68407700:21730/16:00300604 - isvavai.cz</a>
Výsledek na webu
<a href="http://www.sciencedirect.com/science/article/pii/S2405896316303305" target="_blank" >http://www.sciencedirect.com/science/article/pii/S2405896316303305</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1016/j.ifacol.2016.07.127" target="_blank" >10.1016/j.ifacol.2016.07.127</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Policy Derivation Methods for Critic-Only Reinforcement Learning in Continuous Action Spaces
Popis výsledku v původním jazyce
State-of-the-art critic-only reinforcement learning methods can deal with a small discrete action space. The most common approach to real-world problems with continuous actions is to discretize the action space. In this paper a method is proposed to derive a continuous-action policy based on a value function that has been computed for discrete actions by using any known algorithm such as value iteration. Several variants of the policy-derivation algorithm are introduced and compared on two continuous state-action benchmarks: double pendulum swing-up and 3D mountain car.
Název v anglickém jazyce
Policy Derivation Methods for Critic-Only Reinforcement Learning in Continuous Action Spaces
Popis výsledku anglicky
State-of-the-art critic-only reinforcement learning methods can deal with a small discrete action space. The most common approach to real-world problems with continuous actions is to discretize the action space. In this paper a method is proposed to derive a continuous-action policy based on a value function that has been computed for discrete actions by using any known algorithm such as value iteration. Several variants of the policy-derivation algorithm are introduced and compared on two continuous state-action benchmarks: double pendulum swing-up and 3D mountain car.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
JC - Počítačový hardware a software
OECD FORD obor
—
Návaznosti výsledku
Projekt
<a href="/cs/project/GA15-22731S" target="_blank" >GA15-22731S: Symbolická regrese pro posilované učení ve spojitých prostorech</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2016
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
4th IFAC Conference on Intelligent Control and Automation Sciences ICONS 2016
ISBN
—
ISSN
2405-8963
e-ISSN
—
Počet stran výsledku
6
Strana od-do
285-290
Název nakladatele
Elsevier
Místo vydání
Lausanne
Místo konání akce
Reims
Datum konání akce
1. 6. 2016
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
000381503600049