Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Using Q-Learning with LWR in continuous space

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216305%3A26210%2F03%3APU38794" target="_blank" >RIV/00216305:26210/03:PU38794 - isvavai.cz</a>

  • Nalezeny alternativní kódy

    RIV/61388998:_____/03:51030193

  • Výsledek na webu

  • DOI - Digital Object Identifier

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Using Q-Learning with LWR in continuous space

  • Popis výsledku v původním jazyce

    Locally Weighted Learning (LWR) is a class of approximations, based on a local model. In this paper we demonstrate using LWR together with Q-learning for control tasks. Q-learning is the most effective and popular algorithm which belongs to the Reinforcement Learning algorithms group. This algorithm works with rewards and penalties. The most common representation of Q-function is the table. The table must be replaced by suitable approximator if use of continuous states is required. LWR is one of possiblle approximators. To get the first impression on application of LWR together with modified Q-learning for the control task a simple model of inverted pendulum was created and proposed method was applied on this model.

  • Název v anglickém jazyce

    Using Q-Learning with LWR in continuous space

  • Popis výsledku anglicky

    Locally Weighted Learning (LWR) is a class of approximations, based on a local model. In this paper we demonstrate using LWR together with Q-learning for control tasks. Q-learning is the most effective and popular algorithm which belongs to the Reinforcement Learning algorithms group. This algorithm works with rewards and penalties. The most common representation of Q-function is the table. The table must be replaced by suitable approximator if use of continuous states is required. LWR is one of possiblle approximators. To get the first impression on application of LWR together with modified Q-learning for the control task a simple model of inverted pendulum was created and proposed method was applied on this model.

Klasifikace

  • Druh

    D - Stať ve sborníku

  • CEP obor

    BC - Teorie a systémy řízení

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

  • Návaznosti

    Z - Vyzkumny zamer (s odkazem do CEZ)

Ostatní

  • Rok uplatnění

    2003

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název statě ve sborníku

    Proceedings of 6th international symposium on Mechatronics

  • ISBN

    80-88914-92-2

  • ISSN

  • e-ISSN

  • Počet stran výsledku

    4

  • Strana od-do

    58-61

  • Název nakladatele

    Alexander Dubček University of Trenčí, Faculty of Mechatronics

  • Místo vydání

    Trenčín

  • Místo konání akce

    Trenčanské Teplice, SLOVAKIA

  • Datum konání akce

    18. 6. 2003

  • Typ akce podle státní příslušnosti

    WRD - Celosvětová akce

  • Kód UT WoS článku