Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Using Modified Q-learning With LWR for Inverted Pendulum Control

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216305%3A26210%2F03%3APU34240" target="_blank" >RIV/00216305:26210/03:PU34240 - isvavai.cz</a>

  • Nalezeny alternativní kódy

    RIV/61388998:_____/03:51030189

  • Výsledek na webu

  • DOI - Digital Object Identifier

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Using Modified Q-learning With LWR for Inverted Pendulum Control

  • Popis výsledku v původním jazyce

    Locally Weighted Learning (LWR) is a class of approximations, based on a local model. In this paper we demonstrate using LWR together with Q-learning for control tasks. Q-learning is the most effective and popular algorithm which belongs to the Reinforcement Learning algorithms group. This algorithm works with rewards and penalties. The most common representation of Q-function is the table. The table must be replaced by suitable approximator if use of continuous states is required. LWR is one of possiblle approximators. To get the first impression on application of LWR together with modified Q-learning for the control task a simple model of inverted pendulum was created and proposed method was applied on this model.

  • Název v anglickém jazyce

    Using Modified Q-learning With LWR for Inverted Pendulum Control

  • Popis výsledku anglicky

    Locally Weighted Learning (LWR) is a class of approximations, based on a local model. In this paper we demonstrate using LWR together with Q-learning for control tasks. Q-learning is the most effective and popular algorithm which belongs to the Reinforcement Learning algorithms group. This algorithm works with rewards and penalties. The most common representation of Q-function is the table. The table must be replaced by suitable approximator if use of continuous states is required. LWR is one of possiblle approximators. To get the first impression on application of LWR together with modified Q-learning for the control task a simple model of inverted pendulum was created and proposed method was applied on this model.

Klasifikace

  • Druh

    D - Stať ve sborníku

  • CEP obor

    BC - Teorie a systémy řízení

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

  • Návaznosti

    Z - Vyzkumny zamer (s odkazem do CEZ)

Ostatní

  • Rok uplatnění

    2003

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název statě ve sborníku

    Mechatronics, Robotics and Biomachanics 2003

  • ISBN

    80-214-2312-9

  • ISSN

  • e-ISSN

  • Počet stran výsledku

    2

  • Strana od-do

    91-92

  • Název nakladatele

    Institute of Mechanics of Solids, Brno University of Technology

  • Místo vydání

    Brno

  • Místo konání akce

    Hrotovice

  • Datum konání akce

    24. 3. 2003

  • Typ akce podle státní příslušnosti

    WRD - Celosvětová akce

  • Kód UT WoS článku