Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Reinforcement learning model: control of nonlinear and unstable processes

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216305%3A26210%2F01%3APU23020" target="_blank" >RIV/00216305:26210/01:PU23020 - isvavai.cz</a>

  • Výsledek na webu

  • DOI - Digital Object Identifier

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Reinforcement learning model: control of nonlinear and unstable processes

  • Popis výsledku v původním jazyce

    Some experiences with using of the reinforcement learning model at control of nonlinear unstable processes are published in this paper. Control process is characterized by extensive depth in such cases, so the learning is computationally very demanding.We propose both using of nonlinear grid of the Q-function approximation table and also using of the learning conception ?by expert observation?. Learning off (optimal) control policy is not based on blind searching a state space, but it is in progress wiith the help of further component, that is able to control the process. Problems are studied on active magnetic bearing one-mass model.

  • Název v anglickém jazyce

    Reinforcement learning model: control of nonlinear and unstable processes

  • Popis výsledku anglicky

    Some experiences with using of the reinforcement learning model at control of nonlinear unstable processes are published in this paper. Control process is characterized by extensive depth in such cases, so the learning is computationally very demanding.We propose both using of nonlinear grid of the Q-function approximation table and also using of the learning conception ?by expert observation?. Learning off (optimal) control policy is not based on blind searching a state space, but it is in progress wiith the help of further component, that is able to control the process. Problems are studied on active magnetic bearing one-mass model.

Klasifikace

  • Druh

    D - Stať ve sborníku

  • CEP obor

    JD - Využití počítačů, robotika a její aplikace

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

    <a href="/cs/project/GA101%2F00%2F1471" target="_blank" >GA101/00/1471: Stabilita a řízení rotorů na magnetických ložiskách</a><br>

  • Návaznosti

    P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)

Ostatní

  • Rok uplatnění

    2001

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název statě ve sborníku

    Inženýrská Mechanika 2001

  • ISBN

    80-85918-64-1

  • ISSN

  • e-ISSN

  • Počet stran výsledku

    2

  • Strana od-do

    40-41

  • Název nakladatele

    Institute of Termomechanics Academy of Sience of the Czech Republic, Prague 2001

  • Místo vydání

    Svratka

  • Místo konání akce

    Svratka

  • Datum konání akce

    14. 5. 2001

  • Typ akce podle státní příslušnosti

    EUR - Evropská akce

  • Kód UT WoS článku