Řízení přechodových stavů asynchronního elektromotoru založené na Q-učení
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216305%3A26210%2F04%3APU52017" target="_blank" >RIV/00216305:26210/04:PU52017 - isvavai.cz</a>
Výsledek na webu
—
DOI - Digital Object Identifier
—
Alternativní jazyky
Jazyk výsledku
čeština
Název v původním jazyce
Řízení přechodových stavů asynchronního elektromotoru založené na Q-učení
Popis výsledku v původním jazyce
Předložená disertační práce je zaměřena na využití metody Q-učení pro řízení asynchronního elektromotoru. Řízení se skládá z fáze předučení a fáze doučení. Během fáze předučení jsou na výpočtovém modelu prováděny pokusy, které jsou zpracovávány prováděním zálohování Q-učení v reálném čase. Výpočtový model může být pouze přibližný. V předložené práci je provedeno simulační ověření navržené metody na modelu asynchronního elektromotoru. Při řízení jsou měřeny pouze aktuální otáčky, z nichž je vypočtena akktuální regulační odchylka, její rychlost a zrychlení. Počáteční testy mají za úkol zjistit, jeví-li se jako vhodnější z hlediska úspěšnosti učení stav prostředí definovaný jako 1-D (uvažující pouze regulační odchylku), 2-D (uvažující regulační odchylkuajejí rychlost) nebo jako 3-D (uvažující regulační odchylku, její rychlost a zrychlení). Další experimenty se týkají optimalizace počtu intervalů lineárního a nelineárního rastru jednotlivých stavových veličin. Získané strategie řízení jso
Název v anglickém jazyce
Control of transition states of asynchronous electromotor based on Q-learning
Popis výsledku anglicky
Presented PhD thesis is focused on use of Q-learning method on asynchronous electric drive control. The control consists of prelearning and tutorage phase. During prelearning the attempts which are processed by real time Q-learning backup are performed on computational model. Computational model can be approximate only. Presented thesis show simulation verification of proposed method on asynchronous electric drive mode. Only the actual running speed was used for control; actual control error, its veloccity and acceleration are calculated. Initial tests were performed in order to find what environment state definitions are more advantageous regarding the learning succesibility: 1-D (considers control error only), 2-D (considers control error and it?svelocity) or 3-D (considering control error, its velocity and acceleration). Further experiments consider optimization of linear and nonlinear grid of particular state variables. Found control policies were evaluated with respect to control
Klasifikace
Druh
J<sub>x</sub> - Nezařazeno - Článek v odborném periodiku (Jimp, Jsc a Jost)
CEP obor
JD - Využití počítačů, robotika a její aplikace
OECD FORD obor
—
Návaznosti výsledku
Projekt
—
Návaznosti
Z - Vyzkumny zamer (s odkazem do CEZ)
Ostatní
Rok uplatnění
2004
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název periodika
Vědecké spisy Vysokého učení technického v Brně Edice PhD Thesis
ISSN
1213-4198
e-ISSN
—
Svazek periodika
NEUVEDEN
Číslo periodika v rámci svazku
1
Stát vydavatele periodika
CZ - Česká republika
Počet stran výsledku
30
Strana od-do
1-30
Kód UT WoS článku
—
EID výsledku v databázi Scopus
—