Measures and LMIs for optimal control of piecewise-affine systems
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21230%2F13%3A00226030" target="_blank" >RIV/68407700:21230/13:00226030 - isvavai.cz</a>
Výsledek na webu
—
DOI - Digital Object Identifier
—
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Measures and LMIs for optimal control of piecewise-affine systems
Popis výsledku v původním jazyce
This paper considers the class of deterministic continuous-time optimal control problems (OCPs) with piecewise-affine (PWA) vector field, polynomial Lagrangian and semialgebraic input and state constraints. The OCP is first relaxed as an infinite-dimensional linear program (LP) over a space of occupation measures. This LP is then approached by an asymptotically converging hierarchy of linear matrix inequality (LMI) relaxations. The relaxed dual of the original LP returns a polynomial approximation of the value function that solves the Hamilton-Jacobi-Bellman (HJB) equation of the OCP. Based on this polynomial approximation, a suboptimal policy is developed to construct a state feedback in a sample-and-hold manner. The results show that the suboptimal policy succeeds in providing a suboptimal state feedback law that drives the system relatively close to the optimal trajectories and respects the given constraints
Název v anglickém jazyce
Measures and LMIs for optimal control of piecewise-affine systems
Popis výsledku anglicky
This paper considers the class of deterministic continuous-time optimal control problems (OCPs) with piecewise-affine (PWA) vector field, polynomial Lagrangian and semialgebraic input and state constraints. The OCP is first relaxed as an infinite-dimensional linear program (LP) over a space of occupation measures. This LP is then approached by an asymptotically converging hierarchy of linear matrix inequality (LMI) relaxations. The relaxed dual of the original LP returns a polynomial approximation of the value function that solves the Hamilton-Jacobi-Bellman (HJB) equation of the OCP. Based on this polynomial approximation, a suboptimal policy is developed to construct a state feedback in a sample-and-hold manner. The results show that the suboptimal policy succeeds in providing a suboptimal state feedback law that drives the system relatively close to the optimal trajectories and respects the given constraints
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
BC - Teorie a systémy řízení
OECD FORD obor
—
Návaznosti výsledku
Projekt
<a href="/cs/project/GAP103%2F10%2F0628" target="_blank" >GAP103/10/0628: Semidefinitní programování po nelineární dynamické systémy</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2013
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Proceedings of the European Control Conference
ISBN
978-3-033-03962-9
ISSN
—
e-ISSN
—
Počet stran výsledku
6
Strana od-do
3173-3178
Název nakladatele
European Control Association
Místo vydání
Zurich
Místo konání akce
Zurich
Datum konání akce
17. 7. 2013
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
000332509703095