Hierarchické Q( ) učení inteligentních agentů v prostředí umělého života
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21230%2F08%3A00165605" target="_blank" >RIV/68407700:21230/08:00165605 - isvavai.cz</a>
Výsledek na webu
—
DOI - Digital Object Identifier
—
Alternativní jazyky
Jazyk výsledku
čeština
Název v původním jazyce
Hierarchické Q( ) učení inteligentních agentů v prostředí umělého života
Popis výsledku v původním jazyce
Motivací tohoto výzkumu je ověření možnosti spojit rigorózní metody posilovaného učení a teorie řízení s behaviorálním (etologickým) přístupem k agentním technologiím. Výsledkem je architektura inteligentního autonomního agenta, který funguje v prostředích umělého života. Agent provádí od reaktivních chování (např. prchání a požívání potravy), přes jednoduché cílené chování (např. hledání zdrojů vody), až po komplexní plánování. Komplexním plánováním může být stavba přístřešku, průchod bludištěm s překážkami a hlavolamy a pod. Výsledné chování vzniká emergencí všech chování, která jsou volena na základě aktuálních priorit a motivací. Agent kontinuálně optimalizuje své chování za účelem zvýšení pravděpodobnosti přežití - optimalizačním kritériem je vzdálenost vnitřního stavu agenta od ideálních hodnot. Základními komponentami agenta jsou fyziologický systém, a kontroler. Fyziologický systém reprezentuje agentův vnitřní stav a jeho dynamiku.
Název v anglickém jazyce
Hierarchical Q ( ) Learning Intelligent Agents in an Artificial Life Domain
Popis výsledku anglicky
This research integrates rigorous methods of reinforcement learning (RL) and control engineering with a behavioral (ethology) approach to the agent technology. The main outcome is hybrid architecture for intelligent autonomous agents targeted to the Artificial Life like environments. The architecture adopts several biology concepts and shows that they can provide robust solutions to some areas. The resulting agents perform from primitive behaviors, simple goal directed behaviors, to complex planning. The agents are fully autonomous through environment feedback evaluating internal agent state and motivate the agent to perform behaviors that return the agent towards optimal conditions. This principle is typical to animals. Learning and control is realized by multiple RL controllers working in a hierarchy of Semi Markov Decision Processes (SMDP). Used model free Q( ) learning works online, the agents gain experiences during interaction with the environment.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
JC - Počítačový hardware a software
OECD FORD obor
—
Návaznosti výsledku
Projekt
<a href="/cs/project/1M0567" target="_blank" >1M0567: Centrum aplikované kybernetiky</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)<br>S - Specificky vyzkum na vysokych skolach
Ostatní
Rok uplatnění
2008
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Kognice a umělý život VIII.
ISBN
978-80-7248-462-1
ISSN
—
e-ISSN
—
Počet stran výsledku
10
Strana od-do
—
Název nakladatele
Slezská univerzita
Místo vydání
Opava
Místo konání akce
Praha
Datum konání akce
26. 5. 2008
Typ akce podle státní příslušnosti
CST - Celostátní akce
Kód UT WoS článku
—