Implicit Hand Gestures in Aeronautics Cockpit as a Cue for Crew State and Workload Inference
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216305%3A26230%2F15%3APU117014" target="_blank" >RIV/00216305:26230/15:PU117014 - isvavai.cz</a>
Výsledek na webu
<a href="http://dx.doi.org/10.1109/ITSC.2015.109" target="_blank" >http://dx.doi.org/10.1109/ITSC.2015.109</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1109/ITSC.2015.109" target="_blank" >10.1109/ITSC.2015.109</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Implicit Hand Gestures in Aeronautics Cockpit as a Cue for Crew State and Workload Inference
Popis výsledku v původním jazyce
This paper aims at improving advanced aeronautic cockpit by raising its awareness of the crew's state and workload level. Our approach is based on visual analysis of pilot's upper body movements. We define the term of "implicit gestures" and further observe its subclasses. We collected a simulator dataset of practical implicit gestures, annotated semi-automatically a dataset for Human pose estimation training, and we offer these datasets for public use. Based on experiments on this data, we propose a method for recognition of implicit gestures - full interactions, touch-and-go interactions, and unfinished gestures. Our approach is purely visual (no depth data, which are hardly usable in the cockpit environment due to regulations). This method is based on human pose estimation by a hierarchical approach named Pose machine whose subsampled output is used for recognition of implicit gesture presence from sequences of frames by random forest. The experiments show that the classification works reliably and the method is able to recognize these implicit gestures in the cockpit.
Název v anglickém jazyce
Implicit Hand Gestures in Aeronautics Cockpit as a Cue for Crew State and Workload Inference
Popis výsledku anglicky
This paper aims at improving advanced aeronautic cockpit by raising its awareness of the crew's state and workload level. Our approach is based on visual analysis of pilot's upper body movements. We define the term of "implicit gestures" and further observe its subclasses. We collected a simulator dataset of practical implicit gestures, annotated semi-automatically a dataset for Human pose estimation training, and we offer these datasets for public use. Based on experiments on this data, we propose a method for recognition of implicit gestures - full interactions, touch-and-go interactions, and unfinished gestures. Our approach is purely visual (no depth data, which are hardly usable in the cockpit environment due to regulations). This method is based on human pose estimation by a hierarchical approach named Pose machine whose subsampled output is used for recognition of implicit gesture presence from sequences of frames by random forest. The experiments show that the classification works reliably and the method is able to recognize these implicit gestures in the cockpit.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
Výsledek vznikl pri realizaci vícero projektů. Více informací v záložce Projekty.
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)<br>S - Specificky vyzkum na vysokych skolach
Ostatní
Rok uplatnění
2015
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Proceedings of ITSC 2015
ISBN
978-1-4673-6596-3
ISSN
—
e-ISSN
—
Počet stran výsledku
6
Strana od-do
632-637
Název nakladatele
The Universidad de Las Palmas de Gran Canaria
Místo vydání
Las Palmas
Místo konání akce
Las Palmas de Gran Canaria
Datum konání akce
1. 5. 2015
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
000376668800102