Natural user interface as a supplement of the holographic Raman tweezers
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68081731%3A_____%2F14%3A00434981" target="_blank" >RIV/68081731:_____/14:00434981 - isvavai.cz</a>
Výsledek na webu
<a href="http://dx.doi.org/10.1117/12.2061024" target="_blank" >http://dx.doi.org/10.1117/12.2061024</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1117/12.2061024" target="_blank" >10.1117/12.2061024</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Natural user interface as a supplement of the holographic Raman tweezers
Popis výsledku v původním jazyce
Holographic Raman tweezers (HRT) manipulates with microobjects by controlling the positions of multiple optical traps via the mouse or joystick. Several attempts have appeared recently to exploit touch tablets, 2D cameras or Kinect game console instead.We proposed a multimodal ?Natural User Interface (NUI) approach integrating hands tracking, gestures recognition, eye tracking and speech recognition. For this purpose we exploited ?Leap Motion and ?MyGaze low-cost sensors and a simple speech recognitionprogram ?Tazti. We developed own NUI software which processes signals from the sensors and sends the control commands to HRT which subsequently controls the positions of trapping beams, micropositioning stage and the acquisition system of Raman spectra.System allows various modes of operation proper for specific tasks. Virtual tools (called ?pin and ?tweezers) serving for the manipulation with particles are displayed on the transparent ?overlay window above the live camera image. Eye t
Název v anglickém jazyce
Natural user interface as a supplement of the holographic Raman tweezers
Popis výsledku anglicky
Holographic Raman tweezers (HRT) manipulates with microobjects by controlling the positions of multiple optical traps via the mouse or joystick. Several attempts have appeared recently to exploit touch tablets, 2D cameras or Kinect game console instead.We proposed a multimodal ?Natural User Interface (NUI) approach integrating hands tracking, gestures recognition, eye tracking and speech recognition. For this purpose we exploited ?Leap Motion and ?MyGaze low-cost sensors and a simple speech recognitionprogram ?Tazti. We developed own NUI software which processes signals from the sensors and sends the control commands to HRT which subsequently controls the positions of trapping beams, micropositioning stage and the acquisition system of Raman spectra.System allows various modes of operation proper for specific tasks. Virtual tools (called ?pin and ?tweezers) serving for the manipulation with particles are displayed on the transparent ?overlay window above the live camera image. Eye t
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
BH - Optika, masery a lasery
OECD FORD obor
—
Návaznosti výsledku
Projekt
<a href="/cs/project/LO1212" target="_blank" >LO1212: ALISI - Centrum pokročilých diagnostických metod a technologií</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2014
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Optical Trapping and Optical Micromanipulation XI (Proceedings of SPIE 9164)
ISBN
9781628411911
ISSN
0277-786X
e-ISSN
—
Počet stran výsledku
7
Strana od-do
"91642P:1"-"7"
Název nakladatele
SPIE
Místo vydání
Bellingham
Místo konání akce
San Diego
Datum konání akce
17. 8. 2014
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—