MuTr: Multi-Stage Transformer for Hand Pose Estimation from Full-Scene Depth Image
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F49777513%3A23520%2F23%3A43969579" target="_blank" >RIV/49777513:23520/23:43969579 - isvavai.cz</a>
Výsledek na webu
<a href="https://www.mdpi.com/1424-8220/23/12/5509" target="_blank" >https://www.mdpi.com/1424-8220/23/12/5509</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.3390/s23125509" target="_blank" >10.3390/s23125509</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
MuTr: Multi-Stage Transformer for Hand Pose Estimation from Full-Scene Depth Image
Popis výsledku v původním jazyce
This work presents a novel transformer-based method for hand pose estimation—DePOTR. We test the DePOTR method on four benchmark datasets, where DePOTR outperforms other transformer-based methods while achieving results on par with other state-of-the-art methods. To further demonstrate the strength of DePOTR, we propose a novel multi-stage approach from full-scene depth image—MuTr. MuTr removes the necessity of having two different models in the hand pose estimation pipeline—one for hand localization and one for pose estimation—while maintaining promising results. To the best of our knowledge, this is the first successful attempt to use the same model architecture in standard and simultaneously in full-scene image setup while achieving competitive results in both of them. On the NYU dataset, DePOTR and MuTr reach precision equal to 7.85 mm and 8.71 mm, respectively.
Název v anglickém jazyce
MuTr: Multi-Stage Transformer for Hand Pose Estimation from Full-Scene Depth Image
Popis výsledku anglicky
This work presents a novel transformer-based method for hand pose estimation—DePOTR. We test the DePOTR method on four benchmark datasets, where DePOTR outperforms other transformer-based methods while achieving results on par with other state-of-the-art methods. To further demonstrate the strength of DePOTR, we propose a novel multi-stage approach from full-scene depth image—MuTr. MuTr removes the necessity of having two different models in the hand pose estimation pipeline—one for hand localization and one for pose estimation—while maintaining promising results. To the best of our knowledge, this is the first successful attempt to use the same model architecture in standard and simultaneously in full-scene image setup while achieving competitive results in both of them. On the NYU dataset, DePOTR and MuTr reach precision equal to 7.85 mm and 8.71 mm, respectively.
Klasifikace
Druh
J<sub>imp</sub> - Článek v periodiku v databázi Web of Science
CEP obor
—
OECD FORD obor
20205 - Automation and control systems
Návaznosti výsledku
Projekt
<a href="/cs/project/EF15_003%2F0000466" target="_blank" >EF15_003/0000466: Umělá inteligence a uvažování</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)<br>S - Specificky vyzkum na vysokych skolach
Ostatní
Rok uplatnění
2023
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název periodika
SENSORS
ISSN
1424-8220
e-ISSN
1424-8220
Svazek periodika
23
Číslo periodika v rámci svazku
12
Stát vydavatele periodika
CH - Švýcarská konfederace
Počet stran výsledku
16
Strana od-do
—
Kód UT WoS článku
001017823100001
EID výsledku v databázi Scopus
2-s2.0-85163928315