Nao Robot Localization and Navigation Using Fusion of Odometry and Visual Sensor Data
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21230%2F12%3A00204508" target="_blank" >RIV/68407700:21230/12:00204508 - isvavai.cz</a>
Výsledek na webu
<a href="http://dx.doi.org/10.1007/978-3-642-33515-0_43" target="_blank" >http://dx.doi.org/10.1007/978-3-642-33515-0_43</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1007/978-3-642-33515-0_43" target="_blank" >10.1007/978-3-642-33515-0_43</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Nao Robot Localization and Navigation Using Fusion of Odometry and Visual Sensor Data
Popis výsledku v původním jazyce
Nao humanoid robot from Aldebaran Robotics is equipped with an odometry sensor providing rather inaccurate robot pose estimates. We propose using Structure from Motion (SfM) to enable visual odometry from Nao camera without the necessity to add artificial markers to the scene and show that the robot pose estimates can be significantly improved by fusing the data from the odometry sensor and visual odometry. The implementation consists of the sensor modules streaming robot data, the mapping module creating a 3D model, the visual localization module estimating camera pose w.r.t. the model, and the navigation module planning robot trajectories and performing the actual movement. All of the modules are connected through the RSB middleware, which makes thesolution independent on the given robot type.
Název v anglickém jazyce
Nao Robot Localization and Navigation Using Fusion of Odometry and Visual Sensor Data
Popis výsledku anglicky
Nao humanoid robot from Aldebaran Robotics is equipped with an odometry sensor providing rather inaccurate robot pose estimates. We propose using Structure from Motion (SfM) to enable visual odometry from Nao camera without the necessity to add artificial markers to the scene and show that the robot pose estimates can be significantly improved by fusing the data from the odometry sensor and visual odometry. The implementation consists of the sensor modules streaming robot data, the mapping module creating a 3D model, the visual localization module estimating camera pose w.r.t. the model, and the navigation module planning robot trajectories and performing the actual movement. All of the modules are connected through the RSB middleware, which makes thesolution independent on the given robot type.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
JD - Využití počítačů, robotika a její aplikace
OECD FORD obor
—
Návaznosti výsledku
Projekt
<a href="/cs/project/7E10047" target="_blank" >7E10047: Humanoids with auditory and visual abilities in populated spaces</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)<br>S - Specificky vyzkum na vysokych skolach
Ostatní
Rok uplatnění
2012
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Intelligent Robotics and Applications, 5th International Conference, ICIRA 2012, Part II
ISBN
978-3-642-33514-3
ISSN
0302-9743
e-ISSN
—
Počet stran výsledku
12
Strana od-do
427-438
Název nakladatele
Springer
Místo vydání
Berlin
Místo konání akce
Montreal
Datum konání akce
3. 10. 2012
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—