Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

AWEAR 2.0 System: Omni-directional Audio-Visual Data Acquisition and Processing

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21230%2F09%3A00163104" target="_blank" >RIV/68407700:21230/09:00163104 - isvavai.cz</a>

  • Výsledek na webu

    <a href="http://dx.doi.org/10.1109/CVPRW.2009.5204361" target="_blank" >http://dx.doi.org/10.1109/CVPRW.2009.5204361</a>

  • DOI - Digital Object Identifier

    <a href="http://dx.doi.org/10.1109/CVPRW.2009.5204361" target="_blank" >10.1109/CVPRW.2009.5204361</a>

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    AWEAR 2.0 System: Omni-directional Audio-Visual Data Acquisition and Processing

  • Popis výsledku v původním jazyce

    We present a wearable audio-visual capturing system, termed AWEAR 2.0, along with its underlying vision components that allow robust self-localization, multi-body pedestrian tracking, and dense scene reconstruction. Designed as a backpack, the system isaimed at supporting the cognitive abilities of the wearer. In this paper, we focus on the design issues for the hardware platform and on the performance of the current state-of-the-art computer vision methods on the acquired sequences. We describe the calibration procedure of the two omni-directional cameras present in the system as well as a Structure-from-Motion pipeline that allows for stable multi-body tracking even from rather shaky video sequences thanks to ground plane stabilization. Furthermore,we show how a dense scene reconstruction can be obtained from the data acquired with the platform.

  • Název v anglickém jazyce

    AWEAR 2.0 System: Omni-directional Audio-Visual Data Acquisition and Processing

  • Popis výsledku anglicky

    We present a wearable audio-visual capturing system, termed AWEAR 2.0, along with its underlying vision components that allow robust self-localization, multi-body pedestrian tracking, and dense scene reconstruction. Designed as a backpack, the system isaimed at supporting the cognitive abilities of the wearer. In this paper, we focus on the design issues for the hardware platform and on the performance of the current state-of-the-art computer vision methods on the acquired sequences. We describe the calibration procedure of the two omni-directional cameras present in the system as well as a Structure-from-Motion pipeline that allows for stable multi-body tracking even from rather shaky video sequences thanks to ground plane stabilization. Furthermore,we show how a dense scene reconstruction can be obtained from the data acquired with the platform.

Klasifikace

  • Druh

    D - Stať ve sborníku

  • CEP obor

    JD - Využití počítačů, robotika a její aplikace

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

    <a href="/cs/project/GA201%2F07%2F1136" target="_blank" >GA201/07/1136: Matematika neurčitosti</a><br>

  • Návaznosti

    Z - Vyzkumny zamer (s odkazem do CEZ)

Ostatní

  • Rok uplatnění

    2009

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název statě ve sborníku

    EGOVIS 2009: Proceedings of the First Workshop on Egocentric Vision

  • ISBN

    978-1-4244-3994-2

  • ISSN

    1063-6919

  • e-ISSN

  • Počet stran výsledku

    8

  • Strana od-do

    49-56

  • Název nakladatele

    Omnipress

  • Místo vydání

    Madison

  • Místo konání akce

    Miami

  • Datum konání akce

    20. 6. 2009

  • Typ akce podle státní příslušnosti

    WRD - Celosvětová akce

  • Kód UT WoS článku

    000274887100007