Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Pedestrian and Ego-vehicle Trajectory Prediction from Monocular Camera

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21230%2F21%3A00354367" target="_blank" >RIV/68407700:21230/21:00354367 - isvavai.cz</a>

  • Výsledek na webu

    <a href="https://doi.org/10.1109/CVPR46437.2021.01007" target="_blank" >https://doi.org/10.1109/CVPR46437.2021.01007</a>

  • DOI - Digital Object Identifier

    <a href="http://dx.doi.org/10.1109/CVPR46437.2021.01007" target="_blank" >10.1109/CVPR46437.2021.01007</a>

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Pedestrian and Ego-vehicle Trajectory Prediction from Monocular Camera

  • Popis výsledku v původním jazyce

    Predicting future pedestrian trajectory is a crucial component of autonomous driving systems, as recognizing critical situations based only on current pedestrian position may come too late for any meaningful corrective action (e.g. breaking) to take place. In this paper, we propose a new method to predict future position of pedestrians, with respect to a predicted future position of the ego-vehicle, thus giving a assistive/autonomous driving system sufficient time to respond. The method explicitly disentangles actual movement of pedestrians in real world from the ego-motion of the vehicle, using a future pose prediction network trained in self-supervised fashion, which allows the method to observe and predict the intrinsic pedestrian motion in a normalised view, that captures the same real-world location across multiple frames.

  • Název v anglickém jazyce

    Pedestrian and Ego-vehicle Trajectory Prediction from Monocular Camera

  • Popis výsledku anglicky

    Predicting future pedestrian trajectory is a crucial component of autonomous driving systems, as recognizing critical situations based only on current pedestrian position may come too late for any meaningful corrective action (e.g. breaking) to take place. In this paper, we propose a new method to predict future position of pedestrians, with respect to a predicted future position of the ego-vehicle, thus giving a assistive/autonomous driving system sufficient time to respond. The method explicitly disentangles actual movement of pedestrians in real world from the ego-motion of the vehicle, using a future pose prediction network trained in self-supervised fashion, which allows the method to observe and predict the intrinsic pedestrian motion in a normalised view, that captures the same real-world location across multiple frames.

Klasifikace

  • Druh

    D - Stať ve sborníku

  • CEP obor

  • OECD FORD obor

    10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)

Návaznosti výsledku

  • Projekt

    <a href="/cs/project/EF16_019%2F0000765" target="_blank" >EF16_019/0000765: Výzkumné centrum informatiky</a><br>

  • Návaznosti

    P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)

Ostatní

  • Rok uplatnění

    2021

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název statě ve sborníku

    Proceedings of 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)

  • ISBN

    978-1-6654-4509-2

  • ISSN

    1063-6919

  • e-ISSN

    2575-7075

  • Počet stran výsledku

    9

  • Strana od-do

    10199-10207

  • Název nakladatele

    IEEE Computer Society

  • Místo vydání

    USA

  • Místo konání akce

    Nashville

  • Datum konání akce

    20. 6. 2021

  • Typ akce podle státní příslušnosti

    WRD - Celosvětová akce

  • Kód UT WoS článku

    000742075000020