Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Multi-resolution Next Location Prediction for Distributed Virtual Environments

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216305%3A26230%2F10%3APU90542" target="_blank" >RIV/00216305:26230/10:PU90542 - isvavai.cz</a>

  • Výsledek na webu

  • DOI - Digital Object Identifier

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Multi-resolution Next Location Prediction for Distributed Virtual Environments

  • Popis výsledku v původním jazyce

    Computing performance of today's graphics hardware grows fast as well as amount of rendered data. Modern graphics engines enable a possibility to use an arbitrary number of textures with arbitrary resolutions. On the other hand, high quality distributed3D virtual environments can't exploit the computation power due to the limited network bandwidth. The problem mainly appears just in case the designers of such environments use high resolution textures. To overcome this streaming bottleneck an ef&amp;#64257;cient prefetching scheme should be proposed. Instead of blind greedy scheduling policy we propose a scheme which exploits movement history of users to realize a look-ahead policy which enables the clients to retrieve potentially rendered data in advance. The prediction itself is established by Markov chains due to their ability to fast learning in conjunction with 2-state predictor which increases ability of the scheduling system to adapt to new habits of particular users.<br>

  • Název v anglickém jazyce

    Multi-resolution Next Location Prediction for Distributed Virtual Environments

  • Popis výsledku anglicky

    Computing performance of today's graphics hardware grows fast as well as amount of rendered data. Modern graphics engines enable a possibility to use an arbitrary number of textures with arbitrary resolutions. On the other hand, high quality distributed3D virtual environments can't exploit the computation power due to the limited network bandwidth. The problem mainly appears just in case the designers of such environments use high resolution textures. To overcome this streaming bottleneck an ef&amp;#64257;cient prefetching scheme should be proposed. Instead of blind greedy scheduling policy we propose a scheme which exploits movement history of users to realize a look-ahead policy which enables the clients to retrieve potentially rendered data in advance. The prediction itself is established by Markov chains due to their ability to fast learning in conjunction with 2-state predictor which increases ability of the scheduling system to adapt to new habits of particular users.<br>

Klasifikace

  • Druh

    D - Stať ve sborníku

  • CEP obor

    JC - Počítačový hardware a software

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

    <a href="/cs/project/LC06008" target="_blank" >LC06008: Centrum počítačové grafiky</a><br>

  • Návaznosti

    P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)<br>Z - Vyzkumny zamer (s odkazem do CEZ)<br>S - Specificky vyzkum na vysokych skolach

Ostatní

  • Rok uplatnění

    2010

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název statě ve sborníku

    Proceedings IEEE/IFIP International Conference on Embedded and Ubiquitous Computing

  • ISBN

    978-0-7695-4322-2

  • ISSN

  • e-ISSN

  • Počet stran výsledku

    8

  • Strana od-do

  • Název nakladatele

    IEEE Computer Society

  • Místo vydání

    Hong Kong

  • Místo konání akce

    HongKong

  • Datum konání akce

    11. 12. 2010

  • Typ akce podle státní příslušnosti

    WRD - Celosvětová akce

  • Kód UT WoS článku