Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Stochastic Convergences in Divergences

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21340%2F10%3A00176068" target="_blank" >RIV/68407700:21340/10:00176068 - isvavai.cz</a>

  • Výsledek na webu

  • DOI - Digital Object Identifier

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Stochastic Convergences in Divergences

  • Popis výsledku v původním jazyce

    The paper presents a new unifying look at the statistical inference. We define score functions and minimum score estimators. We show that the stochastic convergence for estimators, i.e. the consistency of an estimators in score functions, leads to various types of consistency in the well-known statistical distances or disparity measures between probability distributions. We formulate conditions under which a score function is phi-divergence of theoretical and empirical distribution. Conversely, each phi-divergence is a score function. We prove that minimization of arbitrary divergence score function leads to the classical histogram density estimator and that a special score function leads in a similar sense to the minimum Kolmogorov distance estimator.

  • Název v anglickém jazyce

    Stochastic Convergences in Divergences

  • Popis výsledku anglicky

    The paper presents a new unifying look at the statistical inference. We define score functions and minimum score estimators. We show that the stochastic convergence for estimators, i.e. the consistency of an estimators in score functions, leads to various types of consistency in the well-known statistical distances or disparity measures between probability distributions. We formulate conditions under which a score function is phi-divergence of theoretical and empirical distribution. Conversely, each phi-divergence is a score function. We prove that minimization of arbitrary divergence score function leads to the classical histogram density estimator and that a special score function leads in a similar sense to the minimum Kolmogorov distance estimator.

Klasifikace

  • Druh

    D - Stať ve sborníku

  • CEP obor

    BA - Obecná matematika

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

  • Návaznosti

    Z - Vyzkumny zamer (s odkazem do CEZ)<br>S - Specificky vyzkum na vysokych skolach

Ostatní

  • Rok uplatnění

    2010

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název statě ve sborníku

    SPMS 2010 Stochastic and Physical Monitoring Systems

  • ISBN

    978-80-01-04641-8

  • ISSN

  • e-ISSN

  • Počet stran výsledku

    11

  • Strana od-do

  • Název nakladatele

    ČVUT

  • Místo vydání

    Praha

  • Místo konání akce

    Děčín

  • Datum konání akce

    27. 6. 2010

  • Typ akce podle státní příslušnosti

    EUR - Evropská akce

  • Kód UT WoS článku