Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Approximation of Information Divergences for Statistical Learning with Applications

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F62156489%3A43110%2F18%3A43914095" target="_blank" >RIV/62156489:43110/18:43914095 - isvavai.cz</a>

  • Nalezeny alternativní kódy

    RIV/00216208:11320/18:10383747

  • Výsledek na webu

    <a href="https://doi.org/10.1515/ms-2017-0177" target="_blank" >https://doi.org/10.1515/ms-2017-0177</a>

  • DOI - Digital Object Identifier

    <a href="http://dx.doi.org/10.1515/ms-2017-0177" target="_blank" >10.1515/ms-2017-0177</a>

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Approximation of Information Divergences for Statistical Learning with Applications

  • Popis výsledku v původním jazyce

    In this paper we give a partial response to one of the most important statistical questions, namely, what optimal statistical decisions are and how they are related to (statistical) information theory. We exemplify the necessity of understanding the structure of information divergences and their approximations, which may in particular be understood through deconvolution. Deconvolution of information divergences is illustrated in the exponential family of distributions, leading to the optimal tests in the Bahadur sense. We provide a new approximation of I-divergences using the Fourier transformation, saddle point approximation, and uniform convergence of the Euler polygons. Uniform approximation of deconvoluted parts of I-divergences is also discussed. Our approach is illustrated on a real data example.

  • Název v anglickém jazyce

    Approximation of Information Divergences for Statistical Learning with Applications

  • Popis výsledku anglicky

    In this paper we give a partial response to one of the most important statistical questions, namely, what optimal statistical decisions are and how they are related to (statistical) information theory. We exemplify the necessity of understanding the structure of information divergences and their approximations, which may in particular be understood through deconvolution. Deconvolution of information divergences is illustrated in the exponential family of distributions, leading to the optimal tests in the Bahadur sense. We provide a new approximation of I-divergences using the Fourier transformation, saddle point approximation, and uniform convergence of the Euler polygons. Uniform approximation of deconvoluted parts of I-divergences is also discussed. Our approach is illustrated on a real data example.

Klasifikace

  • Druh

    J<sub>imp</sub> - Článek v periodiku v databázi Web of Science

  • CEP obor

  • OECD FORD obor

    10103 - Statistics and probability

Návaznosti výsledku

  • Projekt

    Výsledek vznikl pri realizaci vícero projektů. Více informací v záložce Projekty.

  • Návaznosti

    P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)

Ostatní

  • Rok uplatnění

    2018

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název periodika

    Mathematica Slovaca

  • ISSN

    0139-9918

  • e-ISSN

  • Svazek periodika

    68

  • Číslo periodika v rámci svazku

    5

  • Stát vydavatele periodika

    DE - Spolková republika Německo

  • Počet stran výsledku

    24

  • Strana od-do

    1149-1172

  • Kód UT WoS článku

    000448428200020

  • EID výsledku v databázi Scopus

    2-s2.0-85056142913