Approximation of Information Divergences for Statistical Learning with Applications
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F62156489%3A43110%2F18%3A43914095" target="_blank" >RIV/62156489:43110/18:43914095 - isvavai.cz</a>
Nalezeny alternativní kódy
RIV/00216208:11320/18:10383747
Výsledek na webu
<a href="https://doi.org/10.1515/ms-2017-0177" target="_blank" >https://doi.org/10.1515/ms-2017-0177</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1515/ms-2017-0177" target="_blank" >10.1515/ms-2017-0177</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Approximation of Information Divergences for Statistical Learning with Applications
Popis výsledku v původním jazyce
In this paper we give a partial response to one of the most important statistical questions, namely, what optimal statistical decisions are and how they are related to (statistical) information theory. We exemplify the necessity of understanding the structure of information divergences and their approximations, which may in particular be understood through deconvolution. Deconvolution of information divergences is illustrated in the exponential family of distributions, leading to the optimal tests in the Bahadur sense. We provide a new approximation of I-divergences using the Fourier transformation, saddle point approximation, and uniform convergence of the Euler polygons. Uniform approximation of deconvoluted parts of I-divergences is also discussed. Our approach is illustrated on a real data example.
Název v anglickém jazyce
Approximation of Information Divergences for Statistical Learning with Applications
Popis výsledku anglicky
In this paper we give a partial response to one of the most important statistical questions, namely, what optimal statistical decisions are and how they are related to (statistical) information theory. We exemplify the necessity of understanding the structure of information divergences and their approximations, which may in particular be understood through deconvolution. Deconvolution of information divergences is illustrated in the exponential family of distributions, leading to the optimal tests in the Bahadur sense. We provide a new approximation of I-divergences using the Fourier transformation, saddle point approximation, and uniform convergence of the Euler polygons. Uniform approximation of deconvoluted parts of I-divergences is also discussed. Our approach is illustrated on a real data example.
Klasifikace
Druh
J<sub>imp</sub> - Článek v periodiku v databázi Web of Science
CEP obor
—
OECD FORD obor
10103 - Statistics and probability
Návaznosti výsledku
Projekt
Výsledek vznikl pri realizaci vícero projektů. Více informací v záložce Projekty.
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2018
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název periodika
Mathematica Slovaca
ISSN
0139-9918
e-ISSN
—
Svazek periodika
68
Číslo periodika v rámci svazku
5
Stát vydavatele periodika
DE - Spolková republika Německo
Počet stran výsledku
24
Strana od-do
1149-1172
Kód UT WoS článku
000448428200020
EID výsledku v databázi Scopus
2-s2.0-85056142913