General framework for binary classification on top samples
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F67985556%3A_____%2F22%3A00551866" target="_blank" >RIV/67985556:_____/22:00551866 - isvavai.cz</a>
Nalezeny alternativní kódy
RIV/68407700:21230/22:00354903 RIV/68407700:21340/22:00354903
Výsledek na webu
<a href="https://www.tandfonline.com/doi/full/10.1080/10556788.2021.1965601" target="_blank" >https://www.tandfonline.com/doi/full/10.1080/10556788.2021.1965601</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1080/10556788.2021.1965601" target="_blank" >10.1080/10556788.2021.1965601</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
General framework for binary classification on top samples
Popis výsledku v původním jazyce
Many binary classification problems minimize misclassification above (or below) a threshold. We show that instances of ranking problems, accuracy at the top, or hypothesis testing may be written in this form. We propose a general framework to handle these classes of problems and show which formulations (both known and newly proposed) fall into this framework. We provide a theoretical analysis of this framework and mention selected possible pitfalls the formulations may encounter. We show the convergence of the stochastic gradient descent for selected formulations even though the gradient estimate is inherently biased. We suggest several numerical improvements, including the implicit derivative and stochastic gradient descent. We provide an extensive numerical study.
Název v anglickém jazyce
General framework for binary classification on top samples
Popis výsledku anglicky
Many binary classification problems minimize misclassification above (or below) a threshold. We show that instances of ranking problems, accuracy at the top, or hypothesis testing may be written in this form. We propose a general framework to handle these classes of problems and show which formulations (both known and newly proposed) fall into this framework. We provide a theoretical analysis of this framework and mention selected possible pitfalls the formulations may encounter. We show the convergence of the stochastic gradient descent for selected formulations even though the gradient estimate is inherently biased. We suggest several numerical improvements, including the implicit derivative and stochastic gradient descent. We provide an extensive numerical study.
Klasifikace
Druh
J<sub>imp</sub> - Článek v periodiku v databázi Web of Science
CEP obor
—
OECD FORD obor
10102 - Applied mathematics
Návaznosti výsledku
Projekt
Výsledek vznikl pri realizaci vícero projektů. Více informací v záložce Projekty.
Návaznosti
I - Institucionalni podpora na dlouhodoby koncepcni rozvoj vyzkumne organizace
Ostatní
Rok uplatnění
2022
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název periodika
Optimization Methods & Software
ISSN
1055-6788
e-ISSN
1029-4937
Svazek periodika
37
Číslo periodika v rámci svazku
5
Stát vydavatele periodika
GB - Spojené království Velké Británie a Severního Irska
Počet stran výsledku
32
Strana od-do
1636-1667
Kód UT WoS článku
000728657100001
EID výsledku v databázi Scopus
2-s2.0-85121331364