Approximation of Classifiers by Deep Perceptron Networks
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F67985807%3A_____%2F23%3A00572576" target="_blank" >RIV/67985807:_____/23:00572576 - isvavai.cz</a>
Výsledek na webu
<a href="https://dx.doi.org/10.1016/j.neunet.2023.06.004" target="_blank" >https://dx.doi.org/10.1016/j.neunet.2023.06.004</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1016/j.neunet.2023.06.004" target="_blank" >10.1016/j.neunet.2023.06.004</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Approximation of Classifiers by Deep Perceptron Networks
Popis výsledku v původním jazyce
We employ properties of high-dimensional geometry to obtain some insights into capabilities of deep perceptron networks to classify large data sets. We derive conditions on network depths, types of activation functions, and numbers of parameters that imply that approximation errors behave almost deterministically. We illustrate general results by concrete cases of popular activation functions: Heaviside, ramp sigmoid, rectified linear, and rectified power. Our probabilistic bounds on approximation errors are derived using concentration of measure type inequalities (method of bounded differences) and concepts from statistical learning theory.
Název v anglickém jazyce
Approximation of Classifiers by Deep Perceptron Networks
Popis výsledku anglicky
We employ properties of high-dimensional geometry to obtain some insights into capabilities of deep perceptron networks to classify large data sets. We derive conditions on network depths, types of activation functions, and numbers of parameters that imply that approximation errors behave almost deterministically. We illustrate general results by concrete cases of popular activation functions: Heaviside, ramp sigmoid, rectified linear, and rectified power. Our probabilistic bounds on approximation errors are derived using concentration of measure type inequalities (method of bounded differences) and concepts from statistical learning theory.
Klasifikace
Druh
J<sub>imp</sub> - Článek v periodiku v databázi Web of Science
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
<a href="/cs/project/GA22-02067S" target="_blank" >GA22-02067S: AppNeCo: Aproximativní neurovýpočty</a><br>
Návaznosti
I - Institucionalni podpora na dlouhodoby koncepcni rozvoj vyzkumne organizace
Ostatní
Rok uplatnění
2023
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název periodika
Neural Networks
ISSN
0893-6080
e-ISSN
1879-2782
Svazek periodika
165
Číslo periodika v rámci svazku
August 2023
Stát vydavatele periodika
GB - Spojené království Velké Británie a Severního Irska
Počet stran výsledku
8
Strana od-do
654-661
Kód UT WoS článku
001058145100001
EID výsledku v databázi Scopus
2-s2.0-85163371420