Constructive Lower Bounds on Model Complexity of Shallow Perceptron Networks
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F67985807%3A_____%2F18%3A00474092" target="_blank" >RIV/67985807:_____/18:00474092 - isvavai.cz</a>
Výsledek na webu
<a href="http://dx.doi.org/10.1007/s00521-017-2965-0" target="_blank" >http://dx.doi.org/10.1007/s00521-017-2965-0</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1007/s00521-017-2965-0" target="_blank" >10.1007/s00521-017-2965-0</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Constructive Lower Bounds on Model Complexity of Shallow Perceptron Networks
Popis výsledku v původním jazyce
Limitations of shallow (one-hidden-layer) perceptron networks are investigated with respect to computing multivariable functions on finite domains. Lower bounds are derived on growth of the number of network units or sizes of output weights in terms of variations of functions to be computed. A concrete construction is presented with a class of functions which cannot be computed by signum or Heaviside perceptron networks with considerably smaller numbers of units and smaller output weights than the sizes of the function’s domains. A subclass of these functions is described whose elements can be computed by two-hidden-layer perceptron networks with the number of units depending on logarithm of the size of the domain linearly.
Název v anglickém jazyce
Constructive Lower Bounds on Model Complexity of Shallow Perceptron Networks
Popis výsledku anglicky
Limitations of shallow (one-hidden-layer) perceptron networks are investigated with respect to computing multivariable functions on finite domains. Lower bounds are derived on growth of the number of network units or sizes of output weights in terms of variations of functions to be computed. A concrete construction is presented with a class of functions which cannot be computed by signum or Heaviside perceptron networks with considerably smaller numbers of units and smaller output weights than the sizes of the function’s domains. A subclass of these functions is described whose elements can be computed by two-hidden-layer perceptron networks with the number of units depending on logarithm of the size of the domain linearly.
Klasifikace
Druh
J<sub>imp</sub> - Článek v periodiku v databázi Web of Science
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
<a href="/cs/project/GA15-18108S" target="_blank" >GA15-18108S: Modelová složitost neuronových, radiálních a jádrových sítí</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2018
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název periodika
Neural Computing & Applications
ISSN
0941-0643
e-ISSN
—
Svazek periodika
29
Číslo periodika v rámci svazku
7
Stát vydavatele periodika
US - Spojené státy americké
Počet stran výsledku
11
Strana od-do
305-315
Kód UT WoS článku
000427799400002
EID výsledku v databázi Scopus
2-s2.0-85018255699