Lower Bounds on Complexity of Shallow Perceptron Networks
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F67985807%3A_____%2F16%3A00460704" target="_blank" >RIV/67985807:_____/16:00460704 - isvavai.cz</a>
Výsledek na webu
<a href="http://dx.doi.org/10.1007/978-3-319-44188-7_21" target="_blank" >http://dx.doi.org/10.1007/978-3-319-44188-7_21</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1007/978-3-319-44188-7_21" target="_blank" >10.1007/978-3-319-44188-7_21</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Lower Bounds on Complexity of Shallow Perceptron Networks
Popis výsledku v původním jazyce
Model complexity of shallow (one-hidden-layer) perceptron networks computing multivariable functions on finite domains is investigated. Lower bounds are derived on growth of the number of network units or sizes of output weights in terms of variations of functions to be computed. A concrete construction of a class of functions which cannot be computed by perceptron networks with considerably smaller numbers of units and output weights than the sizes of the function’s domains is presented. In particular, functions on Boolean d-dimensional cubes are constructed which cannot be computed by shallow perceptron networks with numbers of hidden units and sizes of output weights depending on d polynomially. A subclass of these functions is described whose elements can be computed by two-hidden-layer networks with the number of units depending on d linearly.
Název v anglickém jazyce
Lower Bounds on Complexity of Shallow Perceptron Networks
Popis výsledku anglicky
Model complexity of shallow (one-hidden-layer) perceptron networks computing multivariable functions on finite domains is investigated. Lower bounds are derived on growth of the number of network units or sizes of output weights in terms of variations of functions to be computed. A concrete construction of a class of functions which cannot be computed by perceptron networks with considerably smaller numbers of units and output weights than the sizes of the function’s domains is presented. In particular, functions on Boolean d-dimensional cubes are constructed which cannot be computed by shallow perceptron networks with numbers of hidden units and sizes of output weights depending on d polynomially. A subclass of these functions is described whose elements can be computed by two-hidden-layer networks with the number of units depending on d linearly.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
IN - Informatika
OECD FORD obor
—
Návaznosti výsledku
Projekt
<a href="/cs/project/GA15-18108S" target="_blank" >GA15-18108S: Modelová složitost neuronových, radiálních a jádrových sítí</a><br>
Návaznosti
I - Institucionalni podpora na dlouhodoby koncepcni rozvoj vyzkumne organizace
Ostatní
Rok uplatnění
2016
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Engineering Applications of Neural Networks
ISBN
978-3-319-44187-0
ISSN
1865-0929
e-ISSN
—
Počet stran výsledku
12
Strana od-do
283-294
Název nakladatele
Springer
Místo vydání
Cham
Místo konání akce
Aberdeen
Datum konání akce
2. 9. 2016
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—