A Low-Energy Implementation of Finite Automata by Optimal-Size Neural Nets
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F67985807%3A_____%2F13%3A00392404" target="_blank" >RIV/67985807:_____/13:00392404 - isvavai.cz</a>
Výsledek na webu
<a href="http://dx.doi.org/10.1007/978-3-642-40728-4_15" target="_blank" >http://dx.doi.org/10.1007/978-3-642-40728-4_15</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1007/978-3-642-40728-4_15" target="_blank" >10.1007/978-3-642-40728-4_15</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
A Low-Energy Implementation of Finite Automata by Optimal-Size Neural Nets
Popis výsledku v původním jazyce
Recently, a new so-called energy complexity measure has been introduced and studied for feedforward perceptron networks. This measure is inspired by the fact that biological neurons require more energy to transmit a spike than not to fire and the activity of neurons in the brain is quite sparse, with only about 1% of neurons firing. We investigate the energy complexity for recurrent networks which bounds the number of active neurons at any time instant of a computation. We prove that any deterministic finite automaton with m states can be simulated by a neural network of optimal size s=Theta(sqrt{m}) with time overhead O(s/e) per one input bit, using the energy O(e), for any e=Omega(log s) and e=O(s), which shows the time-energy tradeoff in recurrent networks.
Název v anglickém jazyce
A Low-Energy Implementation of Finite Automata by Optimal-Size Neural Nets
Popis výsledku anglicky
Recently, a new so-called energy complexity measure has been introduced and studied for feedforward perceptron networks. This measure is inspired by the fact that biological neurons require more energy to transmit a spike than not to fire and the activity of neurons in the brain is quite sparse, with only about 1% of neurons firing. We investigate the energy complexity for recurrent networks which bounds the number of active neurons at any time instant of a computation. We prove that any deterministic finite automaton with m states can be simulated by a neural network of optimal size s=Theta(sqrt{m}) with time overhead O(s/e) per one input bit, using the energy O(e), for any e=Omega(log s) and e=O(s), which shows the time-energy tradeoff in recurrent networks.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
IN - Informatika
OECD FORD obor
—
Návaznosti výsledku
Projekt
<a href="/cs/project/GAP202%2F10%2F1333" target="_blank" >GAP202/10/1333: NoSCoM: Nestandardní výpočetní modely a jejich aplikace ve složitosti, lingvistice a učení</a><br>
Návaznosti
I - Institucionalni podpora na dlouhodoby koncepcni rozvoj vyzkumne organizace
Ostatní
Rok uplatnění
2013
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Artificial Neural Networks and Machine Learning - ICANN 2013
ISBN
978-3-642-40727-7
ISSN
0302-9743
e-ISSN
—
Počet stran výsledku
8
Strana od-do
114-121
Název nakladatele
Springer
Místo vydání
Berlin
Místo konání akce
Sofia
Datum konání akce
10. 9. 2013
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—