Learning Entropy as a Learning-Based Information Concept
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21220%2F19%3A00331153" target="_blank" >RIV/68407700:21220/19:00331153 - isvavai.cz</a>
Výsledek na webu
<a href="https://doi.org/10.3390/e21020166" target="_blank" >https://doi.org/10.3390/e21020166</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.3390/e21020166" target="_blank" >10.3390/e21020166</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Learning Entropy as a Learning-Based Information Concept
Popis výsledku v původním jazyce
Recently, a novel concept of a non-probabilistic novelty detection measure, based on a multi-scale quantification of unusually large learning efforts of machine learning systems, was introduced as learning entropy (LE). The key finding with LE is that the learning effort of learning systems is quantifiable as a novelty measure for each individually observed data point of otherwise complex dynamic systems, while the model accuracy is not a necessary requirement for novelty detection. This brief paper extends the explanation of LE from the point of an informatics approach towards a cognitive (learning-based) information measure emphasizing the distinction from Shannon's concept of probabilistic information. Fundamental derivations of learning entropy and of its practical estimations are recalled and further extended. The potentials, limitations, and, thus, the current challenges of LE are discussed.
Název v anglickém jazyce
Learning Entropy as a Learning-Based Information Concept
Popis výsledku anglicky
Recently, a novel concept of a non-probabilistic novelty detection measure, based on a multi-scale quantification of unusually large learning efforts of machine learning systems, was introduced as learning entropy (LE). The key finding with LE is that the learning effort of learning systems is quantifiable as a novelty measure for each individually observed data point of otherwise complex dynamic systems, while the model accuracy is not a necessary requirement for novelty detection. This brief paper extends the explanation of LE from the point of an informatics approach towards a cognitive (learning-based) information measure emphasizing the distinction from Shannon's concept of probabilistic information. Fundamental derivations of learning entropy and of its practical estimations are recalled and further extended. The potentials, limitations, and, thus, the current challenges of LE are discussed.
Klasifikace
Druh
J<sub>imp</sub> - Článek v periodiku v databázi Web of Science
CEP obor
—
OECD FORD obor
20301 - Mechanical engineering
Návaznosti výsledku
Projekt
<a href="/cs/project/EF16_019%2F0000753" target="_blank" >EF16_019/0000753: Centrum výzkumu nízkouhlíkových energetických technologií</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2019
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název periodika
Entropy
ISSN
1099-4300
e-ISSN
1099-4300
Svazek periodika
21
Číslo periodika v rámci svazku
2
Stát vydavatele periodika
CH - Švýcarská konfederace
Počet stran výsledku
14
Strana od-do
—
Kód UT WoS článku
000460742200067
EID výsledku v databázi Scopus
2-s2.0-85061966576