Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Learning Entropy as a Learning-Based Information Concept

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21220%2F19%3A00331153" target="_blank" >RIV/68407700:21220/19:00331153 - isvavai.cz</a>

  • Výsledek na webu

    <a href="https://doi.org/10.3390/e21020166" target="_blank" >https://doi.org/10.3390/e21020166</a>

  • DOI - Digital Object Identifier

    <a href="http://dx.doi.org/10.3390/e21020166" target="_blank" >10.3390/e21020166</a>

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Learning Entropy as a Learning-Based Information Concept

  • Popis výsledku v původním jazyce

    Recently, a novel concept of a non-probabilistic novelty detection measure, based on a multi-scale quantification of unusually large learning efforts of machine learning systems, was introduced as learning entropy (LE). The key finding with LE is that the learning effort of learning systems is quantifiable as a novelty measure for each individually observed data point of otherwise complex dynamic systems, while the model accuracy is not a necessary requirement for novelty detection. This brief paper extends the explanation of LE from the point of an informatics approach towards a cognitive (learning-based) information measure emphasizing the distinction from Shannon's concept of probabilistic information. Fundamental derivations of learning entropy and of its practical estimations are recalled and further extended. The potentials, limitations, and, thus, the current challenges of LE are discussed.

  • Název v anglickém jazyce

    Learning Entropy as a Learning-Based Information Concept

  • Popis výsledku anglicky

    Recently, a novel concept of a non-probabilistic novelty detection measure, based on a multi-scale quantification of unusually large learning efforts of machine learning systems, was introduced as learning entropy (LE). The key finding with LE is that the learning effort of learning systems is quantifiable as a novelty measure for each individually observed data point of otherwise complex dynamic systems, while the model accuracy is not a necessary requirement for novelty detection. This brief paper extends the explanation of LE from the point of an informatics approach towards a cognitive (learning-based) information measure emphasizing the distinction from Shannon's concept of probabilistic information. Fundamental derivations of learning entropy and of its practical estimations are recalled and further extended. The potentials, limitations, and, thus, the current challenges of LE are discussed.

Klasifikace

  • Druh

    J<sub>imp</sub> - Článek v periodiku v databázi Web of Science

  • CEP obor

  • OECD FORD obor

    20301 - Mechanical engineering

Návaznosti výsledku

  • Projekt

    <a href="/cs/project/EF16_019%2F0000753" target="_blank" >EF16_019/0000753: Centrum výzkumu nízkouhlíkových energetických technologií</a><br>

  • Návaznosti

    P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)

Ostatní

  • Rok uplatnění

    2019

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název periodika

    Entropy

  • ISSN

    1099-4300

  • e-ISSN

    1099-4300

  • Svazek periodika

    21

  • Číslo periodika v rámci svazku

    2

  • Stát vydavatele periodika

    CH - Švýcarská konfederace

  • Počet stran výsledku

    14

  • Strana od-do

  • Kód UT WoS článku

    000460742200067

  • EID výsledku v databázi Scopus

    2-s2.0-85061966576