Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Decomposition, Merging, and Refinement Approach to Boost Inductive Logic Programming Algorithms

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216208%3A11320%2F12%3A10129785" target="_blank" >RIV/00216208:11320/12:10129785 - isvavai.cz</a>

  • Výsledek na webu

    <a href="http://link.springer.com/chapter/10.1007%2F978-3-642-33185-5_21" target="_blank" >http://link.springer.com/chapter/10.1007%2F978-3-642-33185-5_21</a>

  • DOI - Digital Object Identifier

    <a href="http://dx.doi.org/10.1007/978-3-642-33185-5_21" target="_blank" >10.1007/978-3-642-33185-5_21</a>

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Decomposition, Merging, and Refinement Approach to Boost Inductive Logic Programming Algorithms

  • Popis výsledku v původním jazyce

    Inductive Logic Programming (ILP) deals with the problem of finding a hypothesis covering positive examples and excluding negative examples. It uses first-order logic as a uniform representation for examples and hypothesis. In this paper we propose a method to boost any ILP learning algorithm by first decomposing the set of examples to subsets and applying the learning algorithm to each subset separately, second, merging the hypotheses obtained for the subsets to get a single hypothesis for the completeset of examples, and finally refining this single hypothesis to make it shorter. The proposed technique significantly outperforms existing approaches.

  • Název v anglickém jazyce

    Decomposition, Merging, and Refinement Approach to Boost Inductive Logic Programming Algorithms

  • Popis výsledku anglicky

    Inductive Logic Programming (ILP) deals with the problem of finding a hypothesis covering positive examples and excluding negative examples. It uses first-order logic as a uniform representation for examples and hypothesis. In this paper we propose a method to boost any ILP learning algorithm by first decomposing the set of examples to subsets and applying the learning algorithm to each subset separately, second, merging the hypotheses obtained for the subsets to get a single hypothesis for the completeset of examples, and finally refining this single hypothesis to make it shorter. The proposed technique significantly outperforms existing approaches.

Klasifikace

  • Druh

    J<sub>x</sub> - Nezařazeno - Článek v odborném periodiku (Jimp, Jsc a Jost)

  • CEP obor

    IN - Informatika

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

    <a href="/cs/project/GBP202%2F12%2FG061" target="_blank" >GBP202/12/G061: Centrum excelence - Institut teoretické informatiky (CE-ITI)</a><br>

  • Návaznosti

    P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)<br>I - Institucionalni podpora na dlouhodoby koncepcni rozvoj vyzkumne organizace

Ostatní

  • Rok uplatnění

    2012

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název periodika

    Lecture Notes in Computer Science

  • ISSN

    0302-9743

  • e-ISSN

  • Svazek periodika

    2012

  • Číslo periodika v rámci svazku

    7557

  • Stát vydavatele periodika

    DE - Spolková republika Německo

  • Počet stran výsledku

    11

  • Strana od-do

    184-194

  • Kód UT WoS článku

  • EID výsledku v databázi Scopus