Vše
Vše

Co hledáte?

Vše
Projekty
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Kódování textu a zrychlení vybavování pro binární korelační matice

Popis výsledku

Náš článek popisuje část vyhledávacího stroje, který je založen na binární neuronové síti zvané binární korelační matice. Soustředili jsme se na část vyhledávacího stroje, který asociuje vstupní slovo s jeho identifikátorem. Ačkoliv tato část umožňuje přibližné i přesné vyhledávání, soustředili jsme se na přesné vyhledávání. Navrhli jsme několik metod, které snižují paměťovou náročnost. Navržená metoda umožňuje volit mezi paměťovou náročností a chybovostí. Dále jsme navrhli tři metody pro zrychlení vybavení korelačních matic. Použitím všech tří metod jsme dosáhli podstatného zrychlení procesu vybavování.

Klíčová slova

text processingbinary neural networksrecall speedup

Identifikátory výsledku

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Text Encoding and Recall Speedup for Correlation Matrix Memories

  • Popis výsledku v původním jazyce

    This article describes a part of our search engine based on Correlation matrix Memories. We focus on a part of our search engine that takes a single word from an input query and looks for its word representative (word label). Although our letter-word matcher provides exact matching, approximate matching and stemming, we pay here attention on the exact matching only. We proposed two encoding methods of input patterns designed to reduce memory consumption of CMMs. Both methods give some level of error rate in comparison with a standard approach. The first method allows to reduce memory more than 7~times. There is a tradeoff between memory requirement and error rate value. We also tested an n-gram approach for memory consumption and the error rate. We suggest three methods of speeding up a software simulation of the CMM recalling process. Combining all three we achieved a significant speedup of a standard method.

  • Název v anglickém jazyce

    Text Encoding and Recall Speedup for Correlation Matrix Memories

  • Popis výsledku anglicky

    This article describes a part of our search engine based on Correlation matrix Memories. We focus on a part of our search engine that takes a single word from an input query and looks for its word representative (word label). Although our letter-word matcher provides exact matching, approximate matching and stemming, we pay here attention on the exact matching only. We proposed two encoding methods of input patterns designed to reduce memory consumption of CMMs. Both methods give some level of error rate in comparison with a standard approach. The first method allows to reduce memory more than 7~times. There is a tradeoff between memory requirement and error rate value. We also tested an n-gram approach for memory consumption and the error rate. We suggest three methods of speeding up a software simulation of the CMM recalling process. Combining all three we achieved a significant speedup of a standard method.

Klasifikace

  • Druh

    D - Stať ve sborníku

  • CEP obor

    IN - Informatika

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

  • Návaznosti

    Z - Vyzkumny zamer (s odkazem do CEZ)

Ostatní

  • Rok uplatnění

    2007

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název statě ve sborníku

    Proceedings of the 6th EUROSIM Congress on Modelling and Simulation

  • ISBN

    978-3-901608-32-2

  • ISSN

  • e-ISSN

  • Počet stran výsledku

    6

  • Strana od-do

  • Název nakladatele

    ARGESIM

  • Místo vydání

    Vienna

  • Místo konání akce

    Ljubljana

  • Datum konání akce

    9. 9. 2007

  • Typ akce podle státní příslušnosti

    WRD - Celosvětová akce

  • Kód UT WoS článku