Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Unsupervised Visual and Lexical Binding

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21230%2F12%3A00201479" target="_blank" >RIV/68407700:21230/12:00201479 - isvavai.cz</a>

  • Výsledek na webu

    <a href="http://cogsys2012.acin.tuwien.ac.at/doc/cogsys2012_proceedings/120Vavrecka_Michal.pdf" target="_blank" >http://cogsys2012.acin.tuwien.ac.at/doc/cogsys2012_proceedings/120Vavrecka_Michal.pdf</a>

  • DOI - Digital Object Identifier

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Unsupervised Visual and Lexical Binding

  • Popis výsledku v původním jazyce

    We present an unsupervised architecture capable of grounding color, shape and spatial relations of two objects in a 2D space. Our model constitutes a multimodal architecture thatintegrates information from visual (retina projection) and auditory inputs (sentences describing the visual scene). The visual system imitates "what" and "where" pathways and is able to bind location and shape (visual binding) and link them to the proper words in the sentence (lexical binding or symbol grounding). We reached better results in case of using "neural gas"algorithm (non-topographic organization) in the multimodal layer compared to the self-organizing maps (topographic organization). The results confirm theoretical assumptions about different nature of visual and auditory coding.

  • Název v anglickém jazyce

    Unsupervised Visual and Lexical Binding

  • Popis výsledku anglicky

    We present an unsupervised architecture capable of grounding color, shape and spatial relations of two objects in a 2D space. Our model constitutes a multimodal architecture thatintegrates information from visual (retina projection) and auditory inputs (sentences describing the visual scene). The visual system imitates "what" and "where" pathways and is able to bind location and shape (visual binding) and link them to the proper words in the sentence (lexical binding or symbol grounding). We reached better results in case of using "neural gas"algorithm (non-topographic organization) in the multimodal layer compared to the self-organizing maps (topographic organization). The results confirm theoretical assumptions about different nature of visual and auditory coding.

Klasifikace

  • Druh

    O - Ostatní výsledky

  • CEP obor

    AN - Psychologie

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

    <a href="/cs/project/GPP407%2F11%2FP696" target="_blank" >GPP407/11/P696: Referenční rámce v 3D prostředí a jejich EEG analýza</a><br>

  • Návaznosti

    P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)

Ostatní

  • Rok uplatnění

    2012

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů