Unsupervised Visual and Lexical Binding
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21230%2F12%3A00201479" target="_blank" >RIV/68407700:21230/12:00201479 - isvavai.cz</a>
Výsledek na webu
<a href="http://cogsys2012.acin.tuwien.ac.at/doc/cogsys2012_proceedings/120Vavrecka_Michal.pdf" target="_blank" >http://cogsys2012.acin.tuwien.ac.at/doc/cogsys2012_proceedings/120Vavrecka_Michal.pdf</a>
DOI - Digital Object Identifier
—
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Unsupervised Visual and Lexical Binding
Popis výsledku v původním jazyce
We present an unsupervised architecture capable of grounding color, shape and spatial relations of two objects in a 2D space. Our model constitutes a multimodal architecture thatintegrates information from visual (retina projection) and auditory inputs (sentences describing the visual scene). The visual system imitates "what" and "where" pathways and is able to bind location and shape (visual binding) and link them to the proper words in the sentence (lexical binding or symbol grounding). We reached better results in case of using "neural gas"algorithm (non-topographic organization) in the multimodal layer compared to the self-organizing maps (topographic organization). The results confirm theoretical assumptions about different nature of visual and auditory coding.
Název v anglickém jazyce
Unsupervised Visual and Lexical Binding
Popis výsledku anglicky
We present an unsupervised architecture capable of grounding color, shape and spatial relations of two objects in a 2D space. Our model constitutes a multimodal architecture thatintegrates information from visual (retina projection) and auditory inputs (sentences describing the visual scene). The visual system imitates "what" and "where" pathways and is able to bind location and shape (visual binding) and link them to the proper words in the sentence (lexical binding or symbol grounding). We reached better results in case of using "neural gas"algorithm (non-topographic organization) in the multimodal layer compared to the self-organizing maps (topographic organization). The results confirm theoretical assumptions about different nature of visual and auditory coding.
Klasifikace
Druh
O - Ostatní výsledky
CEP obor
AN - Psychologie
OECD FORD obor
—
Návaznosti výsledku
Projekt
<a href="/cs/project/GPP407%2F11%2FP696" target="_blank" >GPP407/11/P696: Referenční rámce v 3D prostředí a jejich EEG analýza</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2012
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů