Analysis of Facial Motion Capture Data for Visual Speech Synthesis
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F49777513%3A23520%2F15%3A43926607" target="_blank" >RIV/49777513:23520/15:43926607 - isvavai.cz</a>
Výsledek na webu
<a href="http://link.springer.com/chapter/10.1007%2F978-3-319-23132-7_10" target="_blank" >http://link.springer.com/chapter/10.1007%2F978-3-319-23132-7_10</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1007/978-3-319-23132-7_10" target="_blank" >10.1007/978-3-319-23132-7_10</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Analysis of Facial Motion Capture Data for Visual Speech Synthesis
Popis výsledku v původním jazyce
The paper deals with interpretation of facial motion capture data for visual speech synthesis. For the purpose of analysis visual speech composed of 170 artificially created words was recorded by one speaker and the state-of-the-art face motion capture method. New nonlinear method is proposed to approximate the motion capture data using inten- tionally defined set of articulatory parameters. The result of the compar- ison shows that the proposed method outperforms baseline method with the same number of parameters. The precision of the approximation is evaluated by the parameter values extracted from unseen dataset and also verified with the 3D animated model of human head as the output reproducing visual speech in an artificial manner.
Název v anglickém jazyce
Analysis of Facial Motion Capture Data for Visual Speech Synthesis
Popis výsledku anglicky
The paper deals with interpretation of facial motion capture data for visual speech synthesis. For the purpose of analysis visual speech composed of 170 artificially created words was recorded by one speaker and the state-of-the-art face motion capture method. New nonlinear method is proposed to approximate the motion capture data using inten- tionally defined set of articulatory parameters. The result of the compar- ison shows that the proposed method outperforms baseline method with the same number of parameters. The precision of the approximation is evaluated by the parameter values extracted from unseen dataset and also verified with the 3D animated model of human head as the output reproducing visual speech in an artificial manner.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
20205 - Automation and control systems
Návaznosti výsledku
Projekt
<a href="/cs/project/TA01011264" target="_blank" >TA01011264: Eliminace jazykových bariér handicapovaných diváků České televize II</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2015
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Speech and Computer, 17th International Conference, SPECOM 2015, Athens, Greece, September 20-24,2015, Proceedings
ISBN
978-3-319-23131-0
ISSN
0302-9743
e-ISSN
—
Počet stran výsledku
8
Strana od-do
81-88
Název nakladatele
Springer
Místo vydání
Berlin
Místo konání akce
Athens, Greece
Datum konání akce
20. 9. 2015
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
000365866300010