LSTM Neural Network for Speaker Change Detection in Telephone Conversations
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F49777513%3A23520%2F18%3A43952855" target="_blank" >RIV/49777513:23520/18:43952855 - isvavai.cz</a>
Výsledek na webu
<a href="https://link.springer.com/chapter/10.1007%2F978-3-319-99579-3_24" target="_blank" >https://link.springer.com/chapter/10.1007%2F978-3-319-99579-3_24</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1007/978-3-319-99579-3_24" target="_blank" >10.1007/978-3-319-99579-3_24</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
LSTM Neural Network for Speaker Change Detection in Telephone Conversations
Popis výsledku v původním jazyce
In this paper, we analyze an approach to speaker change detection in telephone conversations based on recurrent Long Short-Term Memory Neural Networks. We compare this approach to speaker change detection via Convolutional Neural Networks. We show that by finetuning the architecture and using suitable input data in the form of spectrograms, we obtain better results relatively by 2%.We have discovered that a smaller architecture performs better on unseen data. Also, we found out that using stateful LSTM layers that try to remember whole conversations is much worse than using recurrent networks that memorize only small sequences of speech.
Název v anglickém jazyce
LSTM Neural Network for Speaker Change Detection in Telephone Conversations
Popis výsledku anglicky
In this paper, we analyze an approach to speaker change detection in telephone conversations based on recurrent Long Short-Term Memory Neural Networks. We compare this approach to speaker change detection via Convolutional Neural Networks. We show that by finetuning the architecture and using suitable input data in the form of spectrograms, we obtain better results relatively by 2%.We have discovered that a smaller architecture performs better on unseen data. Also, we found out that using stateful LSTM layers that try to remember whole conversations is much worse than using recurrent networks that memorize only small sequences of speech.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
20205 - Automation and control systems
Návaznosti výsledku
Projekt
<a href="/cs/project/GBP103%2F12%2FG084" target="_blank" >GBP103/12/G084: Centrum pro multi-modální interpretaci dat velkého rozsahu</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2018
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Speech and Computer 20th International Conference, SPECOM 2018 Leipzig, Germany, September 18–22, 2018, Proceedings
ISBN
978-3-319-99578-6
ISSN
0302-9743
e-ISSN
1611-3349
Počet stran výsledku
8
Strana od-do
226-233
Název nakladatele
Springer Nature Switzerland AG
Místo vydání
Cham
Místo konání akce
Leipzig, Germany
Datum konání akce
18. 9. 2018
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—