Transformer-Based Encoder-Encoder Architecture for Spoken Term Detection
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F49777513%3A23520%2F23%3A43969820" target="_blank" >RIV/49777513:23520/23:43969820 - isvavai.cz</a>
Výsledek na webu
<a href="https://link.springer.com/chapter/10.1007/978-3-031-47665-5_28" target="_blank" >https://link.springer.com/chapter/10.1007/978-3-031-47665-5_28</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1007/978-3-031-47665-5_28" target="_blank" >10.1007/978-3-031-47665-5_28</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Transformer-Based Encoder-Encoder Architecture for Spoken Term Detection
Popis výsledku v původním jazyce
The paper presents a method for spoken term detection based on the Transformer architecture. We propose the encoder-encoder architecture employing two BERT-like encoders with additional modifications, including attention masking, convolutional and upsampling layers. The encoders project a recognized hypothesis and a searched term into a shared embedding space, where the score of the putative hit is computed using the calibrated dot product. In the experiments, we used the Wav2Vec 2.0 speech recognizer. The proposed system outperformed a baseline method based on deep LSTMs on the English and Czech STD datasets based on USC Shoah Foundation Visual History Archive (MALACH).
Název v anglickém jazyce
Transformer-Based Encoder-Encoder Architecture for Spoken Term Detection
Popis výsledku anglicky
The paper presents a method for spoken term detection based on the Transformer architecture. We propose the encoder-encoder architecture employing two BERT-like encoders with additional modifications, including attention masking, convolutional and upsampling layers. The encoders project a recognized hypothesis and a searched term into a shared embedding space, where the score of the putative hit is computed using the calibrated dot product. In the experiments, we used the Wav2Vec 2.0 speech recognizer. The proposed system outperformed a baseline method based on deep LSTMs on the English and Czech STD datasets based on USC Shoah Foundation Visual History Archive (MALACH).
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
20205 - Automation and control systems
Návaznosti výsledku
Projekt
Výsledek vznikl pri realizaci vícero projektů. Více informací v záložce Projekty.
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2023
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Pattern Recognition, 7th Asian Conference, ACPR 2023 Kitakyushu, Japan, November 5–8, 2023 Proceedings, Part III
ISBN
978-3-031-47664-8
ISSN
0302-9743
e-ISSN
1611-3349
Počet stran výsledku
12
Strana od-do
346-357
Název nakladatele
Springer
Místo vydání
Heidelberg
Místo konání akce
Kitakyushu, Japan
Datum konání akce
5. 11. 2023
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—