Finetuning Is a Surprisingly Effective Domain Adaptation Baseline in Handwriting Recognition
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216305%3A26230%2F23%3APU149378" target="_blank" >RIV/00216305:26230/23:PU149378 - isvavai.cz</a>
Výsledek na webu
<a href="https://pero.fit.vutbr.cz/publications" target="_blank" >https://pero.fit.vutbr.cz/publications</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1007/978-3-031-41685-9_17" target="_blank" >10.1007/978-3-031-41685-9_17</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Finetuning Is a Surprisingly Effective Domain Adaptation Baseline in Handwriting Recognition
Popis výsledku v původním jazyce
In many machine learning tasks, a large general dataset and a small specialized dataset are available. In such situations, various domain adaptation methods can be used to adapt a general model to the target dataset. We show that in the case of neural networks trained for handwriting recognition using CTC, simple finetuning with data augmentation works surprisingly well in such scenarios and that it is resistant to overfitting even for very small target domain datasets. We evaluated the behavior of finetuning with respect to augmentation, training data size, and quality of the pre-trained network, both in writer-dependent and writer-independent settings. On a large real-world dataset, finetuning provided an average relative CER improvement of 25 % with 16 text lines for new writers and 50 % for 256 text lines.
Název v anglickém jazyce
Finetuning Is a Surprisingly Effective Domain Adaptation Baseline in Handwriting Recognition
Popis výsledku anglicky
In many machine learning tasks, a large general dataset and a small specialized dataset are available. In such situations, various domain adaptation methods can be used to adapt a general model to the target dataset. We show that in the case of neural networks trained for handwriting recognition using CTC, simple finetuning with data augmentation works surprisingly well in such scenarios and that it is resistant to overfitting even for very small target domain datasets. We evaluated the behavior of finetuning with respect to augmentation, training data size, and quality of the pre-trained network, both in writer-dependent and writer-independent settings. On a large real-world dataset, finetuning provided an average relative CER improvement of 25 % with 16 text lines for new writers and 50 % for 256 text lines.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
—
Návaznosti
I - Institucionalni podpora na dlouhodoby koncepcni rozvoj vyzkumne organizace
Ostatní
Rok uplatnění
2023
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Document Analysis and Recognition - ICDAR 2023
ISBN
978-3-031-41684-2
ISSN
0302-9743
e-ISSN
—
Počet stran výsledku
18
Strana od-do
269-286
Název nakladatele
Springer Nature Switzerland AG
Místo vydání
San José
Místo konání akce
San José, California, USA
Datum konání akce
21. 8. 2023
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—