Towards L2-friendly pipelines for learner corpora: A case of written production by L2-Korean learners
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216208%3A11320%2F23%3AV9YIN5BJ" target="_blank" >RIV/00216208:11320/23:V9YIN5BJ - isvavai.cz</a>
Výsledek na webu
<a href="https://aclanthology.org/2023.bea-1.6/" target="_blank" >https://aclanthology.org/2023.bea-1.6/</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.18653/v1/2023.bea-1.6" target="_blank" >10.18653/v1/2023.bea-1.6</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Towards L2-friendly pipelines for learner corpora: A case of written production by L2-Korean learners
Popis výsledku v původním jazyce
"We introduce the Korean-Learner-Morpheme (KLM) corpus, a manually annotated dataset consisting of 129,784 morphemes from second language (L2) learners of Korean, featuring morpheme tokenization and part-of-speech (POS) tagging. We evaluate the performance of four Korean morphological analyzers in tokenization and POS tagging on the L2- Korean corpus. Results highlight the analyzers’ reduced performance on L2 data, indicating the limitation of advanced deep-learning models when dealing with L2-Korean corpora. We further show that fine-tuning one of the models with the KLM corpus improves its accuracy of tokenization and POS tagging on L2-Korean dataset."
Název v anglickém jazyce
Towards L2-friendly pipelines for learner corpora: A case of written production by L2-Korean learners
Popis výsledku anglicky
"We introduce the Korean-Learner-Morpheme (KLM) corpus, a manually annotated dataset consisting of 129,784 morphemes from second language (L2) learners of Korean, featuring morpheme tokenization and part-of-speech (POS) tagging. We evaluate the performance of four Korean morphological analyzers in tokenization and POS tagging on the L2- Korean corpus. Results highlight the analyzers’ reduced performance on L2 data, indicating the limitation of advanced deep-learning models when dealing with L2-Korean corpora. We further show that fine-tuning one of the models with the KLM corpus improves its accuracy of tokenization and POS tagging on L2-Korean dataset."
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
—
Návaznosti
—
Ostatní
Rok uplatnění
2023
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
"Proceedings of the 18th Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2023)"
ISBN
978-1-959429-80-7
ISSN
—
e-ISSN
—
Počet stran výsledku
11
Strana od-do
72-82
Název nakladatele
Association for Computational Linguistics
Místo vydání
Toronto, Canada
Místo konání akce
Toronto, Canada
Datum konání akce
1. 1. 2023
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—