Prompt-Based Approach for Czech Sentiment Analysis
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F49777513%3A23520%2F23%3A43970187" target="_blank" >RIV/49777513:23520/23:43970187 - isvavai.cz</a>
Výsledek na webu
<a href="https://doi.org/10.26615/978-954-452-092-2_118" target="_blank" >https://doi.org/10.26615/978-954-452-092-2_118</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.26615/978-954-452-092-2_118" target="_blank" >10.26615/978-954-452-092-2_118</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Prompt-Based Approach for Czech Sentiment Analysis
Popis výsledku v původním jazyce
This paper introduces the first prompt-based methods for aspect-based sentiment analysis and sentiment classification in Czech. We employ the sequence-to-sequence models to solve the aspect-based tasks simultaneously and demonstrate the superiority of our prompt-based approach over traditional fine-tuning. In addition, we conduct zero-shot and few-shot learning experiments for sentiment classification and show that prompting yields significantly better results with limited training examples compared to traditional fine-tuning. We also demonstrate that pre-training on data from the target domain can lead to significant improvements in a zero-shot scenario.
Název v anglickém jazyce
Prompt-Based Approach for Czech Sentiment Analysis
Popis výsledku anglicky
This paper introduces the first prompt-based methods for aspect-based sentiment analysis and sentiment classification in Czech. We employ the sequence-to-sequence models to solve the aspect-based tasks simultaneously and demonstrate the superiority of our prompt-based approach over traditional fine-tuning. In addition, we conduct zero-shot and few-shot learning experiments for sentiment classification and show that prompting yields significantly better results with limited training examples compared to traditional fine-tuning. We also demonstrate that pre-training on data from the target domain can lead to significant improvements in a zero-shot scenario.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
—
Návaznosti
S - Specificky vyzkum na vysokych skolach
Ostatní
Rok uplatnění
2023
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Large Language Models for Natural Language Processing
ISBN
978-954-452-092-2
ISSN
1313-8502
e-ISSN
2603-2813
Počet stran výsledku
11
Strana od-do
1110-1120
Název nakladatele
INCOMA Ltd.
Místo vydání
Shoumen
Místo konání akce
Varna
Datum konání akce
4. 9. 2023
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—