LLaMA-Based Models for Aspect-Based Sentiment Analysis
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F49777513%3A23520%2F24%3A43972808" target="_blank" >RIV/49777513:23520/24:43972808 - isvavai.cz</a>
Výsledek na webu
<a href="https://aclanthology.org/2024.wassa-1.6/" target="_blank" >https://aclanthology.org/2024.wassa-1.6/</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.18653/v1/2024.wassa-1.6" target="_blank" >10.18653/v1/2024.wassa-1.6</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
LLaMA-Based Models for Aspect-Based Sentiment Analysis
Popis výsledku v původním jazyce
While large language models (LLMs) show promise for various tasks, their performance in compound aspect-based sentiment analysis (ABSA) tasks lags behind fine-tuned models. However, the potential of LLMs fine-tuned for ABSA remains unexplored. This paper examines the capabilities of open-source LLMs fine-tuned for ABSA, focusing on LLaMA-based models. We evaluate the performance across four tasks and eight English datasets, finding that the fine-tuned Orca 2 model surpasses state-of-the-art results in all tasks. However, all models struggle in zero-shot and few-shot scenarios compared to fully fine-tuned ones. Additionally, we conduct error analysis to identify challenges faced by fine-tuned models.
Název v anglickém jazyce
LLaMA-Based Models for Aspect-Based Sentiment Analysis
Popis výsledku anglicky
While large language models (LLMs) show promise for various tasks, their performance in compound aspect-based sentiment analysis (ABSA) tasks lags behind fine-tuned models. However, the potential of LLMs fine-tuned for ABSA remains unexplored. This paper examines the capabilities of open-source LLMs fine-tuned for ABSA, focusing on LLaMA-based models. We evaluate the performance across four tasks and eight English datasets, finding that the fine-tuned Orca 2 model surpasses state-of-the-art results in all tasks. However, all models struggle in zero-shot and few-shot scenarios compared to fully fine-tuned ones. Additionally, we conduct error analysis to identify challenges faced by fine-tuned models.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
—
Návaznosti
S - Specificky vyzkum na vysokych skolach
Ostatní
Rok uplatnění
2024
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Proceedings of the 14th Workshop on Computational Approaches to Subjectivity, Sentiment, & Social Media Analysis
ISBN
979-8-89176-156-8
ISSN
—
e-ISSN
—
Počet stran výsledku
8
Strana od-do
63-70
Název nakladatele
Association for Computational Linguistics
Místo vydání
Kerrville
Místo konání akce
Bangkok, Thailand
Datum konání akce
15. 8. 2024
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—