Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

What does Chinese BERT learn about syntactic knowledge?

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216208%3A11320%2F23%3A35ITC5RD" target="_blank" >RIV/00216208:11320/23:35ITC5RD - isvavai.cz</a>

  • Výsledek na webu

    <a href="https://peerj.com/articles/cs-1478.pdf" target="_blank" >https://peerj.com/articles/cs-1478.pdf</a>

  • DOI - Digital Object Identifier

    <a href="http://dx.doi.org/10.7717/peerj-cs.1478" target="_blank" >10.7717/peerj-cs.1478</a>

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    What does Chinese BERT learn about syntactic knowledge?

  • Popis výsledku v původním jazyce

    "Pre-trained language models such as Bidirectional Encoder Representations fromnTransformers (BERT) have been applied to a wide range of natural language processingn(NLP) tasks and obtained significantly positive results. A growing body of research hasninvestigated the reason why BERT is so efficient and what language knowledge BERTnis able to learn. However, most of these works focused almost exclusively on English.nFew studies have explored the language information, particularly syntactic information,nthat BERT has learned in Chinese, which is written as sequences of characters. In thisnstudy, we adopted some probing methods for identifying syntactic knowledge stored innthe attention heads and hidden states of Chinese BERT."

  • Název v anglickém jazyce

    What does Chinese BERT learn about syntactic knowledge?

  • Popis výsledku anglicky

    "Pre-trained language models such as Bidirectional Encoder Representations fromnTransformers (BERT) have been applied to a wide range of natural language processingn(NLP) tasks and obtained significantly positive results. A growing body of research hasninvestigated the reason why BERT is so efficient and what language knowledge BERTnis able to learn. However, most of these works focused almost exclusively on English.nFew studies have explored the language information, particularly syntactic information,nthat BERT has learned in Chinese, which is written as sequences of characters. In thisnstudy, we adopted some probing methods for identifying syntactic knowledge stored innthe attention heads and hidden states of Chinese BERT."

Klasifikace

  • Druh

    J<sub>ost</sub> - Ostatní články v recenzovaných periodicích

  • CEP obor

  • OECD FORD obor

    10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)

Návaznosti výsledku

  • Projekt

  • Návaznosti

Ostatní

  • Rok uplatnění

    2023

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název periodika

    "PeerJ Computer Science"

  • ISSN

    2376-5992

  • e-ISSN

  • Svazek periodika

    9

  • Číslo periodika v rámci svazku

    2023

  • Stát vydavatele periodika

    US - Spojené státy americké

  • Počet stran výsledku

    22

  • Strana od-do

    1-22

  • Kód UT WoS článku

  • EID výsledku v databázi Scopus