@inproceedings{tuo-etal-2022-mieux,
title = "Mieux utiliser {BERT} pour la d{\'e}tection d{'}{\'e}v{\`e}nements {\`a} partir de peu d{'}exemples (Better exploitation of {BERT} for few-shot event detection)",
author = "Tuo, Aboubacar and
Besan{\c{c}}on, Romaric and
Ferret, Olivier and
Tourille, Julien",
editor = "Est{\`e}ve, Yannick and
Jim{\'e}nez, Tania and
Parcollet, Titouan and
Zanon Boito, Marcely",
booktitle = "Actes de la 29e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conf{\'e}rence principale",
month = "6",
year = "2022",
address = "Avignon, France",
publisher = "ATALA",
url = "https://aclanthology.org/2022.jeptalnrecital-taln.39",
pages = "392--402",
abstract = "Les m{\'e}thodes actuelles pour la d{\'e}tection d{'}{\'e}v{\`e}nements, qui s{'}appuient essentiellement sur l{'}apprentissage supervis{\'e} profond, s{'}av{\`e}rent tr{\`e}s co{\^u}teuses en donn{\'e}es annot{\'e}es. Parmi les approches pour l{'}apprentissage {\`a} partir de peu de donn{\'e}es, nous exploitons dans cet article le m{\'e}ta-apprentissage et l{'}utilisation de l{'}encodeur BERT pour cette t{\^a}che. Plus particuli{\`e}rement, nous explorons plusieurs strat{\'e}gies pour mieux exploiter les informations pr{\'e}sentes dans les diff{\'e}rentes couches d{'}un mod{\`e}le BERT pr{\'e}-entra{\^\i}n{\'e} et montrons que ces strat{\'e}gies simples permettent de d{\'e}passer les r{\'e}sultats de l{'}{\'e}tat de l{'}art pour cette t{\^a}che en anglais.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="tuo-etal-2022-mieux">
<titleInfo>
<title>Mieux utiliser BERT pour la détection d’évènements à partir de peu d’exemples (Better exploitation of BERT for few-shot event detection)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Aboubacar</namePart>
<namePart type="family">Tuo</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Romaric</namePart>
<namePart type="family">Besançon</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Olivier</namePart>
<namePart type="family">Ferret</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julien</namePart>
<namePart type="family">Tourille</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2022-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 29e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale</title>
</titleInfo>
<name type="personal">
<namePart type="given">Yannick</namePart>
<namePart type="family">Estève</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Tania</namePart>
<namePart type="family">Jiménez</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Titouan</namePart>
<namePart type="family">Parcollet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Marcely</namePart>
<namePart type="family">Zanon Boito</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Avignon, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Les méthodes actuelles pour la détection d’évènements, qui s’appuient essentiellement sur l’apprentissage supervisé profond, s’avèrent très coûteuses en données annotées. Parmi les approches pour l’apprentissage à partir de peu de données, nous exploitons dans cet article le méta-apprentissage et l’utilisation de l’encodeur BERT pour cette tâche. Plus particulièrement, nous explorons plusieurs stratégies pour mieux exploiter les informations présentes dans les différentes couches d’un modèle BERT pré-entraîné et montrons que ces stratégies simples permettent de dépasser les résultats de l’état de l’art pour cette tâche en anglais.</abstract>
<identifier type="citekey">tuo-etal-2022-mieux</identifier>
<location>
<url>https://aclanthology.org/2022.jeptalnrecital-taln.39</url>
</location>
<part>
<date>2022-6</date>
<extent unit="page">
<start>392</start>
<end>402</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Mieux utiliser BERT pour la détection d’évènements à partir de peu d’exemples (Better exploitation of BERT for few-shot event detection)
%A Tuo, Aboubacar
%A Besançon, Romaric
%A Ferret, Olivier
%A Tourille, Julien
%Y Estève, Yannick
%Y Jiménez, Tania
%Y Parcollet, Titouan
%Y Zanon Boito, Marcely
%S Actes de la 29e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale
%D 2022
%8 June
%I ATALA
%C Avignon, France
%G French
%F tuo-etal-2022-mieux
%X Les méthodes actuelles pour la détection d’évènements, qui s’appuient essentiellement sur l’apprentissage supervisé profond, s’avèrent très coûteuses en données annotées. Parmi les approches pour l’apprentissage à partir de peu de données, nous exploitons dans cet article le méta-apprentissage et l’utilisation de l’encodeur BERT pour cette tâche. Plus particulièrement, nous explorons plusieurs stratégies pour mieux exploiter les informations présentes dans les différentes couches d’un modèle BERT pré-entraîné et montrons que ces stratégies simples permettent de dépasser les résultats de l’état de l’art pour cette tâche en anglais.
%U https://aclanthology.org/2022.jeptalnrecital-taln.39
%P 392-402
Markdown (Informal)
[Mieux utiliser BERT pour la détection d’évènements à partir de peu d’exemples (Better exploitation of BERT for few-shot event detection)](https://aclanthology.org/2022.jeptalnrecital-taln.39) (Tuo et al., JEP/TALN/RECITAL 2022)
ACL