@inproceedings{lepagnol-etal-2024-les,
title = "Les petits mod{\`e}les sont bons : une {\'e}tude empirique de classification dans un contexte zero-shot",
author = "Lepagnol, Pierre and
Gerald, Thomas and
Ghannay, Sahar and
Servan, Christophe and
Rosset, Sophie",
editor = "Balaguer, Mathieu and
Bendahman, Nihed and
Ho-dac, Lydia-Mai and
Mauclair, Julie and
G Moreno, Jose and
Pinquier, Julien",
booktitle = "Actes de la 31{\`e}me Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position",
month = "7",
year = "2024",
address = "Toulouse, France",
publisher = "ATALA and AFPC",
url = "https://aclanthology.org/2024.jeptalnrecital-taln.8/",
pages = "113--129",
language = "fra",
abstract = "Ce travail s`inscrit dans le d{\'e}bat sur l`efficacit{\'e} des grands mod{\`e}les de langue par rapport aux petits pour la classification de texte par amor{\c{c}}age (prompting). Nous {\'e}valuons ici le potentiel des petits mod{\`e}les de langue dans la classification de texte sans exemples, remettant en question la pr{\'e}dominance des grands mod{\`e}les. {\`A} travers un ensemble diversifi{\'e} de jeux de donn{\'e}es, notre {\'e}tude compare les petits et les grands mod{\`e}les utilisant diff{\'e}rentes architectures et donn{\'e}es de pr{\'e}-entra{\^i}nement. Nos conclusions r{\'e}v{\`e}lent que les petits mod{\`e}les peuvent g{\'e}n{\'e}rer efficacement des {\'e}tiquettes et, dans certains contextes, rivaliser ou surpasser les performances de leurs homologues plus grands. Ce travail souligne l`id{\'e}e que le mod{\`e}le le plus grand n`est pas toujours le meilleur, sugg{\'e}rant que les petits mod{\`e}les {\'e}conomes en ressources peuvent offrir des solutions viables pour des d{\'e}fis sp{\'e}cifiques de classification de donn{\'e}es"
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="lepagnol-etal-2024-les">
<titleInfo>
<title>Les petits modèles sont bons : une étude empirique de classification dans un contexte zero-shot</title>
</titleInfo>
<name type="personal">
<namePart type="given">Pierre</namePart>
<namePart type="family">Lepagnol</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Thomas</namePart>
<namePart type="family">Gerald</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Sahar</namePart>
<namePart type="family">Ghannay</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Christophe</namePart>
<namePart type="family">Servan</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Sophie</namePart>
<namePart type="family">Rosset</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2024-07</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 31ème Conférence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position</title>
</titleInfo>
<name type="personal">
<namePart type="given">Mathieu</namePart>
<namePart type="family">Balaguer</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Nihed</namePart>
<namePart type="family">Bendahman</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Lydia-Mai</namePart>
<namePart type="family">Ho-dac</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julie</namePart>
<namePart type="family">Mauclair</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jose</namePart>
<namePart type="family">G Moreno</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julien</namePart>
<namePart type="family">Pinquier</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA and AFPC</publisher>
<place>
<placeTerm type="text">Toulouse, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Ce travail s‘inscrit dans le débat sur l‘efficacité des grands modèles de langue par rapport aux petits pour la classification de texte par amorçage (prompting). Nous évaluons ici le potentiel des petits modèles de langue dans la classification de texte sans exemples, remettant en question la prédominance des grands modèles. À travers un ensemble diversifié de jeux de données, notre étude compare les petits et les grands modèles utilisant différentes architectures et données de pré-entraînement. Nos conclusions révèlent que les petits modèles peuvent générer efficacement des étiquettes et, dans certains contextes, rivaliser ou surpasser les performances de leurs homologues plus grands. Ce travail souligne l‘idée que le modèle le plus grand n‘est pas toujours le meilleur, suggérant que les petits modèles économes en ressources peuvent offrir des solutions viables pour des défis spécifiques de classification de données</abstract>
<identifier type="citekey">lepagnol-etal-2024-les</identifier>
<location>
<url>https://aclanthology.org/2024.jeptalnrecital-taln.8/</url>
</location>
<part>
<date>2024-7</date>
<extent unit="page">
<start>113</start>
<end>129</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Les petits modèles sont bons : une étude empirique de classification dans un contexte zero-shot
%A Lepagnol, Pierre
%A Gerald, Thomas
%A Ghannay, Sahar
%A Servan, Christophe
%A Rosset, Sophie
%Y Balaguer, Mathieu
%Y Bendahman, Nihed
%Y Ho-dac, Lydia-Mai
%Y Mauclair, Julie
%Y G Moreno, Jose
%Y Pinquier, Julien
%S Actes de la 31ème Conférence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position
%D 2024
%8 July
%I ATALA and AFPC
%C Toulouse, France
%G fra
%F lepagnol-etal-2024-les
%X Ce travail s‘inscrit dans le débat sur l‘efficacité des grands modèles de langue par rapport aux petits pour la classification de texte par amorçage (prompting). Nous évaluons ici le potentiel des petits modèles de langue dans la classification de texte sans exemples, remettant en question la prédominance des grands modèles. À travers un ensemble diversifié de jeux de données, notre étude compare les petits et les grands modèles utilisant différentes architectures et données de pré-entraînement. Nos conclusions révèlent que les petits modèles peuvent générer efficacement des étiquettes et, dans certains contextes, rivaliser ou surpasser les performances de leurs homologues plus grands. Ce travail souligne l‘idée que le modèle le plus grand n‘est pas toujours le meilleur, suggérant que les petits modèles économes en ressources peuvent offrir des solutions viables pour des défis spécifiques de classification de données
%U https://aclanthology.org/2024.jeptalnrecital-taln.8/
%P 113-129
Markdown (Informal)
[Les petits modèles sont bons : une étude empirique de classification dans un contexte zero-shot](https://aclanthology.org/2024.jeptalnrecital-taln.8/) (Lepagnol et al., JEP/TALN/RECITAL 2024)
ACL