@inproceedings{alavoine-babin-2023-mise,
title = "Mise en place d`un mod{\`e}le compact {\`a} architecture Transformer pour la d{\'e}tection jointe des intentions et des concepts dans le cadre d`un syst{\`e}me interactif de questions-r{\'e}ponses",
author = "Alavoine, Nad{\`e}ge and
Babin, Arthur",
editor = "Candito, Marie and
Gerald, Thomas and
Moreno, Jos{\'e} G",
booktitle = "Actes de CORIA-TALN 2023. Actes des 16e Rencontres Jeunes Chercheurs en RI (RJCRI) et 25e Rencontre des {\'E}tudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (R{\'E}CITAL)",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-rjc.3/",
pages = "37--56",
language = "fra",
abstract = "Les t{\^a}ches de d{\'e}tection d`intention et d`identification des concepts sont toutes deux des {\'e}l{\'e}ments importants de la compr{\'e}hension de la parole. Elles sont souvent r{\'e}alis{\'e}es par deux modules diff{\'e}rents au sein d`un pipeline. L`apparition de mod{\`e}les r{\'e}alisant conjointement ces deux t{\^a}ches a permis d`exploiter les d{\'e}pendances entre elles et d`am{\'e}liorer les performances obtenues. Plus r{\'e}cemment, des mod{\`e}les de d{\'e}tection jointe reposant sur des architectures Transformer ont {\'e}t{\'e} d{\'e}crits dans la litt{\'e}rature. Par ailleurs, avec la popularit{\'e} et taille croissante des mod{\`e}les Transformer ainsi que les inqui{\'e}tudes ergonomiques et {\'e}cologiques grandissantes, des mod{\`e}les compacts ont {\'e}t{\'e} propos{\'e}s. Dans cet article, nous pr{\'e}sentons la mise en place et l'{\'e}valuation d`un mod{\`e}le compact pour la d{\'e}tection jointe de l`intention et des concepts. Notre contexte applicatif est celui d`un syst{\`e}me interactif de questions-r{\'e}ponses fran{\c{c}}ais."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="alavoine-babin-2023-mise">
<titleInfo>
<title>Mise en place d‘un modèle compact à architecture Transformer pour la détection jointe des intentions et des concepts dans le cadre d‘un système interactif de questions-réponses</title>
</titleInfo>
<name type="personal">
<namePart type="given">Nadège</namePart>
<namePart type="family">Alavoine</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Arthur</namePart>
<namePart type="family">Babin</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes des 16e Rencontres Jeunes Chercheurs en RI (RJCRI) et 25e Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Marie</namePart>
<namePart type="family">Candito</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Thomas</namePart>
<namePart type="family">Gerald</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">José</namePart>
<namePart type="given">G</namePart>
<namePart type="family">Moreno</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Les tâches de détection d‘intention et d‘identification des concepts sont toutes deux des éléments importants de la compréhension de la parole. Elles sont souvent réalisées par deux modules différents au sein d‘un pipeline. L‘apparition de modèles réalisant conjointement ces deux tâches a permis d‘exploiter les dépendances entre elles et d‘améliorer les performances obtenues. Plus récemment, des modèles de détection jointe reposant sur des architectures Transformer ont été décrits dans la littérature. Par ailleurs, avec la popularité et taille croissante des modèles Transformer ainsi que les inquiétudes ergonomiques et écologiques grandissantes, des modèles compacts ont été proposés. Dans cet article, nous présentons la mise en place et l’évaluation d‘un modèle compact pour la détection jointe de l‘intention et des concepts. Notre contexte applicatif est celui d‘un système interactif de questions-réponses français.</abstract>
<identifier type="citekey">alavoine-babin-2023-mise</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-rjc.3/</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>37</start>
<end>56</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Mise en place d‘un modèle compact à architecture Transformer pour la détection jointe des intentions et des concepts dans le cadre d‘un système interactif de questions-réponses
%A Alavoine, Nadège
%A Babin, Arthur
%Y Candito, Marie
%Y Gerald, Thomas
%Y Moreno, José G.
%S Actes de CORIA-TALN 2023. Actes des 16e Rencontres Jeunes Chercheurs en RI (RJCRI) et 25e Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL)
%D 2023
%8 June
%I ATALA
%C Paris, France
%G fra
%F alavoine-babin-2023-mise
%X Les tâches de détection d‘intention et d‘identification des concepts sont toutes deux des éléments importants de la compréhension de la parole. Elles sont souvent réalisées par deux modules différents au sein d‘un pipeline. L‘apparition de modèles réalisant conjointement ces deux tâches a permis d‘exploiter les dépendances entre elles et d‘améliorer les performances obtenues. Plus récemment, des modèles de détection jointe reposant sur des architectures Transformer ont été décrits dans la littérature. Par ailleurs, avec la popularité et taille croissante des modèles Transformer ainsi que les inquiétudes ergonomiques et écologiques grandissantes, des modèles compacts ont été proposés. Dans cet article, nous présentons la mise en place et l’évaluation d‘un modèle compact pour la détection jointe de l‘intention et des concepts. Notre contexte applicatif est celui d‘un système interactif de questions-réponses français.
%U https://aclanthology.org/2023.jeptalnrecital-rjc.3/
%P 37-56
Markdown (Informal)
[Mise en place d’un modèle compact à architecture Transformer pour la détection jointe des intentions et des concepts dans le cadre d’un système interactif de questions-réponses](https://aclanthology.org/2023.jeptalnrecital-rjc.3/) (Alavoine & Babin, JEP/TALN/RECITAL 2023)
ACL