@inproceedings{avila-etal-2024-reduction,
title = "R{\'e}duction des r{\'e}p{\'e}titions dans la Traduction Automatique Neuronale",
author = "Avila, Marko and
Rebollo, Anna and
Crego, Josep",
editor = "Balaguer, Mathieu and
Bendahman, Nihed and
Ho-dac, Lydia-Mai and
Mauclair, Julie and
G Moreno, Jose and
Pinquier, Julien",
booktitle = "Actes de la 31{\`e}me Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position",
month = "7",
year = "2024",
address = "Toulouse, France",
publisher = "ATALA and AFPC",
url = "https://aclanthology.org/2024.jeptalnrecital-taln.13/",
pages = "198--210",
language = "fra",
abstract = "Actuellement, de nombreux syst{\`e}mes TAL utilisent des d{\'e}codeurs neuronaux pour la g{\'e}n{\'e}ration de textes, qui font preuve d`une capacit{\'e} impressionnante {\`a} g{\'e}n{\'e}rer des textes approchant les niveaux de fluidit{\'e} humaine. Toutefois, dans le cas des r{\'e}seaux de traduction automatique, ils sont souvent confront{\'e}s {\`a} la production de contenu r{\'e}p{\'e}titif, {\'e}galement connu sous le nom de diction r{\'e}p{\'e}titive ou de r{\'e}p{\'e}tition de mots, un aspect pour lequel ils n`ont pas {\'e}t{\'e} explicitement entra{\^i}n{\'e}s. Bien que cela ne soit pas intrins{\`e}quement n{\'e}gatif, cette r{\'e}p{\'e}tition peut rendre l'{\'e}criture monotone ou maladroite si elle n`est pas utilis{\'e}e intentionnellement pour l`emphase ou des fins stylistiques. La r{\'e}p{\'e}tition de mots a {\'e}t{\'e} trait{\'e}e par des m{\'e}thodes post-hoc pendant l`inf{\'e}rence, contraignant le r{\'e}seau {\`a} examiner des hypoth{\`e}ses auxquelles le syst{\`e}me avait initialement attribu{\'e} une plus faible probabilit{\'e}. Dans cet article, nous impl{\'e}mentons une m{\'e}thode qui consiste {\`a} p{\'e}naliser les r{\'e}p{\'e}titions lors de l`apprentissage et qui s`inspire des principes du label smoothing. Conform{\'e}ment {\`a} cette m{\'e}thode, nous modifions la distribution de la v{\'e}rit{\'e} terrain afin d`orienter le mod{\`e}le de mani{\`e}re {\`a} d{\'e}courager ces r{\'e}p{\'e}titions. Les r{\'e}sultats de nos exp{\'e}riences montrent que les m{\'e}thodes propos{\'e}es permettent de contr{\^o}ler le probl{\`e}me de la r{\'e}p{\'e}tition dans les moteurs neuronaux de traduction automatique sans compromis en termes d`efficacit{\'e} ou de qualit{\'e} des traductions."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="avila-etal-2024-reduction">
<titleInfo>
<title>Réduction des répétitions dans la Traduction Automatique Neuronale</title>
</titleInfo>
<name type="personal">
<namePart type="given">Marko</namePart>
<namePart type="family">Avila</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anna</namePart>
<namePart type="family">Rebollo</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Josep</namePart>
<namePart type="family">Crego</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2024-07</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 31ème Conférence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position</title>
</titleInfo>
<name type="personal">
<namePart type="given">Mathieu</namePart>
<namePart type="family">Balaguer</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Nihed</namePart>
<namePart type="family">Bendahman</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Lydia-Mai</namePart>
<namePart type="family">Ho-dac</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julie</namePart>
<namePart type="family">Mauclair</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jose</namePart>
<namePart type="family">G Moreno</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julien</namePart>
<namePart type="family">Pinquier</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA and AFPC</publisher>
<place>
<placeTerm type="text">Toulouse, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Actuellement, de nombreux systèmes TAL utilisent des décodeurs neuronaux pour la génération de textes, qui font preuve d‘une capacité impressionnante à générer des textes approchant les niveaux de fluidité humaine. Toutefois, dans le cas des réseaux de traduction automatique, ils sont souvent confrontés à la production de contenu répétitif, également connu sous le nom de diction répétitive ou de répétition de mots, un aspect pour lequel ils n‘ont pas été explicitement entraînés. Bien que cela ne soit pas intrinsèquement négatif, cette répétition peut rendre l’écriture monotone ou maladroite si elle n‘est pas utilisée intentionnellement pour l‘emphase ou des fins stylistiques. La répétition de mots a été traitée par des méthodes post-hoc pendant l‘inférence, contraignant le réseau à examiner des hypothèses auxquelles le système avait initialement attribué une plus faible probabilité. Dans cet article, nous implémentons une méthode qui consiste à pénaliser les répétitions lors de l‘apprentissage et qui s‘inspire des principes du label smoothing. Conformément à cette méthode, nous modifions la distribution de la vérité terrain afin d‘orienter le modèle de manière à décourager ces répétitions. Les résultats de nos expériences montrent que les méthodes proposées permettent de contrôler le problème de la répétition dans les moteurs neuronaux de traduction automatique sans compromis en termes d‘efficacité ou de qualité des traductions.</abstract>
<identifier type="citekey">avila-etal-2024-reduction</identifier>
<location>
<url>https://aclanthology.org/2024.jeptalnrecital-taln.13/</url>
</location>
<part>
<date>2024-7</date>
<extent unit="page">
<start>198</start>
<end>210</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Réduction des répétitions dans la Traduction Automatique Neuronale
%A Avila, Marko
%A Rebollo, Anna
%A Crego, Josep
%Y Balaguer, Mathieu
%Y Bendahman, Nihed
%Y Ho-dac, Lydia-Mai
%Y Mauclair, Julie
%Y G Moreno, Jose
%Y Pinquier, Julien
%S Actes de la 31ème Conférence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position
%D 2024
%8 July
%I ATALA and AFPC
%C Toulouse, France
%G fra
%F avila-etal-2024-reduction
%X Actuellement, de nombreux systèmes TAL utilisent des décodeurs neuronaux pour la génération de textes, qui font preuve d‘une capacité impressionnante à générer des textes approchant les niveaux de fluidité humaine. Toutefois, dans le cas des réseaux de traduction automatique, ils sont souvent confrontés à la production de contenu répétitif, également connu sous le nom de diction répétitive ou de répétition de mots, un aspect pour lequel ils n‘ont pas été explicitement entraînés. Bien que cela ne soit pas intrinsèquement négatif, cette répétition peut rendre l’écriture monotone ou maladroite si elle n‘est pas utilisée intentionnellement pour l‘emphase ou des fins stylistiques. La répétition de mots a été traitée par des méthodes post-hoc pendant l‘inférence, contraignant le réseau à examiner des hypothèses auxquelles le système avait initialement attribué une plus faible probabilité. Dans cet article, nous implémentons une méthode qui consiste à pénaliser les répétitions lors de l‘apprentissage et qui s‘inspire des principes du label smoothing. Conformément à cette méthode, nous modifions la distribution de la vérité terrain afin d‘orienter le modèle de manière à décourager ces répétitions. Les résultats de nos expériences montrent que les méthodes proposées permettent de contrôler le problème de la répétition dans les moteurs neuronaux de traduction automatique sans compromis en termes d‘efficacité ou de qualité des traductions.
%U https://aclanthology.org/2024.jeptalnrecital-taln.13/
%P 198-210
Markdown (Informal)
[Réduction des répétitions dans la Traduction Automatique Neuronale](https://aclanthology.org/2024.jeptalnrecital-taln.13/) (Avila et al., JEP/TALN/RECITAL 2024)
ACL