@inproceedings{ferret-2023-extraction,
title = "Extraction de relations s{\'e}mantiques et mod{\`e}les de langue : pour une relation {\`a} double sens",
author = "Ferret, Olivier",
editor = "Servan, Christophe and
Vilnat, Anne",
booktitle = "Actes de CORIA-TALN 2023. Actes de la 30e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux -- articles longs",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-long.10",
pages = "123--136",
abstract = "Les mod{\`e}les de langue contextuels se sont rapidement impos{\'e}s comme des outils essentiels du Traitement Automatique des Langues. N{\'e}anmoins, certains travaux ont montr{\'e} que leurs capacit{\'e}s en termes de s{\'e}mantique lexicale ne les distinguent pas vraiment sur ce plan de mod{\`e}les plus anciens, comme les mod{\`e}les statiques ou les mod{\`e}les {\`a} base de comptes. Une des fa{\c{c}}ons d{'}am{\'e}liorer ces capacit{\'e}s est d{'}injecter dans les mod{\`e}les contextuels des connaissances s{\'e}mantiques. Dans cet article, nous proposons une m{\'e}thode pour r{\'e}aliser cette injection en nous appuyant sur des connaissances extraites automatiquement. Par ailleurs, nous proposons d{'}extraire de telles connaissances par deux voies diff{\'e}rentes, l{'}une s{'}appuyant sur un mod{\`e}le de langue statique, l{'}autre sur un mod{\`e}le contextuel. Des {\'e}valuations r{\'e}alis{\'e}es pour l{'}anglais et focalis{\'e}es sur la similarit{\'e} s{\'e}mantique ont montr{\'e} l{'}int{\'e}r{\^e}t de cette d{\'e}marche, permettant d{'}enrichir s{\'e}mantiquement un mod{\`e}le de type BERT sans utilisation de ressources s{\'e}mantiques externes.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="ferret-2023-extraction">
<titleInfo>
<title>Extraction de relations sémantiques et modèles de langue : pour une relation à double sens</title>
</titleInfo>
<name type="personal">
<namePart type="given">Olivier</namePart>
<namePart type="family">Ferret</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs</title>
</titleInfo>
<name type="personal">
<namePart type="given">Christophe</namePart>
<namePart type="family">Servan</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anne</namePart>
<namePart type="family">Vilnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Les modèles de langue contextuels se sont rapidement imposés comme des outils essentiels du Traitement Automatique des Langues. Néanmoins, certains travaux ont montré que leurs capacités en termes de sémantique lexicale ne les distinguent pas vraiment sur ce plan de modèles plus anciens, comme les modèles statiques ou les modèles à base de comptes. Une des façons d’améliorer ces capacités est d’injecter dans les modèles contextuels des connaissances sémantiques. Dans cet article, nous proposons une méthode pour réaliser cette injection en nous appuyant sur des connaissances extraites automatiquement. Par ailleurs, nous proposons d’extraire de telles connaissances par deux voies différentes, l’une s’appuyant sur un modèle de langue statique, l’autre sur un modèle contextuel. Des évaluations réalisées pour l’anglais et focalisées sur la similarité sémantique ont montré l’intérêt de cette démarche, permettant d’enrichir sémantiquement un modèle de type BERT sans utilisation de ressources sémantiques externes.</abstract>
<identifier type="citekey">ferret-2023-extraction</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-long.10</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>123</start>
<end>136</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Extraction de relations sémantiques et modèles de langue : pour une relation à double sens
%A Ferret, Olivier
%Y Servan, Christophe
%Y Vilnat, Anne
%S Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F ferret-2023-extraction
%X Les modèles de langue contextuels se sont rapidement imposés comme des outils essentiels du Traitement Automatique des Langues. Néanmoins, certains travaux ont montré que leurs capacités en termes de sémantique lexicale ne les distinguent pas vraiment sur ce plan de modèles plus anciens, comme les modèles statiques ou les modèles à base de comptes. Une des façons d’améliorer ces capacités est d’injecter dans les modèles contextuels des connaissances sémantiques. Dans cet article, nous proposons une méthode pour réaliser cette injection en nous appuyant sur des connaissances extraites automatiquement. Par ailleurs, nous proposons d’extraire de telles connaissances par deux voies différentes, l’une s’appuyant sur un modèle de langue statique, l’autre sur un modèle contextuel. Des évaluations réalisées pour l’anglais et focalisées sur la similarité sémantique ont montré l’intérêt de cette démarche, permettant d’enrichir sémantiquement un modèle de type BERT sans utilisation de ressources sémantiques externes.
%U https://aclanthology.org/2023.jeptalnrecital-long.10
%P 123-136
Markdown (Informal)
[Extraction de relations sémantiques et modèles de langue : pour une relation à double sens](https://aclanthology.org/2023.jeptalnrecital-long.10) (Ferret, JEP/TALN/RECITAL 2023)
ACL