@inproceedings{liu-etal-2016-extraction,
title = "Extraction automatique de contour de l{\`e}vre {\`a} partir du mod{\`e}le {CLNF} (Automatic lip contour extraction using {CLNF} model)",
author = "Liu, Li and
Feng, Gang and
Beautemps, Denis",
editor = "Danlos, Laurence and
Hamon, Thierry",
booktitle = "Actes de la conf{\'e}rence conjointe JEP-TALN-RECITAL 2016. volume 1 : JEP",
month = "7",
year = "2016",
address = "Paris, France",
publisher = "AFCP - ATALA",
url = "https://aclanthology.org/2016.jeptalnrecital-jep.39/",
pages = "346--354",
language = "fra",
abstract = "Dans cet article nous proposons une nouvelle solution pour extraire le contour interne des l{\`e}vres d`un locuteur sans utiliser d`artifices. La m{\'e}thode s`appuie sur un algorithme r{\'e}cent d`extraction du contour de visage d{\'e}velopp{\'e} en vision par ordinateur, CLNF pour Constrained Local Neural Field. Cet algorithme fournit en particulier 8 points caract{\'e}ristiques d{\'e}limitant le contour interne des l{\`e}vres. Appliqu{\'e} directement {\`a} nos donn{\'e}es audio-visuelles du locuteur, le CLNF donne de tr{\`e}s bons r{\'e}sultats dans environ 70{\%} des cas. Des erreurs subsistent cependant pour le reste des cas. Nous proposons des solutions pour estimer un contour raisonnable des l{\`e}vres {\`a} partir des points fournis par CLNF utilisant l`interpolation par spline permettant de corriger ses erreurs et d`extraire correctement les param{\`e}tres labiaux classiques. Les {\'e}valuations sur une base de donn{\'e}es de 179 images confirment les performances de notre algorithme."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="liu-etal-2016-extraction">
<titleInfo>
<title>Extraction automatique de contour de lèvre à partir du modèle CLNF (Automatic lip contour extraction using CLNF model)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Li</namePart>
<namePart type="family">Liu</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Gang</namePart>
<namePart type="family">Feng</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Denis</namePart>
<namePart type="family">Beautemps</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2016-07</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la conférence conjointe JEP-TALN-RECITAL 2016. volume 1 : JEP</title>
</titleInfo>
<name type="personal">
<namePart type="given">Laurence</namePart>
<namePart type="family">Danlos</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Thierry</namePart>
<namePart type="family">Hamon</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>AFCP - ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Dans cet article nous proposons une nouvelle solution pour extraire le contour interne des lèvres d‘un locuteur sans utiliser d‘artifices. La méthode s‘appuie sur un algorithme récent d‘extraction du contour de visage développé en vision par ordinateur, CLNF pour Constrained Local Neural Field. Cet algorithme fournit en particulier 8 points caractéristiques délimitant le contour interne des lèvres. Appliqué directement à nos données audio-visuelles du locuteur, le CLNF donne de très bons résultats dans environ 70% des cas. Des erreurs subsistent cependant pour le reste des cas. Nous proposons des solutions pour estimer un contour raisonnable des lèvres à partir des points fournis par CLNF utilisant l‘interpolation par spline permettant de corriger ses erreurs et d‘extraire correctement les paramètres labiaux classiques. Les évaluations sur une base de données de 179 images confirment les performances de notre algorithme.</abstract>
<identifier type="citekey">liu-etal-2016-extraction</identifier>
<location>
<url>https://aclanthology.org/2016.jeptalnrecital-jep.39/</url>
</location>
<part>
<date>2016-7</date>
<extent unit="page">
<start>346</start>
<end>354</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Extraction automatique de contour de lèvre à partir du modèle CLNF (Automatic lip contour extraction using CLNF model)
%A Liu, Li
%A Feng, Gang
%A Beautemps, Denis
%Y Danlos, Laurence
%Y Hamon, Thierry
%S Actes de la conférence conjointe JEP-TALN-RECITAL 2016. volume 1 : JEP
%D 2016
%8 July
%I AFCP - ATALA
%C Paris, France
%G fra
%F liu-etal-2016-extraction
%X Dans cet article nous proposons une nouvelle solution pour extraire le contour interne des lèvres d‘un locuteur sans utiliser d‘artifices. La méthode s‘appuie sur un algorithme récent d‘extraction du contour de visage développé en vision par ordinateur, CLNF pour Constrained Local Neural Field. Cet algorithme fournit en particulier 8 points caractéristiques délimitant le contour interne des lèvres. Appliqué directement à nos données audio-visuelles du locuteur, le CLNF donne de très bons résultats dans environ 70% des cas. Des erreurs subsistent cependant pour le reste des cas. Nous proposons des solutions pour estimer un contour raisonnable des lèvres à partir des points fournis par CLNF utilisant l‘interpolation par spline permettant de corriger ses erreurs et d‘extraire correctement les paramètres labiaux classiques. Les évaluations sur une base de données de 179 images confirment les performances de notre algorithme.
%U https://aclanthology.org/2016.jeptalnrecital-jep.39/
%P 346-354
Markdown (Informal)
[Extraction automatique de contour de lèvre à partir du modèle CLNF (Automatic lip contour extraction using CLNF model)](https://aclanthology.org/2016.jeptalnrecital-jep.39/) (Liu et al., JEP/TALN/RECITAL 2016)
ACL