@inproceedings{vinot-etal-2003-application,
title = "Application d`algorithmes de classification automatique pour la d{\'e}tection des contenus racistes sur l'{I}nternet",
author = "Vinot, Romain and
Grabar, Natalia and
Valette, Mathieu",
editor = "Daille, B{\'e}atrice and
Morin, Emmanuel",
booktitle = "Actes de la 10{\`e}me conf{\'e}rence sur le Traitement Automatique des Langues Naturelles. Articles longs",
month = jun,
year = "2003",
address = "Batz-sur-Mer, France",
publisher = "ATALA",
url = "https://aclanthology.org/2003.jeptalnrecital-long.26/",
pages = "275--284",
language = "fra",
abstract = "Le filtrage de contenus illicites sur Internet est une probl{\'e}matique difficile qui est actuellement r{\'e}solue par des approches {\`a} base de listes noires et de mots-cl{\'e}s. Les syst{\`e}mes de classification textuelle par apprentissage automatique n{\'e}cessitant peu d`interventions humaines, elles peuvent avantageusement remplacer ou compl{\'e}ter les m{\'e}thodes pr{\'e}c{\'e}dentes pour faciliter les mises {\`a} jour. Ces techniques, traditionnellement utilis{\'e}es avec des cat{\'e}gories d{\'e}finies par leur sujet ({\'e}conomie ou sport par exemple), sont fond{\'e}es sur la pr{\'e}sence ou l`absence de mots. Nous pr{\'e}sentons une {\'e}valuation de ces techniques pour le filtrage de contenus racistes. Contrairement aux cas traditionnels, les documents ne doivent pas {\^e}tre cat{\'e}goris{\'e}s suivant leur sujet mais suivant le point de vue {\'e}nonc{\'e} (raciste ou antiraciste). Nos r{\'e}sultats montrent que les classifieurs, essentiellement lexicaux, sont n{\'e}anmoins bien adapt{\'e}es : plus de 90{\%} des documents sont correctement class{\'e}s, voir m{\^e}me 99{\%} si l`on accepte une classe de rejet (avec 20{\%} d`exemples non class{\'e}s)."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="vinot-etal-2003-application">
<titleInfo>
<title>Application d‘algorithmes de classification automatique pour la détection des contenus racistes sur l’Internet</title>
</titleInfo>
<name type="personal">
<namePart type="given">Romain</namePart>
<namePart type="family">Vinot</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Natalia</namePart>
<namePart type="family">Grabar</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Mathieu</namePart>
<namePart type="family">Valette</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2003-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 10ème conférence sur le Traitement Automatique des Langues Naturelles. Articles longs</title>
</titleInfo>
<name type="personal">
<namePart type="given">Béatrice</namePart>
<namePart type="family">Daille</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Emmanuel</namePart>
<namePart type="family">Morin</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Batz-sur-Mer, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Le filtrage de contenus illicites sur Internet est une problématique difficile qui est actuellement résolue par des approches à base de listes noires et de mots-clés. Les systèmes de classification textuelle par apprentissage automatique nécessitant peu d‘interventions humaines, elles peuvent avantageusement remplacer ou compléter les méthodes précédentes pour faciliter les mises à jour. Ces techniques, traditionnellement utilisées avec des catégories définies par leur sujet (économie ou sport par exemple), sont fondées sur la présence ou l‘absence de mots. Nous présentons une évaluation de ces techniques pour le filtrage de contenus racistes. Contrairement aux cas traditionnels, les documents ne doivent pas être catégorisés suivant leur sujet mais suivant le point de vue énoncé (raciste ou antiraciste). Nos résultats montrent que les classifieurs, essentiellement lexicaux, sont néanmoins bien adaptées : plus de 90% des documents sont correctement classés, voir même 99% si l‘on accepte une classe de rejet (avec 20% d‘exemples non classés).</abstract>
<identifier type="citekey">vinot-etal-2003-application</identifier>
<location>
<url>https://aclanthology.org/2003.jeptalnrecital-long.26/</url>
</location>
<part>
<date>2003-06</date>
<extent unit="page">
<start>275</start>
<end>284</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Application d‘algorithmes de classification automatique pour la détection des contenus racistes sur l’Internet
%A Vinot, Romain
%A Grabar, Natalia
%A Valette, Mathieu
%Y Daille, Béatrice
%Y Morin, Emmanuel
%S Actes de la 10ème conférence sur le Traitement Automatique des Langues Naturelles. Articles longs
%D 2003
%8 June
%I ATALA
%C Batz-sur-Mer, France
%G fra
%F vinot-etal-2003-application
%X Le filtrage de contenus illicites sur Internet est une problématique difficile qui est actuellement résolue par des approches à base de listes noires et de mots-clés. Les systèmes de classification textuelle par apprentissage automatique nécessitant peu d‘interventions humaines, elles peuvent avantageusement remplacer ou compléter les méthodes précédentes pour faciliter les mises à jour. Ces techniques, traditionnellement utilisées avec des catégories définies par leur sujet (économie ou sport par exemple), sont fondées sur la présence ou l‘absence de mots. Nous présentons une évaluation de ces techniques pour le filtrage de contenus racistes. Contrairement aux cas traditionnels, les documents ne doivent pas être catégorisés suivant leur sujet mais suivant le point de vue énoncé (raciste ou antiraciste). Nos résultats montrent que les classifieurs, essentiellement lexicaux, sont néanmoins bien adaptées : plus de 90% des documents sont correctement classés, voir même 99% si l‘on accepte une classe de rejet (avec 20% d‘exemples non classés).
%U https://aclanthology.org/2003.jeptalnrecital-long.26/
%P 275-284
Markdown (Informal)
[Application d’algorithmes de classification automatique pour la détection des contenus racistes sur l’Internet](https://aclanthology.org/2003.jeptalnrecital-long.26/) (Vinot et al., JEP/TALN/RECITAL 2003)
ACL