Yahoo peut détecter les messages de haine des forums et les supprimer automatiquement

Date de dernière mise à jour : le 5 avril 2016 à 12 h 11 min

Anticiper les messages de haine pour permettre une meilleure entente sur les forums de discussion ? Une belle idée sur le papier pour Yahoo mais qu’en est-il alors de la liberté d’expression des individus. La firme souhaite appliquer un nouvel algorithme sur ses différents canaux de discussion afin d’éviter un maximum de dérapages, mais la méthode retenue suscite bien des méfiances.

Les chercheurs en charge du projet estiment que la méthode trouvée est très nettement plus efficace qu’un filtrage par mots clés. Ce système est en effet appliqué sur l’immense majorité du web actuel avec malheureusement des loupés évidentes. Ici, il serait question d’utiliser un algorithme capable de comprendre plus finement les subtilités du langage.

Selon les géniteurs du projet, les propos haineux seraient un cancer pour le web. Non seulement, ils auraient « un impact négatif sur le business » mais ce serait aussi toute l’expérience utilisateur qui serait sacrifiée avec des échanges très nettement moins riches entres les individus.

C’est en partant de postulat que les chercheurs ont développé cette « intelligence artificielle » capable d’identifier si un synonyme voire un tout autre mot est exploité pour tenter de faire passer une expression interdite par un site web. Toute tentative de contournement du système de mots clés serait ainsi sanctionnée en étant directement signalée aux modérateurs.

Dans le PDF récapitulatif des chercheur du Yahoo Labs, nous en apprenons un tout petit peu plus sur le fonctionnement du système. Pour rendre l’algorithme plus efficace, il y a ainsi eu une confrontation au réel avec 895 456 messages corrects et 56 280 messages haineux issus de Yahoo Finance. Sur cette base, les chercheurs ont isolé de nombreuses variations de « fuck » en prenant en compte des expressions gravitant autour du mot. Ceci, afin d’augmenter les capacités de l’algorithme.

Reste que pour être efficace au quotidien, il faudra probablement veiller à faire des mises à jour régulières et se pose aussi la question des faux positifs. Comme quoi, une modération humaine reste encore indispensable pour vérifier les propos. L’ère de Skynet n’est pas encore venue mais une telle méthode peut évoquer certains outils utilisés dans la loi renseignement. De quoi s’inquiéter pour la liberté d’expressions des citoyens ?

   Suivez nous sur Facebook   


Vous aimerez peut être


Réagir à cet article

  • Slaughter

    Pas cool… C’est vraiment discriminant pour les Siths, comment se nourrir dela haine dans ces conditions ?

  • DEKKER

    A quand un nouvel algorithme pour détecter et dénoncer automatiquement ceux qui ne sont pas Charlie?

  • jean-luc Mutabazi

    MDR quand on voudra insulter quelqu’un d’antisémith on dira « espéce de Dieudonné/Dieudo » ^^