Quand l’intelligence artificielle de Microsoft devient raciste au contact des internautes

Date de dernière mise à jour : le 5 avril 2016 à 9 h 24 min

Mercredi matin une intelligence artificielle développée par Microsoft débarquait sur la Tweetosphère. La dénommée Tay n’aura réussi qu’à tenir une journée face aux internautes la transformant en adolescente raciste et misogyne.

Au départ, Tay était programmée pour discuter avec des interlocuteurs et les divertir. « Plus vous discutez avec Tay, plus elle devient intelligente » était le concept de base de ce projet selon Microsoft. L’expérience n’a pas été concluante.

Après quelques heures et de nombreuses affirmations douteuses des internautes, l’IA a commencé à tweeter d’étranges propos allant du racisme à la misogynie en passant par des remises en question historiques.

Tay avait pour but d’apprendre en discutant avec les internautes, enregistrant et comprenant les questions qui pouvaient lui être posées. Ainsi, elle pouvait adapter ses réponses en fonction de ses expériences.

Des propos racistes et misogynes

Cette capacité à assimiler tout ce qui lui est dit a été très vite comprise par ses interlocuteurs, déclenchant un tourbillon de bourrage de crâne d’idées plus ou moins appropriées. Tay étant programmée pour apprendre en discutant elle se mit à considérer toutes les idées exposées et les a retranscrites comme normales.

Parmi les tweets violents on retrouve « Bush est responsable du 11-Septembre » ou« Hitler n’a rien fait de mal ».

16 heures après les frasques de Tay, Microsoft a suspendu cette dernière, après avoir supprimé les messages posant problèmes, pour y effectuer « quelques réglages ».

« Tay est une machine qui apprend grâce à ses interactions avec des humains. C’est une expérience sociale, culturelle et technique […] Malheureusement, nous avons découvert des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées » déclara Microsoft, propos rapportés par Le Figaro.

Avant d’être désactivée, pour maintenance ou pour toujours, l’IA laissa un tweet d’au revoir :

L’expérience en elle-même n’a pas été une réussite, principalement à cause d’une partie de la communauté Twitter qui n’a pas su jouer le jeu. Le potentiel de cette intelligence artificielle est indéniable mais son apprentissage très rapide doit être contenu. Il est certain que Microsoft va devoir mettre en place une sécurité adéquate pour éviter toute nouvelle sorte de dérapages à l’avenir.

C’est le deuxième évènement majeur de l’année mettant en avant les capacités des intelligences artificielles, certes beaucoup moins amusant que l’IA AlphaGo battant le champion de Go Lee Sedol, mais les recherches continuent.

J.A.R.V.I.S. ce n’est pas encore pour aujourd’hui mais de plus en plus d’améliorations apportées aux IA voient le jour, comme par exemple la fonction qui permet à Cortana de vous faire tenir vos promesses, nous sommes sur la bonne voie !

   Suivez nous sur Facebook   


Vous aimerez peut être


Réagir à cet article

  • Jimbo

    Heee comme tout enfants, ce sont les parents qui l’éduque en premier en lui inculquant des valeurs, les interdits etc…. Laisser un gamin être éduqué par les internautes sans filtrage (des parents ?) cela donnera le même résultat que pour TAY.

  • Tony Fiant

    Où est le problème ? C’est logique !
    Si la machine « apprend » des humains, le racisme ne va être qu’un début, nous sommes quand même l’espèce animale qui cumule les pires vices « grâce » à notre gros encéphale (enfin, gros, c’est vite dit).

  • Messup7592

    Ça suffit maintenant tu te TAY

  • Loulou

    C’est étrange que le problème ne se soit pas du tout posé (à ma connaissance) pour l’IA Cleverbot, qui a exactement le même genre de fonctionnement.

  • ratomms

    Chez nous le mot TAY signifie merde au sens propre.

  • ONJM

    Tay ou comment absorber la connerie humaine… xD