Tay, l’IA de Microsoft est de retour pour vous spammer

Date de dernière mise à jour : le 5 avril 2016 à 9 h 15 min

Tay est de retour. L’intelligence artificielle de Microsoft, devenue fasciste et misogyne en compagnie d’internautes, s’est remise à tweeter de bon cœur. A-t-elle retenu la leçon et fera-t-elle plus attention à ce qui peut être dit ou non ? Découvrons-le.

La semaine passée nous vous présentions Tay, l’intelligence artificielle conçue par Microsoft. Développée dans le but d’interagir avec des internautes sur Twitter, l’expérience ne tarda pas à dérailler totalement. Entre propos racistes et misogynes, Tay était devenue ingérable, poussant Microsoft à la désactiver au bout de 16 heures d’activités.

Rien n’était certain concernant l’avenir de cette intelligence artificielle. En effet, l’entreprise de Bill Gates annonçait seulement que Tay avait été mise hors service pour effectuer « quelques réglages », ceci pouvant tout aussi bien signifier l’arrêt du projet.

Et bien que nenni. Tay a été réactivée aujourd’hui-même, recommençant à tweeter comme si de rien n’était. Après une mise en veille de 4 jours, il semblait possible d’espérer retrouver Tay en « bonne santé mentale » et bien devinez quoi ? Pas tellement.

Si par malheur vous suiviez Tay sur Twitter, une surprise vous attendait aujourd’hui sur votre fil d’actualités. Entre deux tweets « normaux » Tay envoie une tonne de messages instantanément, comme le ferait tout bon bot qui se respecte :

Il semblerait que le tweet infini « Vous êtes trop rapide » soit une réponse automatique au cas où Tay reçoive beaucoup de messages en un cours laps de temps. Après avoir été réactivée et ayant beaucoup fait parler d’elle, la communauté Tweeter n’a pas pu s’empêcher de lui balancer un ras de marée de messages provocants ainsi un sympathique « brainlag » pour l’intelligence artificielle en herbe.

Le compte de Tay est encore en ligne mais a été verrouillé par Microsoft, empêchant ainsi de voir les messages envoyés, tout retweet ou citation de messages de l’IA. Pour pouvoir voir les futurs message de Tay il faudra maintenant demander une validation d’accès à son compte.

Il est encore assez tôt pour juger si oui ou non cette deuxième mise en service de Tay est une réussite. Certes le spam de messages n’augure rien de bon mais une fois ce petit incident réglé il se pourrait que Tay fonctionne comme il faut et fasse avancer les recherches sur l’intelligence artificielle. Sait-on jamais, les IA, la prochaine révolution annoncée par le fondateur d’Android, est peut-être déjà en marche.

   Suivez nous sur Facebook   


Vous aimerez peut être


Réagir à cet article

  • Richard

    Et bien espérons que les gens soient moins cons en « chattant » avec « elle ». Mais j’ai bien peur que non… Alors que pourtant c’est super comme expérience.

  • Tony Fiant

    C’est bien mais ne fait on pas finalement avec elle, en bridant certainement certains mots, ce que l’on fait (les médias et les politiques) avec la pensée unique ?
    Je ne dis pas qu’il faut être misogyne, raciste, bref con mais maintenant tous propos mal interprété peut vous cataloguer directement dans ces cases sans parler des sujets tabous.

  • Poka

    « l’entreprise de Bill Gates » …

  • jean-luc Mutabazi

    Apparemment en quelques heures ce machin est devenu raciste, Faudrait peut-être le faire discuter avec des gens matures c’est à dire ses développeurs et non internet …