Twitch : une streameuse virtuelle contrôlée par l’IA dérape sur l’Holocauste en live

 

Neuro-Sama, une VTuber propulsée par une intelligence artificielle, diffuse régulièrement du contenu sur Twitch lié au jeu vidéo à ses 89 000 abonnés. IA oblige, certains spectateurs n'hésitent  pas à lui poser des questions sur des sujets sensibles afin de voir ses réponses. Malheureusement, il arrive parfois que Neuro-Sama dérape..

twitch dérapage ia
Crédits : 123RF

Peut-être que le concept de VTuber vous est inconnu. Particulièrement populaire en Asie, un VTuber fait référence à un créateur de contenus qui utilise un avatar virtuel pour se présenter auprès de ses spectateurs. Neuro-Sama est une VTuber sur Twitch, mais d'un autre genre, puisqu'elle est contrôlée par un intelligence artificielle, et non directement par un être humain.

Vedal987, la personne qui se cache derrière Neuro-Sama, est un ancien programmeur. Il a façonné cette IA au départ pour l'entraîner à jouer à Osu !, un jeu de rythme gratuit dans lequel le joueur doit cliquer sur des formes à l'écran en suivant le tempo de musiques d'animés.

Mais depuis quelques mois, l'IA de Vedal987 a fait un bond en avant en étant capable de dialoguer directement avec les spectateurs. Et autant dire qu'ils peuvent être nombreux, la chaîne Twitch cumulant pas moins de 89 000 abonnés.

A lire égalementTwitch lance le mode Bouclier pour protéger les utilisateurs des raids haineux

Neuro-Sama, la VTuber sous IA, dérape en live

Mais Twitch étant parfois le repère préféré des trolls, certains plaisantins n'ont pas attendu pour tester les limites de l'IA, notamment en l'interrogeant sur des sujets sensibles comme l'Holocauste par exemple. Interrogée sur la Shoah, l'IA a malheureusement répondu : “Je ne suis pas sûre d'y croire”. 

Très rapidement, l'extrait est devenu viral. Lors d'un autre live, Neuro-Sama a également déclaré que les droits des femmes n'existaient pas. Bien entendu, ces dérapages sont plutôt rares, et l'IA parvient tout de même à esquiver des remarques controversées ou haineuses durant de longues heures.

Les choses controversées qu'elle dit sont dues au fait qu'elle essaie de faire des remarques spirituelles et comiques sur tout ce qui est dit dans le chat, aligner les IA avec les valeurs humaines est un domaine de recherche en cours”, explique Vedal. Il poursuit : “Pour contrer cela, j'ai travaillé dur depuis les premiers lives pour améliorer la force des filtres utilisés pour elle. Les données sur lesquelles elle apprend sont également triées manuellement pour atténuer les biais négatifs. Nous avons également une équipe de modérateurs qui vérifient tout ce qu'elle dit”, assure-t-il.

Source : Kotaku



Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !