IA : YouTube interdit les deepfakes mettant en scène des victimes de violence

Devant l'émergence de vidéos générées par l'intelligence artificielle où des victimes de violence racontent leur histoire, YouTube les interdit purement et simplement sous peine de sanctions.

YouTube
Crédits : 123RF

Les plateformes d'hébergement de vidéos que sont YouTube ou TikTok, pour ne citer qu'elles, ne sont pas passées à côté de la révolution de l'intelligence artificielle. Que ce soit pour générer un avatar sur le réseau social ou chanter avec la voix de votre artiste préféré, chacune développe des outils pour en exploiter le potentiel. Mais si les services s'y mettent, les créateurs aussi, avec les dérives que cela entraîne. On pense surtout aux fausses chansons générées par IA qui ont d'ailleurs poussé YouTube à mettre en place des mesures de protection des ayants droit.

Sauf que ce sont loin d'être les seuls abus possibles. Certains n’hésitent pas à tomber dans le mauvais goût, voire le carrément morbide. Une tendance se dessine depuis quelques temps sur TikTok ou YouTube, et elle rencontre malheureusement un franc succès. Des deepfakes de victimes de violence ou de meurtre racontant ce qu'il leur est arrivé. Autrement dit : la personne décédée est recréée grâce à l'intelligence artificielle qui lui donne une voix pour qu'elle décrive ce qu'elle a subi avant de mourir. Même des enfants sont mis en scène.

YouTube ne veut plus de deepfakes de victimes racontant les violences qu'ils ont subies

Sur TikTok par exemple, on peut voir une vidéo où un bébé explique avec une voix d'enfant comment il a été tué par sa grand-mère à l'âge de 21 mois. Malgré des erreurs factuelles dans le récit, c'est vraiment ce qui est arrivé à un nourrisson de 22 mois dans le Mississippi. Les membres des familles concernées par ces contenus macabres sont bien sûr outrées, d'autant que jusqu'à présent, rien n'empêche quelqu'un de créer ce genre de deepfake.

Lire aussi – Google teste l’IA pour créer des résumés des vidéos YouTube

YouTube prend les devants en modifiant sa politique en matière de contenus. Sur la page dédiée de son support, on peut désormais lire que sont interdits les “contenus simulant de manière réaliste des mineurs décédés ou des victimes d'événements violents meurtriers ou bien documentés décrivant leur mort ou les violences subies”. En cas de violation, un avertissement est émis et la vidéo est retirée. À cela s'ajoute une interdiction de poster du contenu pendant une semaine, entre autres. Récidiver peut aboutir à la suppression totale de la chaîne.

Source : YouTube


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !