YouTube Kids, l’application pour enfants, reste truffée de vidéo ultra-violentes

YouTube Kids est truffé de vidéos faisant l’apologie du suicide, du meurtre et de l’exploitation sexuelle. C’est la conclusion d’un enquête menée par The Next Web sur l’application enfants de la plateforme de vidéos, normalement expurgée de toute violence. Youtube reconnaît de son côté « qu’il y a encore du travail » pour supprimer toutes les vidéos inappropriées de l’application. 

YouTube Kids

The Next Web vient de mettre en ligne une enquête autour des contenus disponibles sur l’application pour enfants YouTube Kids. Et le moins que l’on puise dire, c’est que ce n’est pas reluisant : entre les vidéos qui expliquent aux enfants comment se trancher correctement les veines, qui font l’apologie de meurtres dans les écoles, ou du traffic d’êtres humains, le tout sur fonds de musiques qu’on trouve sur Tik Tok, ou d’artistes populaires auprès des plus jeunes, YouTube Kids semble très loin d’être la solution à conseiller aux parents qui veulent souffler quelques minutes.

YouTube Kids croule sous les vidéos violentes et inappropriées

Le blog cite en effet plusieurs exemples de vidéos qui restent encore disponibles sur Youtube. Dans l’une d’entre-elles des petits malins ont incrusté un certain Filthy Frank qui se filme sur des fonds verts sur une vidéo a priori inoffensive de Splatoon. Au cours de sa brève apparition, il conseille de se suicider en se tranchant les veines : « souvenez-vous les enfants, tranchez-les perpendiculairement pour de l’attention, et dans le sens de la longueur pour des résultats. Finissez-en ». Ce n’est pas la première fois que la présence de ce genre de contenus sur YouTube Kids est mise à l’index.

Pourtant les efforts de la firme pour empêcher à ce genre de contenus de se retrouver sur l’application enfants ne semblent pas encore porter leurs fruits. A la suite de la parution de l’enquête de The Next Web, un responsable de la firme a ainsi réagi : « nous travaillons à faire en sorte que les vidéos de YouTube Kids soient pour toute la famille, et prenons très sérieusement en compte les retours. Nous apprécions que les gens attirent notre attention sur des contenus problématiques, et chacun peut signaler une vidéo ».

Lire également : YouTube explique pourquoi et comment 8,3 millions de vidéos ont été supprimées en trois mois

Et YouTube d’ajouter : « Les vidéos signalées sont ensuite examinées manuellement, 24 heures sur 24 et 7 jours sur 7, et toutes les vidéos qui n’ont pas vocation à être sur l’application YouTube Kids sont immédiatement supprimées. Nous avons également développé de nouveaux systèmes de contrôles à disposition des parents, avec notamment la possibilité de sélectionner une liste de vidéos et de chaînes adaptées dans l’application. Nous améliorons en permanence nos systèmes et reconnaissons qu’il reste encore beaucoup à faire« .

Utilisez-vous YouTube Kids ? Y avez-vous déjà trouvé des contenus inappropriés ? Partagez votre retour dans les commentaires.

Mise à jour 22/3/19 à 15h18 : réaction de Google

A la suite de cet article, Google nous a écrit pour ajouter quelques précisions. D’abord la vidéo évoquée à deux reprises dans l’article de The Next Web, réalisée par Filthy Frank et Joji, »n’a jamais figuré dans YouTube Kids. Elle était uniquement disponible sur YouTube.com. La vidéo en question a depuis été retirée de YouTube, pour avoir enfreint les conditions d’utilisations », explique Google FranceLa firme ajoute ce droit de réponse : « Nous travaillons sans relâche pour que YouTube ne soit pas utilisé dans le but d’encourager les comportements dangereux. Nous appliquons des règles strictes interdisant les vidéos encourageant l’automutilation. Nous nous appuyons sur le signalement des utilisateurs et des outils de détection automatisés afin d’identifier rapidement ces contenus et les soumettre à nos équipes pour une vérification humaine. Chaque trimestre, nous supprimons des millions de vidéos et chaînes qui enfreignent nos politiques. La majorité de ces vidéos sont supprimées avant même qu’elles ne soient visualisées. Nous nous efforçons d’améliorer nos systèmes dans le but de supprimer encore plus rapidement ces contenus illicites ».

Google précise que nombre des vidéos signalées par The Next Web ont depuis été supprimées de YouTube Kids. Et donne quelques statistiques sur les vidéos supprimées entre juillet et septembre 2018 pour faire respecter son règlement. Ainsi au cours de la période, YouTube a supprimé 7,8 millions de vidéos :

  • Parmi celles-ci, 81% ont été détectées grâce à l’apprentissage automatique
  • 74,5% des vidéos identifiées par cette technologie ont été retirées avant qu’un utilisateur ne puisse les voir
  • Au total, 90% des vidéos mises en lignes en septembre 2018 supprimées pour extrémisme violent ou mise en danger d’un enfant ont été vues moins de 10 fois
  • De juillet à septembre 2018, les équipes de Google ont par ailleurs supprimé plus de 224 millions de commentaires pour violation de notre règlement de la communauté

L’année dernière, Google a porté à 10 000 le nombre de personnes chargées au sein de l’entreprise de lutter contre les contenus susceptibles de violer nos politiques – soit 1 personne sur 9 dans l’entreprise.

Réagissez à cet article !
Abonnez-vous gratuitement à la newsletter
Chaque semaine, le meilleur de Phonandroid dans votre boite mail !
Demandez nos derniers articles !
YouTube teste un nouveau design : les internautes détestent !

YouTube propose un nouveau design de sa page d’accueil qui fait apparaître les aperçus des vidéos beaucoup plus grands. Certains utilisateurs y ont déjà droit et les réactions sur Reddit et Twitter sont très acerbes. Cette nouvelle interface est loin…

YouTube pourrait cacher les commentaires sous les vidéos !

YouTube teste une nouvelle interface sur Android qui cache les commentaires sous les vidéos. Il faut désormais appuyer sur nouveau bouton situé dans le menu, à côté des icônes Like et Dislike pour les afficher. YouTube perdrait énormément de sa…