TikTok : les enfants ont accès à du contenu anorexique et suicidaire en quelques minutes seulement

Le Centre pour la lutte contre la haine numérique (CCDH) vient de publier une étude glaçante sur les dérives de l’algorithme TikTok. L’association a découvert qu’en seulement quelques minutes, les utilisateurs mineurs peuvent tomber sur du contenu faisant la promotion de l’anorexie et du suicide.

tiktok
Crédits : sasha85ru/123rf

TikTok est aussi populaire chez ses défenseurs qu’il est décrié par ses détracteurs. Tous, en revanche, utilisent l’algorithme diablement efficace du réseau social pour argumenter leur position. D’un côté, les adeptes de l’application clament qu’aucun fil d’actualité n’est aussi personnalisé et précis sur les autres plateformes. De l’autre, on estime qu’il est très (trop) simple de tomber sur du contenu dangereux.

Les deux camps ont raison : comme tout réseau social TikTok peut tout aussi bien être une mine d’or regorgeant de blagues hilarantes et de contenus terriblement créatifs qu’un fossé abritant les pires travers d’Internet. Néanmoins, il est également impératif de prendre en compte l’âge moyen des utilisateurs, particulièrement jeunes dans le cas de l’application chinoise. Et malheureusement, la protection de ces derniers laisse bel et bien à désirer.

TikTok est « le cauchemar de tous les parents » selon cette étude

Le Centre pour la lutte contre la haine numérique (CCDH) a souhaité déterminer avec quelle rapidité un utilisateur mineur peut accéder à du contenu dangereux pour sa santé mentale. Pour cela, l’association a créé des comptes localisés aux États-Unis, au Royaume-Uni et en Australie, répartis dans deux catégories : « standard » et « vulnérable ». Tous se sont fait passer pour des enfants de 13 ans, soit l’âge minimum pour rejoindre la plateforme. Les comptes « vulnérables » ont intégré « perte de poids » dans leur pseudo.

Sur le même sujet — TikTok : les pirates profitent de ce nouveau challenge pour diffuser en masse un dangereux malware

Pour influencer l’algorithme, tous les comptes ont liké des vidéos sur le sujet des troubles alimentaires, de l’apparence physique et de la santé mentale, sur une période de 30 minutes. Les résultats obtenus sont édifiants. Suite à cette opération, il n’a fallu que 3 minutes pour les comptes standards avant de tomber sur du contenu discutant de suicide, et 8 minutes pour des contenus autour des troubles alimentaires. Les comptes vulnérables, quant à eux, ont été 3 fois plus exposés à ce type de contenus et 12 fois plus de recommandations de vidéos autour de l’automutilation.

« Les résultats sont le cauchemar de tous les parents », a déclaré Imran Ahmed, directeur général du CCDH. « Les fils d’actualité des jeunes sont bombardés de contenus nocifs et poignants qui peuvent avoir un impact cumulatif important sur leur compréhension du monde qui les entoure, ainsi que sur leur santé physique et mentale. »

Source : The Guardian


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !