TikTok serait dangereux pour la santé mentale, mais pas pour les raisons auxquelles vous pensez
Une étude montre que le réseau social TikTok présenterait un risque pour la santé mentale des utilisateurs pour une raison assez inattendue. Les experts du secteur tirent la sonnette d'alarme.
Un “coup de blues” qui dure trop longtemps, un mal-être général, une situation traumatisante dont vous avez du mal à vous remettre… Autant de situations qui, en théorie, devraient vous amener à consulter un professionnel de la santé mentale.
Sauf que ce n'est plus le premier réflexe de beaucoup de personnes. Les jeunes notamment sont nombreux à se tourner vers Internet, et plus particulièrement vers les réseaux sociaux. Parmi eux, TikTok est une destination de choix, avec ses formats courts que l'on peut parcourir à l'infini.
Est-ce pour autant une bonne idée ? En 2022, les préoccupations étaient telles que les États-Unis lançaient une enquête pour mesurer l'impact de TikTok sur la santé mentale des enfants. Depuis, plusieurs mesures ont été prises pour “assainir” la plateforme.
Mais vu les résultats d'une étude menée par The Guardian, ce n'est pas suffisant. Les 100 vidéos TikTok les plus populaires contenant le hashtag #mentalhealthtips (littéralement “astuces pour la santé mentale“) ont été examinées par des experts du secteur et les résultats sont sans appel.
Des experts en santé mentale mettent en garde contre l'utilisation de TikTok
Sur TikTok, plus de la moitié des 100 vidéos les plus vues avec le hashtag #mentalhealthtips contiennent de fausses informations. 52 exactement. Les affirmations problématiques sont de différents types.
D'abord, des mots spécifiques comme “bien-être“, “trouble mental” ou “anxiété” sont utilisés indifféremment. Un abus de langage “qui peut prêter à confusion sur ce qu'implique réellement la maladie mentale“, explique David Okai, neuropsychiatre consultant et chercheur en médicopsychologie.
Ensuite, les conseils prodigués sont généralement basés sur l'expérience personnelle du vidéaste. C'est oublier que l'expression d'un même trouble mental n'est pas identique chez tous les individus qui en souffrent. Son traitement doit donc être adapté à la situation de chacun.
Et même quand la vidéo dit qu'entamer une thérapie est important, elle en fait trop. “Bien qu'il existe des preuves solides soutenant l'efficacité de la thérapie, il est important de souligner qu'il ne s'agit pas d'une solution magique, rapide ou universelle“, rappelle David Okai.
Enfin, les contenus traitant de santé mentale ont parfois tendance à présenter des “remèdes” qui n'ont aucun fondement scientifique. Par exemple manger une orange sous la douche pour réduire l'anxiété, ou prétendre que telle méthode permet de se sentir mieux en une heure.
La psychologue Amber Johnston prévient : “TikTok diffuse de fausses informations en suggérant qu'il existe des conseils et des vérités universelles secrètes qui peuvent en fait faire sentir un spectateur encore plus mal, comme un échec, lorsque ces conseils ne guérissent pas simplement“.
Face aux résultats de l'étude, TikTok réagit et rappelle son engagement
Contacté par The Guardian, un porte-parole du réseau social répond : “TikTok est un lieu où des millions de personnes s'expriment, viennent partager leur parcours authentique en matière de santé mentale et trouvent une communauté de soutien. La méthodologie de cette étude présente des limites évidentes, car elle s'oppose à cette liberté d'expression et suggère que les gens ne devraient pas être autorisés à partager leurs propres histoires“.
Il rappelle ensuite que TikTok travaille “de manière proactive avec des experts en santé de l'Organisation mondiale de la santé et du NHS afin de promouvoir des informations fiables sur [la] plateforme et de supprimer 98 % des fausses informations nuisibles avant qu'elles […] soient signalées“.
Soulignons également que TikTok a déjà agi en ce sens, par exemple en supprimant les filtres permettant de se rendre plus beaux pour les utilisateurs de moins de 18 ans. De son côté, le gouvernement britannique continue de “[prendre] des mesures pour réduire l'impact des contenus de désinformation en ligne” à travers l'Online safety Act. Il oblige les plateformes à supprimer, entre autres, tout contenu illégal ou dangereux pour les enfants.