Vous êtes choqués par les utilisateurs de X qui dénudent les femmes grâce à l’IA ? Ce n’est que le début, d’après ces experts
Dans une maladroite tentative de faire taire la polémique, X (anciennement Twitter) a récemment annoncé que seuls ses utilisateurs payant un abonnement Premium pourront demander à son IA Grok de générer des images pornographiques. Non seulement cela est loin d'être suffisant pour enrayer le phénomène, mais plusieurs experts s'alertent sur le fait qu'il ne s'agit que de la partie émergée de l'iceberg.

Elon Musk et son réseau social X (anciennement) n'en sont certainement plus à une polémique près. Mais la dernière en date change la donne. Cette fois, les internautes et les médias ne semblent pas vouloir passer à autre chose. Et pour cause : si vous étiez passé à côté de l'information, Grok, l'IA de X, permet depuis cet été à ses utilisateurs de générer des images pornographiques. Internet étant Internet, mais surtout, la population de X ayant drastiquement changé depuis l'arrivée d'Elon Musk au pouvoir, il fallait s'attendre à ce que les choses dérapent.
Il n'a pas fallu attendre. Très rapidement, les utilisateurs ont commencé à générer des images dénudées de femmes, aussi bien célèbres qu'anonymes. La polémique éclate, de nombreuses personnalités et associations dénonçant un nouvel outil de harcèlement massif des femmes. Pendant des mois, X reste silencieux et laisse ses utilisateurs continuer comme bon leur semble. Lorsqu'enfin les autorités de divers pays se réveillent (au Royaume-Uni notamment, qui interdira bientôt la production la création d'images sexuelles non consenties), la plateforme se décide enfin à imposer une légère restriction.
Sur le même sujet — Elon Musk lance Grokipedia, un Wikipédia généré par IA et déjà accusé de faire du copier-coller
Les deepfakes pornographiques ont encore de beaux jours devant eux
Désormais, seuls les utilisateurs ayant un abonnement premium peuvent générer des images pornographiques avec Grok. Une restriction bien loin de ce que l'on pourrait espérer face à l'ampleur et la gravité du phénomène. Déjà, sur Reddit, on se partage des astuces pour contourner les limitations de Grok et parvenir à générer des images beaucoup plus explicites, voire brutales dans certains cas. Ces techniques sont généralement regroupées sous l'appellation “jailbreak”, faisant le lien avec les techniques de hacking permettant de faire tomber les barrières de sécurité de divers appareils.
En vérité, le cas de Grok n'est que la partie émergée de l'iceberg. Les deepfakes pornographiques ne datent pas d'hier : en 2023 déjà, le FBI s'alarmait de voir les cas de chantage lié à cette pratique exploser sur le web. « Il existe des centaines d'applications hébergées sur les boutiques d'applications grand public telles que celles d'Apple et Google qui rendent cela possible », s'inquiète Nina Jankowicz, experte en désinformation. « Une grande partie de l'infrastructure des agressions sexuelles par deepfake est soutenue par des entreprises que nous utilisons tous quotidiennement. »

D'après une étude de l'Insitute for Strategic Dialogue, il existe aujourd'hui des dizaines de sites et d'applications permettant de générer des images dénudées de femmes, ayant reçu un total de 21 millions de visites en mai 2025. Ces plateformes sont massivement partagées par les internautes, sur X ou sur Telegram. L'ISD a comptabilisé 290 000 mentions de ces dernières sur X seulement en juillet dernier.
« Les femmes et les filles sont beaucoup plus réticentes à utiliser l'IA », souligne Clare McGlynn, chercheuse à l'ISD. « Cela ne devrait surprendre personne. Les femmes ne considèrent pas cette technologie comme une nouveauté passionnante, mais simplement comme un nouveau moyen de nous harceler, de nous maltraiter et de nous pousser à nous déconnecter. » Clare McGlynn s'inquiète également de l'arrivée prochaine du mode adulte dans ChatGPT qui, avec sa force de frappe, risque fortement de rendre la pratique encore plus populaire. Pour l'heure, seul Claude impose des limitations strictes, refusant catégoriquement de modifier les vêtements sur une image.
Source : The Guardian

