Deepfakes : comment Apple et Google profitent (malgré eux) de l’essor des applications qui dénudent les femmes

C'est un fléau qui sévit depuis quelque temps maintenant : la « nudification » par l'IA. Si X et Grok ont cristallisé l'indignation des internautes, les boutiques d'applications ne sont pas en reste : l'App Store et le Google Play Store ont hébergé une cinquantaine d'applications prédatrices – et en proposent encore certaines. Elles profitent du train de retard de la modération pour développer un business lucratif, dont les géants de la tech bénéficient indirectement.

Nudification IA
Crédits : 123RF

Vous n’avez pu passer à côté de cette polémique qui éclabousse (encore) Elon Musk et son réseau social X (ex-Twitter). Depuis cet été, l’IA de l’application, Grok, permet aux utilisateurs de générer des images pornographiques. Les choses ont (évidemment) dérapé : les internautes détournent cette capacité en outil de harcèlement massif et les premières victimes ne sont autres que les femmes. Qu’elles soient connues ou de parfaites anonymes, ces dernières se retrouvent artificiellement dénudées sans leur consentement.

Après des mois de silence, X s’est finalement décidé à imposer une (bien maigre) restriction. Mais ce scandale n’est pas le monopole du réseau social de Musk. Les applications de « nudification » (le fait de dénuder une personne) poussent comme des champignons : le Google Play Store et l’App Store d’Apple peinent à les éradiquer de leur catalogue, malgré l’interdiction formelle de nudité à caractère sexuel.

Google Play Store et App Store : des profits « collatéraux » sur le dos des victimes de deepfakes pornographiques

Les chercheurs du Tech Transparency Project ont, en effet, enquêté à ce propos. Pour débusquer ces applications génératrices d’images de femmes nues, ils ont recherché des termes, tels que « nudify » (dénuder) ou « undress » (déshabiller). Ils ont découvert que nombreuses étaient les applications qui s’appuyaient sur l’IA pour générer des images ou des vidéos à partir d’un prompt ou des deepfakes pornographiques – en utilisant le visage d’une personne pour l’appliquer sur le corps d’une autre.

Au-delà du fait que certaines de ces applications n’opposaient aucune résistance au fait de déshabiller artificiellement des femmes, elles les représentaient également dans des positions obscènes. Surtout, Apple et Google profitent indirectement de ces contenus préjudiciables et malveillants. En effet, les deux géants de la tech prélèvent jusqu’à 30 % de commission sur les achats intégrés. Or, l’une de ces applications prédatrices aurait généré 1 million de dollars de revenus d’après les statistiques d’AppMagic.

Au total, 47 applications ont été recensées sur l’App Store, 55 applications sur le Play Store (dont 38 communes aux deux magasins légitimes). Le rapport indique qu’Apple a supprimé 25 d’entre elles et Google 31 après le signalement des chercheurs. Ainsi, comme le soulignent nos confrères d’Android Authority, plusieurs d’entre elles demeurent téléchargeables – et rien ne garantit que d’autres ne proliféreront pas.

Puisque, malgré les politiques strictes d’Apple et Google en matière de nudité sexuelle, il est évident que les systèmes de modération sont inefficaces face à l’évolution exponentielle des outils de deepfake. On ne peut qu’espérer que, à l’avenir, les plateformes instaureront des solutions pour régler le problème à sa source et plus seulement pour traiter la conséquence.

Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !