Les criminels ont déjà largement adopté l’IA pour vous arnaquer, cette étude le prouve
Un nouveau rapport montre comment des outils d’intelligence artificielle sont utilisés à mauvais escient. Création de virus, manipulations politiques ou fausses offres d’emploi, les usages malveillants se multiplient. Même des personnes peu expérimentées peuvent désormais lancer des actions complexes.

L’intelligence artificielle fait aujourd’hui partie du quotidien. Elle peut rédiger des textes, créer des images ou générer du code. Mais si ces capacités sont utiles dans de nombreux domaines, elles sont aussi détournées par des individus malintentionnés. De plus en plus de cas montrent comment l’IA devient un outil entre les mains des cybercriminels qui leur permet d'être plus rapides, ou comme Gemini, qui leur permet de mener des cyberattaques.
C’est ce que révèle une étude récente menée par Anthropic, l’entreprise à l’origine du chatbot Claude. Son rapport, publié en avril 2025, montre plusieurs cas d’utilisation illégale de ce modèle d’IA. Des personnes peu qualifiées ont pu créer des logiciels malveillants avancés. D’autres ont généré de faux contenus politiques pour manipuler les réseaux sociaux ou créer de fausses offres d’emploi à grande échelle.
Claude a été utilisé pour créer des virus, manipuler des électeurs et simuler des recruteurs
Selon le rapport, un acteur malveillant a utilisé Claude pour analyser des identifiants provenant de caméras piratées. Un autre a transformé un simple kit open source en malware capable de reconnaissance faciale. Un troisième exemple montre comment il a servi à générer du contenu pour des opérations politiques payantes, via des centaines de comptes automatisés sur les réseaux sociaux. Ces bots interagissaient avec des milliers de comptes réels, en plusieurs langues, pour faire passer certains messages.
Anthropic a aussi identifié une fraude dans le recrutement en ligne. Des escrocs se faisaient passer pour des entreprises en utilisant Claude pour rédiger des messages professionnels. L’IA servait à corriger le style des messages, pour qu’ils paraissent crédibles en anglais. L’entreprise a depuis bloqué les comptes responsables, mais prévient que ces usages vont continuer à se développer. En l’absence de cadre légal clair, les seuls remparts restent les analyses internes et les signalements volontaires. Le risque ne vient plus seulement des experts, mais de n’importe qui disposant d’un accès à un chatbot performant.

