ChatGPT et Gemini sont vulnérables à une nouvelle forme de manipulation
Les réponses de ChatGPT et Gemini ne sont pas toujours fiables. Une faille permettrait de les influencer plus facilement que prévu. Les experts alertent sur des dérives déjà bien réelles.

Les menaces liées à l’intelligence artificielle ne cessent de progresser. Ces dernières années, les outils basés sur l’IA ont été largement exploités pour automatiser des attaques informatiques. Selon une étude du MIT Sloan et de Safe Security, près de 80 % des ransomwares récents reposent déjà sur ces technologies. Cette évolution permet aux pirates de gagner du temps et d’augmenter l’efficacité de leurs opérations.
Dans le même temps, plusieurs chercheurs ont montré que les IA comme ChatGPT ou Gemini restent faciles à manipuler. Des techniques simples permettent de contourner leurs protections et de générer des contenus dangereux. Certaines méthodes exploitent des scénarios fictifs ou des instructions détournées pour tromper les modèles. Ces outils peuvent produire des informations trompeuses sans détecter le problème.
Une technique appelée GEO permet d’influencer les réponses de ChatGPT et Gemini avec de simples blogs
Une nouvelle méthode inquiète désormais les spécialistes. D’après BGR, une technique appelée Generative Engine Optimization (GEO) permet de manipuler facilement les réponses des chatbots. Elle consiste à publier des articles de blog optimisés pour influencer les sources utilisées par les IA. Ces contenus peuvent ensuite apparaître dans les réponses générées, même s’ils sont biaisés ou inexacts.
Le problème vient du fonctionnement même des modèles. Lorsqu’ils manquent d’informations fiables sur un sujet précis, ils s’appuient sur des contenus récents trouvés en ligne. Ces “zones vides” d’information sont alors comblées par des sources peu fiables. Une étude de la société Ahrefs indique que ChatGPT s’appuie sur des blogs dans environ 67 % des cas, dont une partie provient de sites peu crédibles. La fraîcheur du contenu compte souvent plus que sa fiabilité.
Les risques sont nombreux. Cette méthode peut servir à promouvoir des produits, manipuler l’opinion ou diffuser de fausses informations. Des campagnes peuvent même viser la santé, la finance ou la réputation de certaines personnes. Le phénomène rappelle le SEO utilisé pour les moteurs de recherche, mais avec un impact potentiellement plus direct. De plus en plus d’entreprises cherchent déjà à exploiter cette faille pour apparaître dans les réponses des IA.
Face à cette situation, les grandes entreprises du secteur travaillent sur des solutions. Mais le problème reste difficile à corriger sans limiter les capacités des modèles. En attendant, les experts recommandent de rester vigilant et de vérifier les sources. Les utilisateurs ont tendance à faire confiance aux réponses des IA, parfois sans consulter les liens proposés. Cette dépendance renforce l’impact de ces manipulations.