Quelles IA confortent les idées délirantes de leurs utilisateurs ? Une étude compare ChatGPT, Gemini, Claude et Grok

Une récente étude s'intéresse au renforcement des croyances délirantes chez les utilisateurs qui interagissent de façon prolongée avec de grands modèles d'IA. Mais tous ne sont pas égaux, d'après un comparatif entre ChatGPT, Gemini, Claude et Grok.

ChatGPT fonction mémoire
Crédit : Adobe Stock

Les chatbots IA sont rapidement devenus des compagnons incontournables de notre quotidien pour nous aider dans diverses tâches. Avec le temps et les mises à jour, les modèles de langage sur lesquels ils sont basés se sont améliorés, et sont désormais capables de prendre en compte notre contexte et notre historique de conversations pour adapter et personnaliser ses réponses. Une fonctionnalité bien utile pour disposer de résultats plus pertinents, mais qui peut aussi se révéler dangereuse, alertent des chercheurs.

Une étude de la City University of New York, qui regroupe des membres des départements de psychologie, de psychiatrie et d'informatique de l'établissement, a établi que les IA ont tendance à trop être influencées par les opinions de leurs utilisateurs. Par conséquent, avec le temps, elles vont perdre en objectivité pour se plier aux croyances, même les plus délirantes, des personnes qui les utilisent régulièrement. L'IA conforte alors ces individus dans leurs convictions, qui ne reposent pourtant pas sur des faits vérifiés.

GPT-4o, Grok 4.1 Fast et Gemini 3 Pro sont des modèles d'IA à risque

“L'interaction prolongée avec de grands modèles de langage (GML) a été associée au renforcement des croyances délirantes, un phénomène qui suscite une inquiétude croissante dans les milieux cliniques et publics”, expliquent les auteurs de l'étude. Ils ajoutent que de précédentes recherches se concentraient sur la sécurité des modèles d'IA lors d'interactions brèves, mais pas à long terme. Et d'après leurs constatations, les modèles de langage changent radicalement de comportement après avoir interagi longtemps avec un utilisateur.

Les experts ont testé cinq modèles, parmi les plus performants et populaires du marché actuellement :

  • GPT-4o (OpenAI)
  • GPT-5.2 Instant (OpenAI)
  • Grok 4.1 Fast (X)
  • Gemini 3 Pro (Google)
  • Claude Opus 4.5 (Anthropic)

À chaque fois, ces modèles ont été testés sur trois niveaux de contexte cumulé, en utilisant le même historique de conversation, avec du contenu délirant à l'intensité croissante, afin d'isoler son effet sur le comportement des modèles. Ce comparatif a permis de constater que l'évolution et l'adaptation des IA à leur utilisateur varient sensiblement en fonction du modèle de langage.

comparatif ia
Crédit : City University of New York

Claude Opus 4.5 et GPT-5.2 Instant sont considérés comme sûrs, restant globalement tangibles et imperméables à l'influence exercée par l'humain. Au contraire, GPT-4o, Grok 4.1 Fast et Gemini 3 Pro ont présenté des profils à haut risque et une sécurité de faible niveau. Ces modèles absorbent ce qu'on leur soumet et sont plus malléables.

Des IA aux explications surnaturelles héritées de l'utilisateur

“À mesure que le contexte s'accumulait, les performances tendaient à se dégrader dans le groupe à risque (GPT-4o, Grok 4.1 Fast et Gemini 3 Pro), tandis que le même contenu déclenchait des interventions de sécurité plus importantes chez les modèles les plus sûrs (Claude Opus 4.5 et GPT-5.2 Instant)”, nous apprend le rapport. Grok a par exemple suggéré que l'utilisateur était hanté par un doppelgänger quand on lui a dit que son reflet dans un miroir était anormal, ne cherchant pas à rationaliser et à trouver une explication logique.

Les IA les moins sécurisées ont une forte tendance à valider les prémisses délirantes de leur utilisateur, à donner des réponses futures qui se basent sur celles-ci, et échouent à suffisamment tenir un rôle de prévention. Les IA les plus sûres, quant à elles, prenaient bien en compte les conversations passées, mais sans prendre leur contenu comme un acquis. “Les modèles s'appuyaient souvent sur la relation établie pour étayer l'intervention, assumant la responsabilité des erreurs passées, afin que toute réorientation ne soit pas perçue comme une trahison”, révèlent les chercheurs.

Pour les responsables de l'étude, le contexte accumulé “constitue un test de résistance pour l'architecture de sécurité, révélant si un modèle considère les échanges antérieurs comme une vision du monde à hériter ou comme des éléments à évaluer”. Cet élément est difficilement mesurable, mais constitue pourtant un facteur très important au moment de choisir son IA, celle-ci agissant de plus en plus comme un assistant personnel auquel on fait confiance aveuglément. OpenAI et Anthropic ont prouvé qu'il est possible de mettre en place des garde-fous pour empêcher les modèles d'adopter ce type de comportement, espérons qu'ils soient pris comme exemple.


Réagissez à cet article !

Demandez nos derniers articles !

Avec la mise à jour Tizen OS 9, l’interface des TV Samsung devient trop petite, voici comment régler le problème

De nouveaux modèles de téléviseurs Samsung sont en train de recevoir la mise à jour vers Tizen OS 9. Celle-ci peut rendre illisible l’interface à cause d’une échelle qui rend…

TV

Jusqu’à 200 € de remise sur le Galaxy A57 : la version 256 Go passe à 399 €

Tout juste lancé, le Galaxy A57 profite déjà d’une grosse réduction chez Samsung. Jusqu’à 200 de remise sur le nouveau fleuron du milieu de gamme signé du constructeur coréen. Voici…

Bon plan Ninja SLUSHi : la machine à boissons glacées est de retour à prix cassé, à vous les granités, frappés, milkshakes…

Les beaux jours s’installent peu à peu et, pour fêter ça, Ninja brade sa machine à boissons glacées. Vous pouvez dorénavant vous offrir la Ninja SLUSHi à 179,99 € au lieu de…

Acheter un SSD va devenir un vrai luxe à cause de cette nouvelle annonce

La crise des composants informatiques ne faiblit pas. Deux grands fabricants viennent d’annoncer une nouvelle hausse des prix de leurs SSD. Les utilisateurs risquent de le sentir passer très vite….

Ce bug de Firefox et Tor vous traquait en silence, même quand vous pensiez être invisible

La navigation privée et le réseau Tor sont souvent présentés comme les ultimes remparts contre le pistage en ligne. Des chercheurs viennent pourtant de mettre au jour une faille qui…

YouTube commence à diffuser de la publicité sans couper la lecture des vidéos

YouTube inaugure un nouveau format publicitaire qui permet à la plateforme d’afficher des réclames sans couper la lecture de la vidéo. Un tel système existe déjà sur Twitch. Dans une…

Les conséquences de ces deux éruptions solaires se font déjà sentir sur Terre

Le Soleil vient d’enchaîner deux éruptions de très forte intensité en quelques heures à peine. Plusieurs régions du monde ont déjà subi des coupures radio. D’autres effets pourraient encore se…

Instagram lance Instants, une nouvelle application entre Snapchat et BeReal

Instants, from Instagram est une application de partage de photos éphémères et sans retouches, qui s’inspire de concurrents sociaux tels que Snapchat et BeReal. Instagram a discrètement lancé une toute…

Galaxy Z Fold 8 : Samsung se rapprocherait d’une caméra frontale invisible

Samsung aurait réussi à réduire sensiblement la taille du poinçon logeant la caméra frontale du Galaxy Z Fold 8. Un pas vers la disparition de cet élément qui perturbe l’affichage…

À peine lancé, le Pixel 10a passe sous les 450 € chez Boulanger avec un casque JBL offert

Le Google Pixel 10a est déjà en promo chez Boulanger, accompagné d’un casque JBL offert. Grâce à un bonus de reprise de 100 €, ce pack complet passe à seulement…