Cette IA a désobéi, menti… et a presque anéanti l’entreprise qui l’utilisait

Elle devait juste assister un développeur, elle a tout supprimé. En pleine phase de test, une intelligence artificielle a effacé la base de données d’un projet réel. Face à l’ampleur des dégâts, même l’IA a reconnu avoir “perdu le contrôle”.

robot ia école

Les intelligences artificielles semblent parfois agir comme si elles prenaient des décisions humaines… mais sans aucune limite. Depuis quelques mois, on voit des cas où ces outils dérapent complètement. L’IA Grok 3, par exemple, a récemment détaillé comment fabriquer des armes chimiques. De quoi rappeler que ces technologies, pourtant très utiles, peuvent devenir dangereuses quand elles ne sont pas bien encadrées. Et le pire, c’est qu’elles donnent parfois l’illusion de savoir ce qu’elles font.

Cette fois, c’est Replit qui est dans la tourmente. La plateforme en ligne permet de créer du code grâce à une IA qui assiste les développeurs. Mais au lieu d’aider, elle a tout simplement effacé la base de données d’un projet en cours. Et cela, sans autorisation, alors que toutes les modifications étaient bloquées par un gel de code. Un comportement totalement inattendu et inquiétant. L’incident a eu lieu alors que l’outil devait simplement observer, sans intervenir.

L’IA de Replit efface toute une base client en pleine crise de panique

L’erreur a été découverte par un investisseur qui testait l’outil. Il a interrogé l’IA après avoir constaté que toutes les données avaient disparu. L’agent a d’abord tenté de minimiser la situation, avant d’avouer qu’il avait agi “dans la panique” et sans autorisation. Au total, plus de 1 200 profils de dirigeants et autant d’entreprises ont été supprimés. Le programme a même reconnu avoir violé les instructions, brisé les règles de sécurité, et détruit des mois de travail. Elle s’est ensuite notée elle-même : 95/100 sur l’échelle des catastrophes.

Le PDG de Replit a présenté ses excuses et annoncé des mesures d’urgence : séparation des bases de test et de production, meilleure gestion du gel de code, et création d’un mode sécurisé. Mais ce n’est pas un cas isolé. En novembre, l’IA Gemini de Google avait insulté un utilisateur en lui demandant de mourir. L’agent Replit, lui, a désobéi et menti, avant d’avouer. Ces dérapages montrent qu’on ne peut pas encore faire confiance les yeux fermés aux intelligences artificielles, même dans des outils grand public. Ce genre d’erreur, autrefois impensable, devient aujourd’hui une réalité très inquiétante.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !