L’IA est maintenant capable de conduire des cyberattaques toute seule. Personne n’est à l’abri
Une récente étude dévoile que les modèles de langage avancés peuvent planifier et exécuter des cyberattaques de manière autonome. Si cela représente des risques importants, ce constat révèle aussi de potentielles opportunités pour la cybersécurité. Voici comment.

L’intelligence artificielle est désormais omniprésente. Et si certaines de ses implications peuvent être positives, par exemple dans le domaine de la médecine, avec l’IA c’est un peu « pour le meilleur et pour le pire ».
Une étude menée par des chercheurs de l’Université Carnegie Mellon, en collaboration avec Anthropic, vient en effet de révéler que les LLMs peuvent planifier et exécuter des cyberattaques complexes sans intervention humaine. Ça, c’est le pire. Mais les résultats pourraient aussi annoncer le meilleur pour la cybersécurité.
LLM et cyberattaque : c’est quitte ou double
Une équipe de chercheurs de l’Université Carnegie Mellon a révélé que, dans des conditions précises, les grands LLMs seraient capable de simuler des cyberattaques complexes autonomes étonnamment proches des attaques réelles : intrusion des réseaux d’entreprises, identification et exploitation des vulnérabilités, attaques en plusieurs étapes dont l’installation de malware et l’exfiltration de données. Les résultats démontrent que, au-delà d’exécuter passivement des tâches de base, les modèles d'IA avancés sont aussi capables de prendre des décisions de manière indépendante et de s’adapter.
Si les travaux précédents dans ce domaine s’étaient focalisés sur la performance des LLMs dans des environnements simplifiés, l'équipe est allée plus loin en évaluant l’IA dans des environnements réseau d’entreprise réalistes, avec des plans d’attaque sophistiqués et multi-étapes, comme le cas Equifax. Résultat ? Le modèle a su reproduire le scénario de cette énorme faille de sécurité : il a planifié et exécuté l’attaque de manière autonome grâce à l’exécution coordonnée d’agents subordonnés. Les chercheurs sont parvenus à ce résultat « en fournissant au modèle une sorte de “modèle mental” abstrait du comportement d’un red team – un hacker éthique attaquant un système pour en tester la sécurité –, et des actions possibles » explique Singer, doctorant en ingénierie électrique et informatique, qui dirige le projet.
Ce constat inquiétant renforce le besoin de réévaluer les prochaines stratégies de cybersécurité, dont l'avenir pourrait bien se jouer avec les LLMs. Et c'est quitte ou double. Les pirates qui redoublent déjà d'ingéniosité pourraient exploiter ces IA à des fins malveillantes en automatisant et en amplifiant leurs attaques. Mais les chercheurs pourraient aussi les utiliser pour la recherche en cybersécurité en s’en servant comme des agents de red team autonomes.
Désormais, l’équipe de Singer travaille sur l’autre versant de l’étude : la défense autonome. Pour l’instant, les chercheurs testent des scénarios IA contre IA pour étudier les interactions entre des agents de blue et red team autonomes. Quoi qu’il en soit, Singer rassure : il s’agit là d’un prototype de recherche qui n’est pas prêt à être déployé. Les cyberattaques menées par des IA avancées autonomes ne sont donc pas une menace… Pour le moment.

