L’IA code plus vite que les humains, mais représente une menace pour la cybersécurité
Le développement est l’un des domaines où l’intervention de l’IA semble causer plus de problèmes qu’elle n’apporte de bénéfices. Bien qu’elle permette de générer du code plus rapidement, elle pourrait être davantage une menace pour la cybersécurité qu’une avancée.

L’IA s’impose dans le monde professionnel, au point de concurrencer sérieusement les développeurs les moins expérimentés. En effet, s’il y a un secteur dans lequel l’IA est exploitée, c’est bien dans le développement pour la génération de code.
Au-delà des répercussions sociales, cela représente, à bien des égards, un danger pour la sécurité à grande échelle. Si les grands modèles de langage (LLM) sont maintenant capables de simuler des cyberattaques complexes de manière autonome, le code qu’ils génèrent est parfois considéré par des experts, tels qu’Apiiro, comme des « bombes à retardement ».
L’IA génère du code plus rapidement, mais il est aussi plus vulnérable
Avec l’IA, rien n’est jamais tout noir ou tout blanc : elle est, bien souvent, à la fois le poison et l’antidote – les études sur les attaques autonomes nourrissent par exemple la défense autonome. Mais parfois, la balance penche davantage du côté du pire, plutôt que du meilleur, les avantages ne suffisant pas à compenser les inconvénients. Et il semble que ce soit le cas du code généré par IA, selon nos confrères de TechRadar.
Concrètement, Apiiro a réalisé une étude et a conclu que les développeurs assistés par IA écrivent 3 à 4 fois plus de code, les erreurs de syntaxe chutent de 76 % et les bugs logiques de plus de 60 %. En revanche, en plus d’être globalement de moins bonne qualité, le code généré par IA a introduit 10 fois plus de failles de sécurité entre décembre 2024 et juin 2025. Leur gravité varie : schémas non sécurisés, près de deux fois plus de clés sensibles exposées, erreurs de configuration dans le cloud et, le plus grand risque, des bugs exploitables. Par exemple, les chemins d’escalade de privilèges ont bondi de 322 % et les défauts d’architecture de 153 %. Or ces vulnérabilités sont difficiles à détecter pour les relecteurs.
Ce constat est inquiétant, surtout lorsque le codage assisté par IA est imposé, comme dans certaines entreprises telles que Coinbase ou Citi. Selon les chercheurs, les entreprises devraient prévoir un renforcement de leurs garde-fous quand elles exploitent du code produit par IA. Surtout quand les géants de la tech déclarent que près d’un tiers (ou davantage) de leur nouveau code l’est. Une nouvelle occasion de rappeler que la supervision humaine reste cruciale.

