Attention, des malwares peuvent se cacher derrière des images générées par IA. Voici comment s’en protéger

Des chercheurs en cybersécurité ont démontré que les images générées par des chatbots IA peuvent désormais contenir des instructions malveillantes. Le but ? Voler vos données. S'il ne s'agit là que d'une expérience menée par des experts, elle représente un sérieux avertissement.

Malware - Crédits : 123RF
Crédits : 123RF

Les hackers diversifient leur mode opératoire : ils sont capables de cacher leurs logiciels malveillants dans des applications, qui se font passer pour des antivirus ou des VPN, mais aussi dans des images hébergées sur des sites web légitimes. L’objectif ? Complexifier leur détection.

Ils vont désormais encore plus loin, en dissimulant leurs malwares dans des images générées par des grands modèles de langage (LLM). Plus l’IA s’immisce dans notre quotidien, plus les risques de sécurité évoluent : c’est un outil qui rend les cyberattaques de plus en plus accessibles et sophistiquées. Aujourd’hui, un simple téléversement d’image pourrait engendrer l’accès à des données confidentielles sans autorisation. Voici comment vous protéger contre cette nouvelle méthode.

Les images générées par IA peuvent désormais cacher des malwares

Selon nos confrères de TechRadar, les chercheurs en cybersécurité de Trail of Bits ont développé un outil open source, Anamorpher, qui génère des images malveillantes. Le but ? Démontrer que des pirates peuvent exploiter la manière dont les IA redimensionnent les images pour y cacher des instructions malveillantes que le chatbot exécutera comme une requête légitime. Concrètement :

  • Le chatbot multimodal (Gemini CLI, Vertex AI Studio, Google Assistant sur Android et l’interface web de Gemini) redimensionne l’image automatiquement pour gagner en efficacité.
  • Les calculs lors du rééchantillonnage font apparaître des artefacts d’aliasing : un motif parasite invisible caché dans les pixels.
  • Ils révèlent lors du redimensionnement bicubique (l’ordinateur calcule les pixels manquants à partir d’un grand voisinage de pixels) un texte caché, que l’IA exécute comme une vraie instruction à l’insu de l’utilisateur, pour qui rien d’anormal ne semble se produire.

Si cette méthode a été élaborée par des experts, elle sert d’avertissement : des pirates pourraient la répliquer si les mesures de sécurité ne sont pas renforcées. Ces LLM sont souvent connectés à d’autres services (agendas, outils de travail…), étendant ainsi la menace. Le risque de vol d’identité est réel si des informations sensibles sont siphonnées : pendant l’étude, les données d’un Google Agenda ont été exfiltrées vers une adresse e-mail à l’insu de l’utilisateur.

Puisque les défenses traditionnelles, comme les pare-feux, ne détectent pas ce type d’attaque, les experts estiment que seules une sécurité multicouche et des conceptions plus robustes peuvent réduire ce risque. En attendant, les utilisateurs peuvent limiter les dimensions d’entrée, prévisualiser les résultats après le rééchantillonnage et exiger une confirmation explicite avant le recours à un outil externe.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !