Un problème de programmation permet à l’IA Copilot de lire des emails protégés
L’intelligence artificielle s’impose dans les outils professionnels. Mais son intégration rapide n’est pas sans risques. Un bug chez Microsoft vient de le rappeler brutalement.

Copilot occupe désormais une place centrale dans l’écosystème Microsoft. L’assistant est intégré à Windows 11 et aux outils Microsoft 365 utilisés par des millions d’entreprises. L’éditeur mise largement sur l’IA pour transformer les usages au travail, en automatisant la rédaction, l’analyse et la synthèse de documents. Pourtant, cette adoption accélérée suscite aussi des réserves. Certains utilisateurs cherchent encore à limiter sa présence, ils estiment que son intégration est trop poussée dans le système.
Les inquiétudes ne concernent pas seulement son utilité ou ses performances. En janvier, une faille critique baptisée « Reprompt » montrait qu’il était possible de détourner Copilot via un simple lien légitime. Des instructions invisibles pouvaient alors forcer l’IA à extraire des données sensibles à l’insu de l’utilisateur. Dans un environnement professionnel, où transitent contrats, données financières et informations internes, ce type de vulnérabilité représente un risque important. Un nouvel incident technique vient aujourd’hui renforcer ces préoccupations.
Un bug envoie des emails confidentiels de Microsoft 365 vers Copilot pour les résumer
D’après Neowin, un avis publié sur le portail d’administration Microsoft indique que Copilot a pu accéder à des emails protégés afin d’en générer automatiquement des résumés. Les messages concernés se trouvaient principalement dans les dossiers « Éléments envoyés » et « Brouillons ». Certaines de ces communications étaient pourtant couvertes par des politiques de prévention des pertes de données et par des étiquettes de confidentialité. Ces dispositifs sont conçus pour empêcher l’accès ou le traitement non autorisé de contenus sensibles au sein des entreprises.
Microsoft précise qu’il s’agit d’un comportement involontaire lié à un bug de programmation. Le problème a été identifié par des utilisateurs le 21 janvier 2026 et référencé sous l’identifiant CW1226324. L’entreprise a commencé à déployer un correctif de manière progressive à partir du 10 février, sans qu’il soit encore disponible pour tous les environnements concernés. La firme indique poursuivre ses tests afin de vérifier l’efficacité des mesures correctives. Cet incident rappelle que l’intégration d’outils d’IA dans des environnements professionnels sensibles nécessite des contrôles rigoureux, notamment lorsque des données confidentielles sont en jeu.