Microsoft Copilot ne protège plus vos e-mails confidentiels : détails sur le bug.
Depuis la fin du mois de janvier, un bug pousse Copilot à lire et résumer des e-mails d’entreprise protégés par des règles de confidentialité. Microsoft a confirmé l’existence d’un dysfonctionnement détecté le 21 janvier et a commencé à déployer un correctif dès le début du mois de février.
L’assistant alimenté par l’intelligence artificielle de Microsoft, baptisé Copilot, a récemment enfreint le secret professionnel. Un bug, détecté depuis la fin janvier, pousse cet outil à lire et résumer des e-mails d’entreprise strictement protégés par des règles de confidentialité.
Lancé avec éclat en septembre 2025 pour les abonnés professionnels de Microsoft 365, Copilot Chat était conçu pour devenir un « allié incontournable de votre productivité quotidienne ». Intégré dans des applications phares comme Word, Excel, PowerPoint, OneNote et Outlook, cet agent conversationnel devait vous faire gagner du temps en analysant vos contenus de manière contextuelle. Cependant, il s’est révélé excessivement curieux.
Le problème se concentre dans l’onglet « Travail » de l’interface de discussion. Les entreprises appliquent généralement des politiques de prévention des pertes de données (règles DLP) et ajoutent des étiquettes de confidentialité pour « interdire formellement aux outils automatisés d’accéder à certains messages sensibles ». Pourtant, l’intelligence artificielle de Microsoft a contourné ces protections. En conséquence, Copilot a commencé à fouiller les dossiers « Éléments envoyés » et « Brouillons » des utilisateurs, ignorant les restrictions imposées par les administrateurs système.
Une anomalie identifiée le 21 janvier, répertoriée sous la référence technique CW1226324, a suscité une réaction rapide de l’entreprise américaine. Microsoft a confirmé le problème, précisant qu’une erreur de code non spécifiée permettait à l’IA de passer outre les balises de confidentialité des brouillons et des messages envoyés. Cette situation embarrassante touche un écosystème présenté comme capable de respecter des normes de sécurité strictes dans le milieu professionnel.
Pour remédier à cette faille numérique, un correctif a commencé à être déployé discrètement depuis le début de février. L’éditeur agit prudemment : il surveille le comportement de cette mise à jour et a contacté un échantillon d’utilisateurs affectés pour garantir que l’IA respecte à nouveau les instructions de tri.
Actuellement, l’ampleur précise des conséquences reste floue. Microsoft n’a pas fourni de calendrier définitif pour la résolution totale du problème, ni indiqué combien d’organisations ou d’utilisateurs ont pu être exposés à cette lecture inattendue, notant que « la portée de l’impact pourrait évoluer au fil de l’enquête ». Néanmoins, cet incident a été classé sous le statut d’avis consultatif (« advisory »), une désignation généralement réservée aux dysfonctionnements aux conséquences limitées. Quoi qu’il en soit, cet incident ne risque pas de favoriser la popularité de l’IA.

