« Chat Control » : l’Union européenne va-t-elle scanner vos messages ?
Le projet « Chat Control », également connu sous le nom de CSAM (Child Sexual Abuse Material), vise à lutter contre la diffusion de contenus pédopornographiques en ligne et obligerait les plateformes à scanner les contenus échangés avant leur diffusion. Actuellement, la proposition est en cours d’examen par les États membres de l’UE et devra obtenir le soutien d’au moins 55 % des pays pour avancer dans le processus législatif.
Depuis quelques semaines, de nombreuses publications sur les réseaux sociaux parlent du projet « Chat Control ».
« Dans quelques mois chaque message que vous enverrez, chaque photo, chaque vidéo pourra être lu avant même d’arriver à son destinataire. Votre téléphone, votre ordinateur deviendront des outils de surveillance », indique un internaute sur TikTok. Il poursuit : « Nos messages et photos seront bientôt scannés et traités par un algorithme avec la loi Chat Control. »
« Tous vos messages, photos, fichiers bientôt scannés avant envoi et signalés aux autorités », précise une autre publication TikTok mise en ligne le 11 août 2025, qui a recueilli plus de 110 000 vues. « Nos messages et photos seront bientôt scannés et traités par un algorithme avec la loi Chat Control. »
« Chat Control : avec cette loi, l’Europe lira TOUS vos messages. » C’est l’introduction d’une publication de Florian Phillipot qui a été vue plus de 160 000 fois sur TikTok.
Le président du parti français « Les Patriotes » explique dans cette vidéo que tous les messages des citoyens seront scannés pour « vérification officiellement qu’il n’y a pas pédopornographie ou terrorisme, ça, c’est l’argument officiel ». Il évoque également « le plus grand outil de surveillance de masse jamais inventé ».
D’autres publications virales sur Instagram mentionnent « Chat Control » et cumulent des millions de vues. « Dans un mois, l’Europe va voter une loi qui permettra aux gouvernements de scanner tous nos messages privés. WhatsApp, Messenger, Signal, tout y passe. Ce projet s’appelle Chat Control. Il s’appuie sur une intelligence artificielle qui va fouiller tout ton téléphone, lire tes messages, tes photos, tes vidéos », explique une créatrice de contenu spécialisée dans l’IA dans un post du 12 septembre 2025. Dans cette vidéo qui a dépassé 3,4 millions de vues, elle précise également « avec cette loi, tout le monde est suspect » et que « chacun finira par se censurer parce qu’on saura qu’une intelligence artificielle lit tout. »
### Des sites et des pétitions en ligne pour s’opposer au projet
« Chat Control » (ou contrôle des discussions en français), connu aussi sous le nom de « Chat Control 2.0 », est le terme utilisé par ses détracteurs pour désigner la proposition de règlement européen CSAM (Child Sexual Abuse Material, ou matériel relatif aux abus sexuels sur les enfants) qui vise à lutter contre la circulation de contenus pédopornographiques.
Des mesures européennes sont déjà instaurées pour contrer la diffusion de photos et vidéos illégales d’enfants, notamment par l’autorisation donnée à certaines entreprises d’utiliser des technologies permettant de détecter l’échange de tels contenus sur leurs plateformes. Ces dispositions actuelles ont été prolongées jusqu’en avril 2026. Cependant, le projet en cours vise à aller plus loin.
Depuis mai 2022, la Commission européenne souhaite instaurer un système obligeant les plateformes à scanner les contenus échangés avant leur diffusion en ligne, qu’elles soient cryptées ou non, afin de lutter contre la circulation de contenus pédo-criminels.
L’objectif général est que les plateformes doivent vérifier si des photos ou vidéos provenant de bases de données contenant des contenus pédopornographiques identifiés circulent sur leurs réseaux et, si les machines les détectent, d’en bloquer immédiatement la diffusion. Le projet inclut également l’obligation pour les plateformes de vérifier l’âge des utilisateurs.
### Un projet qui n’est pas neuf mais qui revient dans l’actualité
Cette volonté de mieux contrôler et lutter contre les échanges de contenus à caractère pédopornographique soulève des questions techniques importantes. Comment peut-on analyser des millions de données partagées via des messageries ainsi que des chats, des e-mails ou des applications de visioconférence ?
Les applications de messagerie chiffrées, comme WhatsApp, Signal ou Telegram, utilisées par des millions de personnes, posent un défi particulier. Pour contourner le chiffrement, la technologie envisagée est le « client-side scanning ». Cette technique consiste à analyser le contenu d’un message sur l’appareil de l’utilisateur avant qu’il ne soit envoyé, à la recherche de contenu illégal ou de correspondances avec une base de données. En d’autres termes, ce scan se fait depuis l’appareil de l’utilisateur avant l’envoi, et potentiellement avant chiffrage.
« C’est comme si on envoyait une lettre dans une enveloppe scellée et qu’une caméra regardait d’abord ce qu’on y a mis avant de la fermer », illustre Anne Canteaut, directrice de recherches à l’Inria, spécialisée en sécurité informatique. Les messageries chiffrées garantissent que seuls l’expéditeur et le destinataire peuvent lire un message. La solution impose qu’il y ait « un algorithme installé sur le téléphone ou l’ordinateur pour vérifier le contenu ». « On ne casse pas le chiffrement, mais on impose un scanning côté client : on n’ouvre pas la lettre fermée, on la regarde avant de fermer l’enveloppe. »
La proposition actuelle réintroduit également la possibilité d’utiliser du « machine learning » et l’intelligence artificielle pour détecter des images de CSAM inconnues.
### Le chiffrement des contenus menacés : des entreprises et des universitaires réagissent
Cette nouvelle technique, qui permettrait de contourner le chiffrement, suscite l’inquiétude de nombreux experts en sécurité et en protection de la vie privée. Certaines entreprises concernées ont affirmé qu’elles refuseraient de collaborer si la loi était adoptée en l’état. C’est le cas de Signal, dont la présidente a menacé en mai 2024 de quitter le marché européen. Proton, la société suisse derrière Proton Mail et Proton Drive, a affirmé en septembre 2023 que le projet « ne peut pas marcher », qu’il est « incompatible avec le respect du chiffrement de bout en bout » et envisageait des actions légales si le cryptage de ses services était menacé.
Dans un article d’avril 2023, des membres de l’Université française Sciences Po concluaient : « La proposition de l’UE visant à prévenir et à combattre les abus envers les enfants en filtrant les messages privés est bien intentionnée. Toutefois, avec les technologies actuelles, il serait impossible d’appliquer la réglementation sans affaiblir ou éliminer le chiffrement de bout en bout sur les plateformes de messagerie en ligne. Les bénéfices collectifs du chiffrement pour la vie privée, la confiance et la démocratie pourraient l’emporter sur les risques liés à la création d’un bouclier pour les pédophiles, les terroristes ou autres criminels, qui trouveront d’autres moyens pour commettre leurs crimes. »
Les signataires du document estiment que « l’UE pourrait envisager des politiques pour prévenir le CSAM, ainsi que des propositions techniques protégeant l’intégrité du cryptage sans créer de portes dérobées ou de vulnérabilités exploitables par des hackers. »
### Des préoccupations concernant le respect de la vie privée
Au-delà des enjeux techniques liés à l’encryptage, des experts soulignent que la technologie envisagée pose des défis éthiques car elle pourrait augmenter les risques de surveillance de masse si elle est mal encadrée ou détournée, et ouvre la porte à des abus institutionnels ou criminels accompagnés de risques de failles informatiques.
Les critiques évoquent également un possible « glissement fonctionnel » : une fois qu’un système permettant de scanner tous les messages des utilisateurs serait en place, de futurs gouvernements pourraient être tentés de l’étendre à d’autres domaines, tels que le terrorisme, le respect des droits d’auteur ou la dissidence politique.
Le 9 septembre 2025, des acteurs du monde académique ont publié une lettre au Parlement et au Conseil européen pour remettre en question la faisabilité technique du projet et mettre en garde contre les risques de cette « détection à partir de l’appareil », soulignant des menaces potentielles pour la sécurité et la vie privée des citoyens européens. Cette lettre a obtenu plus de 700 signatures au 18 septembre.
Pour le co-initiateur de cette lettre, Bart Preneel, professeur de cryptographie et de sécurité informatique à la KU Leuven, l’initiative actuelle néglige l’essentiel. Le Belge affirme que « de petits ajustements, comme des notifications plus rapides, ne suffisent pas à atténuer les risques structurels pour la vie privée. »
### L’Autorité de protection des données émet de « sérieux doutes »
En Belgique, l’Autorité de protection des données (APD) déclare suivre « de près les développements concernant la proposition de règlement et veillera à tout moment à ce qu’un équilibre soit trouvé entre la protection des mineurs et le droit au respect de la vie privée, à la confidentialité des communications (électroniques) et à la protection des données à caractère personnel. »
« Étant donné que le règlement CSAM est européen, l’EDPB, dont l’APD est membre, suivra le projet. Nous devrions donc probablement nous prononcer à nouveau aux côtés de nos homologues européens », explique un porte-parole de l’autorité à la RTBF.
En 2022, l’EDPB, organisme européen regroupant les représentants des autorités de protection des données des pays de l’UE, y compris l’autorité belge, s’était conjointement exprimé avec l’EDPS (l’autorité chargée de la protection des données au niveau de l’UE) en affirmant que la proposition discutée soulevait « de graves préoccupations en matière de protection des données et de vie privée », invitant les co-législateurs à modifier la proposition pour que les obligations de détection envisagées respectent les normes applicables en matière de nécessité et de proportionnalité et n’affaiblissent pas le chiffrement de manière générale.
« En attendant cette nouvelle prise de position officielle, nous pouvons toutefois affirmer que nous avons de sérieux doutes quant à la nouvelle proposition », conclut l’APD.
### Des associations et des experts dans la lutte contre la pédocriminalité soutiennent la proposition
Du côté des partisans du projet figurent plusieurs associations engagées dans la lutte contre l’exploitation sexuelle des enfants et des experts en pédocriminalité.
Actuellement, des dispositions existent pour combattre ce phénomène, mais selon certains experts, elles se révèlent insuffisantes.
« Les contenus pédopornographiques qui circulent ne sont pas tous détectés, la réglementation se concentre beaucoup sur le retrait des contenus par la justice une fois identifiés », explique Guillaume Desgens, magistrat et professeur associé au Conservatoire national des arts et métiers. « On court après les contenus, et ce n’est pas très efficace », déplore-t-il.
Child Focus, la Fondation pour enfants disparus et sexuellement exploités, soutient pleinement la proposition danoise.
Selon elle, « le volume d’images d’abus sexuels d’enfants croît de manière exponentielle, y compris sur les réseaux sociaux que nous utilisons, notamment en raison des services de messagerie chiffrée », insistant sur la « nécessité d’agir ».
« Nous estimons que le projet de résolution n’est pas disproportionné », affirme Tijana Popovic, conseillère politique de Child Focus.
Selon Child Focus, « la technologie est suffisamment avancée pour être efficace, non seulement pour détecter des images déjà connues mais aussi de nouvelles images d’abus sexuels sur enfants. Des technologies éprouvées existent permettant de détecter avec une grande fiabilité de nouvelles images d’abus sur mineurs. »
Tijana Popovic estime qu’il est « extrêmement urgent que cette réglementation voie le jour, sinon nous risquons de tomber dans un vide juridique où même la détection volontaire par les plateformes ne sera plus possible. De nombreux auteurs, auparavant actifs sur le dark web, se sentent désormais en sécurité sur des applications chiffrées comme Telegram ou WhatsApp. Nous estimons également que le projet de résolution n’est pas disproportionné. »
La conseillère politique de la fondation précise que le terme « Chat Control » est inapproprié car le texte « ne concerne que les contenus visuels et non le contrôle des discussions ni l’analyse de textes. L’utilisation de ce terme est donc erronée : il n’est nulle part question de contrôler les conversations privées. »
« De plus, la proposition contient des garanties suffisantes pour protéger la vie privée des utilisateurs. Ne devrait-on pas aussi prendre en compte le droit à la vie privée de tous ces enfants victimes d’abus sexuels dont les images continuent de circuler ? », questionne Mme Popovic.
### Un cadre et des « garde-fous » prévus
Le texte, long de 201 pages, est actuellement discuté parmi les États membres de l’UE et prévoit plusieurs garde-fous. Le mot « safeguard » y figure 47 fois.
Parmi ces mesures se trouve la création d’un centre d’expertise européen pour lutter contre les abus sexuels sur les enfants, qui serait le cadre de l’application de la législation, désigné dans le texte sous le nom « EU Centre ».
Le conseil d’administration de ce centre inclurait un membre de chaque pays de l’UE ainsi qu’un représentant de la Commission et un expert indépendant désigné par le Parlement européen (sans droit de vote).
#### Les contenus potentiellement détectés d’abord anonymisés puis traités par un humain
Ce « EU Centre » fonctionnerait comme un centre de tri, servant d’intermédiaire. Ni l’UE, ni les États membres, ni la police ne recevraient directement les données en cas de détection d’un contenu pédopornographique.
Si un contenu est identifié, il serait anonymisé avant d’être soumis à une vérification humaine. Le centre d’expertise déterminerait alors s’il s’agit bien d’images manifestement illégales. Dans l’affirmative, un ordre de détection pourrait être délivré pour un service spécifique d’une plateforme, de manière limitée dans le temps et uniquement avec une technologie certifiée par ce centre d’expertise, par des tribunaux ou des autorités indépendantes.
#### Une technologie qui doit être certifiée par le centre d’expertise
Concernant la technologie que les plateformes utiliseront pour appliquer le texte, elle devra d’abord être certifiée par le centre d’expertise de l’UE. Une technologie jugée insuffisamment avancée ne recevra pas de certification. Le texte précise qu’aucune disposition ne devrait être interprétée comme interdisant, affaiblissant ou contournant le chiffrement de bout en bout, exigeant sa désactivation ou le rendant impossible.
#### Le texte prévoit le scan uniquement des images, à ce stade
Un autre élément crucial pris en compte dans la dernière proposition danoise est que le scan ne concernerait que les images : photos, vidéos et URL. Les messages texte et audio ne seraient pas scannés, rendant ainsi la mention « Chat Control » par ses opposants moins pertinente. Cependant, le document légal stipule que « le texte et l’audio pourraient être ajoutés ultérieurement. »
### Qu’en est-il maintenant ?
Le 12 septembre, les 27 États membres de l’UE ont terminé leurs évaluations de la dernière version de la proposition danoise et clarifié leurs positions lors de l’examen du texte.
Le prochain débat sur ce projet au sein du Conseil de l’Europe se tiendra les 13 et 14 octobre au Conseil de Justice et des Affaires intérieures. Pour que le projet progresse, au moins 55 % des États membres doivent voter en sa faveur : cela représente 15 États sur 27. Les États membres soutenant la proposition doivent également représenter au moins 65 % de la population de l’UE.
Plusieurs pays, comme la France, l’Espagne et l’Italie, ont déjà clairement affiché leur soutien au texte. Selon ses opposants, tels que Patrick Breyer et « Fight Chat Control », une majorité de 14 pays sur 27 s’opposeraient actuellement au projet. Neuf pays, dont les Pays-Bas, le Luxembourg, l’Autriche et la Pologne, ont déclaré qu’ils ne pouvaient accepter la loi dans sa forme actuelle, tandis que quatre pays restent encore indécis.
La Belgique apparaît comme opposée au texte dans la plupart des publications. La N-VA a annoncé qu’elle voterait contre, tandis que d’autres eurodéputés belges (Les Engagés/Renew, Ecolo/Les Verts) se disent également, a priori, contre.
Cependant, la clé de ce texte pourrait se trouver entre les mains de l’Allemagne, dont la position est passée de « défavorable » à « favorable », puis récemment à « indécise ». Le 10 septembre, la commission des affaires numériques allemande a souligné que l’Allemagne devait encore affiner sa position. De par son poids démographique (~19 % de la population de l’UE), sa position sera déterminante lors de ce premier vote.
Si l’Allemagne rejoint les pays opposés au texte, cela pourrait suffire pour bloquer le CSAM. Si, en revanche, le texte est adopté en octobre, il continuera son chemin législatif pour un vote devant le Parlement européen. Ce vote final pourrait avoir lieu fin 2025 ou début 2026.
### Un débat vigoureux et de la désinformation
Le CSAM, surnommé « Chat Control » par ses détracteurs, est au centre de nombreuses publications sur les réseaux sociaux et suscite des débats sur la vie privée, les risques de failles de sécurité ou de dérives antidémocratiques. Le texte est soutenu par diverses organisations qui estiment qu’il remplit un objectif légitime de lutte contre la circulation d’images pédopornographiques.
Les affirmations selon lesquelles un contrôle de masse de la population sera bientôt instauré sont trompeuses.
D’abord, la proposition est toujours en cours d’examen dans le cadre du processus législatif de l’UE, et il est tout à fait possible qu’elle subisse encore des modifications ou qu’elle ne soit pas approuvée lors du Conseil européen prévu en octobre. Après cette étape, le Parlement européen devra également se prononcer. En cas de vote défavorable, le texte serait rejeté.
S’il est approuvé par une majorité des députés européens, il pourrait également faire l’objet de recours auprès des instances judiciaires européennes pour en annuler le règlement.
Si le texte aboutit dans sa version actuelle et est mis en œuvre, les garde-fous prévoient que seules les images (vidéos, photos et URL) seront analysées. Le cadre du centre d’expertise en charge du CSAM ne prévoit pas d’élargir son champ d’application à d’autres thématiques, comme la lutte contre le terrorisme, par exemple.
De plus, les ordonnances de détection nécessiteraient toujours une autorisation au cas par cas de la part des tribunaux ou d’autorités indépendantes, et seraient limitées dans le temps.

