High-tech

Chat Control de l’UE : Scan de messages, vie privée menacée ?

Le projet de règlement européen contre les abus sexuels sur mineurs en ligne, surnommé Chat Control par ses opposants, vise à mieux détecter et signaler les contenus pédopornographiques en ligne. Selon le collectif citoyen Fight Chat Control, quatorze États soutiennent actuellement la proposition, tandis que neuf s’y opposent et quatre sont encore indécis.


L’Union européenne envisage-t-elle de surveiller le contenu de toutes nos conversations privées, y compris celles échangées via des applications de messagerie chiffrées telles que WhatsApp, Signal ou Telegram ? C’est la préoccupation soulevée par le projet de règlement européen sur la lutte contre les abus sexuels sur mineurs en ligne, surnommé Chat Control par ses détracteurs. Ce texte suscite des débats depuis plus de trois ans, oscillant entre un « objectif louable » et une « menace pour la vie privée ». Voici un éclairage sur la situation.

### C’est quoi Chat Control ?

Proposé en mai 2022 par la Commission européenne, le CSAR, ou Child Sexual Abuse Regulation, a pour but de mieux identifier et signaler les contenus pédopornographiques en ligne afin de protéger les enfants des abus sexuels. Pour ce faire, il impose aux fournisseurs de services numériques – tels que les e-mails, les réseaux sociaux et les applications de messagerie – d’analyser les photos, vidéos et messages textes des utilisateurs avant leur envoi.

« C’est comme si on envoyait une lettre dans une enveloppe scellée et qu’une caméra regardait d’abord ce qu’on y a mis avant de la fermer », explique Anne Canteaut, directrice de recherche à l’Inria, spécialisée dans la sécurité informatique. Actuellement, les messageries chiffrées assurent que seuls l’expéditeur et le destinataire peuvent lire un message. Cependant, avec ce projet de loi, « il y aurait un algorithme installé sur le téléphone ou l’ordinateur pour vérifier le contenu », poursuit-elle. « On ne casse pas le chiffrement mais on impose un scanning côté client : on n’ouvre pas la lettre fermée, on la regarde avant de fermer l’enveloppe. »

### Pourquoi ça inquiète ?

La première inquiétude réside dans la faisabilité technique. « Les contenus visés sont principalement des images et des liens, souligne Anne Canteaut. Ce sont deux types de données très difficiles à caractériser. Même avec l’intelligence artificielle, il y a beaucoup d’erreurs : au mieux, 1 pour 1.000. Ça peut sembler peu, mais cela représenterait 140 millions de faux positifs quotidiens sur WhatsApp, qui génère 140 milliards de messages par jour. »

Au-delà des aspects techniques, la question de la confidentialité est cruciale. « Si cette mesure est adoptée, elle constituerait une atteinte disproportionnée et inédite au droit à la vie privée et à la confidentialité des conversations », dénonce Noémie Levain, juriste à la Quadrature du Net.

Pour Anne Canteaut, le danger dépasse le cadre technique : « Une fois la technologie installée sur les téléphones, rien n’empêcherait son utilisation pour surveiller d’autres contenus. Cela représente une brèche dans la protection de la confidentialité, ce qui est très grave. »

### Et ma vie privée ?

En Europe, l’article 8 de la Convention européenne des droits de l’homme protège le respect de la vie privée et familiale, de son domicile et de sa correspondance. Pour les associations, Chat Control franchit une ligne rouge : « La surveillance doit rester l’exception, pas la règle. Sinon, on fragilise l’ensemble du système démocratique », avertit Noémie Levain.

Elle précise que « tout le monde serait concerné », et non seulement les criminels. Le risque serait d’ouvrir la voie à une « surveillance généralisée », capable d’identifier non seulement les infractions, mais aussi des opinions politiques, religieuses ou militantes. « Le principe ne doit pas changer : nos conversations sont confidentielles, point. Il n’y a pas d’exception possible. »

Noémie Levain met aussi en garde sur le fait qu’« on n’est jamais à l’abri de rien ». « L’histoire a montré que des communautés de personnes peuvent être ciblées par un État, car c’est lui qui fixe les reproches. Il est donc crucial de se protéger collectivement, surtout face à des gouvernements de plus en plus répressifs. »

L’impact pourrait également être sociétal. « L’intimité repose sur la confiance, analyse Fabrice Epelboin. Si demain un mouchard analyse vos conversations, cela altère profondément la nature des relations sociales. Ça engendre de la méfiance et de la suspicion. »

### Où en est-on ?

Depuis sa présentation, le règlement n’a pas réussi à obtenir le vote. « Les États membres n’arrivent pas à se mettre d’accord », constate Noémie Levain. Selon le collectif citoyen Fight Chat Control, quatorze États soutiennent la proposition (dont la France), neuf s’y opposent, et quatre sont encore indécis.

La Belgique, la Pologne et le Danemark, qui préside le Conseil de l’Union européenne depuis juillet 2025, ont tenté de réviser le texte. « Chaque fois qu’un nouvel État prend la présidence de l’UE, il propose une version modifiée mais n’arrive pas à un compromis, ce qui souligne à quel point ce texte est problématique. C’est d’ailleurs l’un des textes les plus critiqués de tous les temps. »

Un nouveau débat est prévu les 13 et 14 octobre prochain, avec un vote final potentiel à la fin de 2025 ou début 2026. Cependant, Fabrice Epelboin estime que le texte ne devrait « a priori » pas passer : « L’Allemagne, qui était initialement favorable, a reculé, considérant que cela ressemblait trop à la Stasi, ce qui soulève des questions éthiques et démocratiques et rappelle de mauvais souvenirs de dictature. »

Parallèlement, de nombreux chercheurs en cryptographie ont signé des lettres ouvertes pour mettre en garde contre les dangers de ce dispositif. « Il n’est pas trop tard tant que le texte n’avance pas », plaide Noémie Levain. « Mais il est crucial de se mobiliser pour que la France retire son soutien. »

### Quelles alternatives ?

« Tout le monde partage l’objectif de cette loi : lutter contre les abus sexuels », rappelle Noémie Levain. « Mais la solution ne peut pas être la surveillance de masse. » Anne Canteaut ajoute qu’« il est erroné de tomber dans le techno-solutionnisme » sur cette question.

Des alternatives existent : « Appliquer les lois en vigueur, renforcer les enquêtes, investir dans la prévention, l’éducation et le soutien aux victimes », souligne le collectif Stop Scanning Me.