Belgique

Deepfakes en Europe : crise de confiance et contrôle.

Sur plus de 2000 cas de vérification des faits enregistrés cette année par l’outil de détection « Image Whisperer », près d’un sur trois concernait du contenu manipulé par l’IA. Selon un rapport de l’ONU de 2023, 98% des vidéos deepfake sont des images pornographiques non consenties.


Au fond, les deepfakes exploitent un réflexe humain fondamental : nous avons tendance à faire confiance à ce que nous voyons et entendons. Ces technologies remettent en question cette certitude. Leur sophistication dépasse celle de la désinformation traditionnelle et elles sont évolutives, accessibles, rendant leur identification de plus en plus difficile. Le simple doute quant à l’origine d’un contenu généré par l’intelligence artificielle peut suffire à instiller le doute, entraînant une érosion progressive de la confiance, non seulement dans les contenus, mais également dans la notion même de preuve.

### La désinformation à grande échelle

Les données collectées par les journalistes d’Euranet + soulignent la rapidité avec laquelle ce problème se développe. Sur plus de 2000 cas de vérification des faits enregistrés cette année par l’outil de détection « Image Whisperer », près d’un cas sur trois concernait un contenu manipulé par l’IA. En parallèle, une enquête de l’OCDE, réalisée dans 21 pays, a montré que nous ne parvenons à discerner correctement les vraies informations que dans 60 % des cas. En d’autres termes, nous nous trompons fréquemment et les avancées technologiques exacerberont notre vulnérabilité.

Les deepfakes ne se contentent pas d’altérer des faits isolés ; ils remettent en cause tout le processus de vérification. Contrairement à la désinformation classique, qui peut souvent être retracée ou replacée dans un contexte, les deepfakes se basent sur la crédibilité sensorielle, tout en ayant l’air et semblant réels. Cela les rend particulièrement efficaces non seulement pour la manipulation politique, mais aussi pour la fraude financière et les attaques contre les entreprises.

Selon l’Info-Tech Research Group, « les deepfakes apparaissent désormais comme une nouvelle catégorie de cyberattaques qui contournent les mesures de sécurité traditionnelles ». Au lieu de s’attaquer aux systèmes, ils s’attaquent à la perception humaine, exposant les organisations à des risques de fraude, de vol de données et de dommages à leur réputation. La menace est désormais bien réelle et non théorique.

### Une menace peut en cacher une autre

Derrière cette menace se profile une utilisation encore plus répandue des deepfakes : les abus sexuels. Selon les Nations Unies, une majorité écrasante des contenus deepfake disponibles en ligne est de nature sexuelle, ciblant presque exclusivement des femmes. Un rapport de l’ONU de 2023 a révélé que 98 % des vidéos deepfake sont des images pornographiques non consenties. Ce n’est pas un effet secondaire de la technologie, mais son utilisation principale.

L’ampleur du phénomène est alarmante. L’UNICEF a réalisé une enquête dans une dizaine de pays, révélant qu’au moins 1,2 million de jeunes ont vu leurs images transformées en deepfakes sexuels au cours de l’année écoulée. Chez les jeunes adultes, la normalisation de l’exposition à ce type de contenu est en cours. Une étude de l’Institut pour l’égalité des femmes et des hommes et de Child Focus a montré qu’en Belgique, près d’un répondant sur quatre avait été confronté à un « deepnude », souvent sur des plateformes grand public comme Snapchat, Instagram et X.

Le changement de comportement est encore plus préoccupant. Plus de 60 % des personnes familiarisées avec les outils de deepnude ont tenté de créer ce type de contenu. Cela illustre une normalisation rapide des abus, en particulier chez les jeunes utilisateurs qui perçoivent ces outils comme anodins et anonymes.

### La Belgique, un cas emblématique

La Belgique illustre de nombreuses tendances européennes. Treize pour cent des jeunes indiquent avoir reçu un « deepnude », avec des variations significatives selon le sexe et les tranches d’âge. Des recherches de la Vrije Universiteit Brussel (VUB) montrent que les deepfakes à caractère sexuel se propagent ouvertement, y compris dans des groupes publics sur Telegram.

Des affaires récentes ont placé cette question au cœur de l’actualité politique. En mars 2026, la Princesse Elisabeth a été victime d’un deepfake la montrant en tenue légère sur les réseaux sociaux, avec des images fabriquées de toutes pièces. En janvier 2026, lors d’une séance plénière de la Chambre, la députée Victoria Vandeberg (MR) a dénoncé publiquement la facilité avec laquelle de fausses images générées par l’IA circulent. Ces incidents mettent en lumière un changement majeur : les victimes ne sont plus anonymes, mais incluent désormais des personnalités publiques, rendant la question impossible à ignorer.

### Des affaires très médiatisées qui renforcent l’urgence politique

En Europe, des affaires très médiatisées précipitent la réaction politique. Récemment, la cheffe du gouvernement italien, Giorgia Meloni, a partagé sur les réseaux sociaux une image truquée par intelligence artificielle la représentant en lingerie pour dénoncer le phénomène. En Allemagne, l’actrice Collien Fernandes a révélé avoir été victime d’usurpation d’identité via des deepfakes explicites, suscitant des appels en faveur d’une nouvelle législation.

Des incidents similaires au Royaume-Uni, où des personnalités publiques ont été ciblées par des images à caractère sexuel générées par IA, augmentent la pression sur les gouvernements. Le pays envisage des peines de prison pour les dirigeants de sociétés technologiques dont les plateformes échouent à supprimer les contenus intimes non consensuels, passant ainsi la responsabilité des utilisateurs aux plateformes elles-mêmes.

### Une réponse juridique fragmentée en Europe

Face à l’ampleur du phénomène, les législateurs se montrent encore désorganisés. Dans l’Union européenne, trois grandes approches juridiques se dessinent. Certains pays, comme l’Espagne et le Danemark, se concentrent sur les « droits au consentement et à l’identité », reconnaissant que les individus doivent contrôler l’utilisation de leur image et de leur voix. D’autres, comme la France, l’Allemagne et l’Italie, adoptent une approche pénale pour sanctionner les abus comme la fraude, le harcèlement et la pornographie non consensuelle. Un troisième groupe, incluant la Belgique, la Finlande et la Suède, mise davantage sur la législation européenne, avec des cadres nationaux limités.

À l’échelle européenne, le cadre réglementaire évolue. La loi sur l’intelligence artificielle (AI Act) impose des exigences de transparence, stipulant que les contenus générés par l’IA doivent être clairement identifiés. En mars 2026, les législateurs européens ont décidé d’y intégrer une interdiction des pratiques liées à la production de contenus sexuels non consensuels ou de matériel pédopornographique, avec une mise en application prévue pour décembre 2026. Parallèlement, la loi sur les services numériques (Digital Services Act) vise à rendre les plateformes responsables, avec des amendes pouvant atteindre 6 % du chiffre d’affaires mondial en cas de non-conformité.

Les enquêtes sur des plateformes comme Snapchat et les sanctions visant de grands sites de contenus pour adultes témoignent d’une volonté croissante de faire respecter ces règles, mais les processus restent longs.

### Les limites de la réglementation

Malgré ces progrès, un problème fondamental persiste : la réglementation est réactive, alors que la technologie évolue rapidement. Les lois peuvent interdire, mais elles sont rarement préventives. Lorsque des lois sont finalement adoptées, le mal est souvent déjà fait.

Pour les Nations Unies, les simples lois ne suffisent pas. Le renforcement législatif doit s’accompagner d’une application rigoureuse, d’une responsabilité des plateformes, d’un soutien psychologique pour les victimes et d’initiatives éducatives et de sensibilisation. Sans ces éléments, la réglementation pourrait ne rester qu’un symbole.

### Un défi systémique, pas seulement technique

Les deepfakes ne constituent pas seulement un défi technologique ; ils révèlent une défaillance systémique plus large. Les plateformes sont motivées par l’engagement, même lorsque celui-ci est alimenté par des contenus nuisibles. Les utilisateurs manipulent des outils puissants sans en mesurer pleinement les conséquences. Les institutions peinent à suivre le rythme.

Si l’Europe souhaite reprendre le contrôle, elle doit passer d’une approche réactive à une approche anticipative. Cela implique d’investir dans des technologies de détection, de développer des systèmes d’authentification solides et de redéfinir les normes numériques en matière de consentement et de responsabilité.

La direction à suivre est claire : nous nous dirigeons vers un monde où voir ne signifie plus croire. La question cruciale est de déterminer si la confiance peut être restaurée avant que cette transformation ne devienne permanente.