Guerre au Moyen-Orient : désinformation massive, souvent créée par l’IA
L’essor de l’IA générative a permis la création de photos et vidéos convaincantes utilisées lors de conflits majeurs. Le 19 mars, Benjamin Netanyahu a déclaré : « Avant toute chose, je tiens à dire que je suis vivant, et vous en êtes tous témoins » lors d’une conférence de presse.
L’essor de l’intelligence artificielle (IA) générative a considérablement augmenté la capacité des gouvernements, des propagandistes et des créateurs de contenus en quête de « likes » et de « vues ». Ces outils, maintenant accessibles à tous, sont utilisés dans des conflits majeurs pour produire des photos et des vidéos de plus en plus réalistes. Cette tendance soulève de réelles préoccupations en matière de sécurité, selon des chercheurs.
Shayan Sardarizadeh, journaliste pour BBC Verify, a déclaré le 4 mars, seulement cinq jours après le début de l’attaque des États-Unis et d’Israël sur l’Iran, que « cette guerre pourrait déjà avoir battu le record du plus grand nombre de vidéos et d’images générées par l’IA qui sont devenues virales pendant un conflit ».
Cet article a pour objectif de recenser certaines des fausses informations ou des détournements les plus viraux, que notre cellule de fact checking, Faky, a pu analyser. Il s’appuie également sur le travail d’autres services de vérification des faits, comme celui de VRT NWS CHECK, d’AFP Factuel, ainsi que sur celui de collègues du réseau Spotlight de l’Eurovision, dont la RTBF est membre. Il sera régulièrement mis à jour.
Voici une liste et un résumé de certains de ces narratifs fallacieux qui ont été analysés depuis le début de la guerre. Les plus récents se trouvent en haut. Vous pouvez cliquer sur le thème de votre choix pour accéder directement au fact checking souhaité dans ce menu :
Pour rappel, les mains déformées par les IA génératives – notamment avec six doigts – figuraient parmi les anomalies les plus fréquentes permettant de détecter l’usage de l’IA générative grand public au début de 2023-2024, à la suite du lancement de ChatGPT. Des anomalies de ce type peuvent encore apparaître, mais elles sont de moins en moins fréquentes à mesure que les logiciels d’IA s’améliorent.
L’analyse de Lead Stories indique clairement que les images ne montrent pas que Benjamin Netanyahu a six doigts à la main droite, mais qu’il s’agit de l’ombre de sa paume. Cette analyse est corroborée par l’AFP qui a identifié qu’il n’y avait que cinq doigts à la main droite du Premier ministre israélien sur les images de son allocution.
Quelques jours plus tard, une vidéo de démenti est publiée sur le compte X du Premier ministre israélien. Dans cette vidéo, Benjamin Netanyahu est vu dans un café près de Jérusalem, plaisantant sur les rumeurs concernant sa mort et même sur le nombre de ses doigts. Cependant, cette vidéo, publiée le 15 mars, est massivement partagée et commentée par des internautes persuadés qu’il s’agit d’un nouveau faux, généré par IA. En réalité, ces images n’ont vraisemblablement pas été créées par une intelligence artificielle, comme le prouvent des vérifications effectuées par l’AFP et des entretiens avec des spécialistes des contenus générés par IA, même si de l’IA est bien utilisée par certains appareils de capture d’images tels que les smartphones récents.
Par ailleurs, plusieurs publications sur les réseaux sociaux, accompagnées de questions sur l’utilisation de l’IA dans la séquence au café, ont diffusé des images censées montrer le corps de Benjamin Netanyahu extrait de décombres après un bombardement présumé. Nos collègues de la ZDF ont retrouvé diverses versions de courtes vidéos ou de photos censées montrer Netanyahu reçu par des soldats ou des secouristes dans sa résidence détruite. Ces images circulent sur des plateformes comme X, TikTok ou Instagram, touchant des millions d’utilisateurs. Une analyse effectuée avec l’outil ImageWhisperer a permis d’identifier que ces deux images étaient très probablement générées à l’aide d’IA avec un taux de confiance élevé.
Le 19 mars, Benjamin Netanyahu a été vu par des journalistes lors d’une conférence de presse, où il a évoqué les rumeurs concernant sa mort en déclarant : « Avant toute chose, je tiens à dire que je suis vivant, et vous en êtes tous témoins. » La présence de la presse et les images tournées par CNN lors de la séance de questions-réponses avec le journaliste américain Jeremy Diamond permettent d’écarter de manière certaine la théorie de la mort du dirigeant israélien.
L’image, partagée sur Facebook et Instagram, présente des signes clair de manipulation, notamment des coordonnées incompréhensibles sur les bords comme l’indique l’AFP.
BBC Verify a signalé que ce faux semble s’inspirer d’une véritable image satellite d’une base navale américaine à Bahreïn, prise en février 2025, disponible au public sur Internet via Google Earth. Parmi les indices qui ont permis de détecter la manipulation, les voitures se trouvent aux mêmes emplacements dans la photo satellite authentique et dans l’image retouchée. Nos collègues de Lead Stories ont également relevé l’apparition improbable de deux structures supplémentaires sur l’image montrant « l’après bombardement » ainsi que d’autres éléments fabriqués. L’AFP a par ailleurs détecté sur cette image un « SynthID », un filigrane invisible identifiant un contenu généré par IA.
Si les deux images avaient été capturées dans un court laps de temps, des bâtiments supplémentaires ne pourraient pas avoir été construits si rapidement.
Ces images satellites fabriquées apparaissent après l’émergence de faux comptes de renseignement de sources ouvertes (OSINT) sur les réseaux sociaux, qui semblent vouloir saper le travail de spécialistes reconnus du numérique.
Selon une analyse de la BBC, cette fausse image semble se baser sur une photo réelle qui a circulé en ligne pour la première fois le 1er mars, montrant un nuage de fumée s’élevant au-dessus de l’aéroport international d’Erbil, puis manipulée à l’aide de l’IA. Bien qu’un journaliste de l’AFP ait confirmé avoir entendu de fortes explosions et vu de la fumée noire s’élever de la zone de l’aéroport, cette image est trompeuse : elle a été modifiée grâce à l’intelligence artificielle, amplifiant les dégâts.
L’image altérée présente des incohérences visuelles, notamment une boule de feu irréaliste et des structures de forme inhabituelle sur le côté droit, qui ne figurent pas sur les photos prises récemment à cet endroit. Le détecteur de filigrane SynthID de Google a confirmé qu’elle avait été générée ou modifiée grâce à l’IA de Google.
Des vidéos circulant en ligne montrent la plus haute structure humaine jamais construite s’écrouler après avoir été frappée par un missile. Bien que la fumée ait été aperçue autour de l’immeuble le 28 février et que des images montrent des interceptions de drones près du Burj Khalifa, ce dernier n’a cependant pas été touché.
« Les images satellites manipulées, comme d’autres formes de désinformation, peuvent avoir des impacts bien réels lorsque des personnes agissent sur la base d’informations qu’elles n’ont pas vérifiées », souligne Brady Africk à l’AFP. « Ces effets peuvent influencer l’opinion publique sur des questions majeures, comme la décision d’un pays d’entrer en conflit ou non, ou encore avoir un impact sur les marchés financiers. »
À l’ère de l’IA, des images satellites authentiques, en haute résolution et collectées en temps réel, peuvent fournir aux décideurs des indices essentiels pour évaluer les menaces sécuritaires et réfuter les contrevérités provenant de sources non vérifiées.
« Lorsqu’une image satellite est présentée comme preuve visuelle dans un contexte de guerre, elle peut facilement influencer la manière dont les gens interprètent les événements », a déclaré à l’AFP Bo Zhao, spécialiste de la désinformation géographique à l’université de Washington.
À mesure que les images générées par IA deviennent de plus en plus convaincantes, il est « important que le public aborde ce type de contenu visuel avec prudence et une vigilance critique », insiste Bo Zhao.

