L’utilisation de l’IA par les États-Unis dans la guerre contre l’Iran.
Il est 9h40 (heures locales), samedi 28 février, quand les premières frappes américano-israéliennes touchent la capitale iranienne, Téhéran. Selon plusieurs médias américains, les services de renseignement américains et israéliens sont parvenus à pirater les caméras de surveillance de la rue Pasteur à Téhéran, un lieu où se situe le siège du bureau du Guide suprême, de la présidence et du Conseil suprême de sécurité nationale.
De premières explosions se font entendre dans le ciel de Téhéran. À 9h40 (heure locale), le samedi 28 février, les premières attaques américano-israéliennes frappent le cœur de la capitale iranienne. L’ensemble du territoire est touché : Ispahan, Tabriz, Qom, Karadj, Kermanshah.
Les missiles de la coalition ciblent des lieux de pouvoir à Téhéran, notamment les responsables iraniens comme l’Ayatollah Ali Khamenei, les installations nucléaires, l’arsenal de missiles de la République islamique, des centres de communication et les capacités de défense aérienne.
Après cinq jours de conflit, les forces américaines annoncent avoir bombardé 2000 cibles par voie maritime et aérienne, dont la moitié rien que durant les 24 premières heures. Ce bombardement intense est rendu possible grâce à l’utilisation par le Pentagone de l’intelligence artificielle pour établir et prioriser les cibles.
« Les forces armées des États-Unis utilisent effectivement l’intelligence artificielle depuis un certain nombre d’années. Elles l’appliquent principalement pour collecter et synthétiser des informations qui permettent de sélectionner des cibles à détruire, notamment par des chasseurs bombardiers », explique Christophe Wasinski, professeur de sciences politiques à l’ULB et chercheur associé au GRIP (Groupe de recherche et d’information sur la paix et la sécurité).
Selon plusieurs médias américains, dont le Washington Post, un système de renseignement américain a su suggérer des centaines de cibles en fournissant leurs coordonnées GPS précises et en les classant par ordre d’importance.
Tout débute avec un projet développé par le Pentagone depuis 2017, appelé projet Maven, coordonné par une « équipe interfonctionnelle de la guerre algorithmique ». Son objectif est de répondre à la constatation que les forces armées disposent d’une quantité croissante d’informations difficiles à exploiter, note Christophe Wasinski, dans un rapport publié par le GRIP.
L’expert poursuit : « Au cours de l’année 2017, les équipements du seul commandement central produisent l’équivalent de 325 000 films commerciaux, soit près de 700 000 heures ou 80 années de vidéo. Le Pentagone est convaincu que ces films contiennent des informations utiles pour localiser les combattants de l’État islamique en Irak et en Syrie. »
Le projet Maven est développé avec de grandes entreprises technologiques américaines telles que Google, Amazon ou Microsoft, ainsi qu’avec des start-ups spécialisées dans l’intelligence artificielle, comme Palantir, qui obtient en 2024 un contrat de 480 millions de dollars pour intégrer le Maven Smart System. Ce système regroupe divers logiciels incluant des outils d’IA comme Claude, utilisé par l’armée américaine pour planifier ses frappes sur l’Iran.
Ce système permet principalement de traiter les données collectées par les services de renseignement : observations par drones ou satellites, échanges téléphoniques, écoutes, caméras de surveillance, et profils sur les réseaux sociaux, ainsi que des renseignements humains grâce à des agents sur le terrain.
Selon le Times, lors de l’invasion de l’Irak par les États-Unis, 2000 agents de renseignement œuvraient pour identifier des cibles au sol. 23 ans plus tard, ce nombre aurait été réduit à seulement 20 dans le cadre de l’opération « Epic Fury », grâce au projet Maven.
« Grâce à l’IA, on est capable de traiter des quantités de données qu’on ne pouvait plus gérer dans un temps aussi restreint, » indique le contre-amiral Vincent Sébastien, directeur adjoint de l’AMIAD (Agence ministérielle pour l’intelligence artificielle de défense) et responsable de la division « stratégie numérique des armées » de l’état-major. « Cela nous permet de repérer les objets d’intérêt à frapper rapidement, bien plus vite que ce qu’un groupe d’officiers d’état-major pouvait faire manuellement. »
Cette accélération dans la prise de décision provient d’une analyse plus rapide des données, mais aussi d’une attribution accélérée des cibles aux chasseurs ou bombardiers. Bryan Clark, chercheur à l’Hudson Institute, compare le fonctionnement de ce système à une application comme Uber, reliant conducteurs et passagers : « Les outils d’IA du système intelligent Maven identifient rapidement les unités les plus adaptées à une mission et suggèrent un plan pour les positionner. »
Après l’identification d’une menace, « l’intelligence artificielle permet ensuite d’allouer ces cibles très rapidement à ce que l’on appelle des effecteurs, c’est-à-dire des missiles ou des bombardements. En quelques secondes, l’IA fait correspondre une liste de cibles avec une liste de capacités pour frapper », complète le contre-amiral Vincent Sébastien.
L’intelligence artificielle permet de réduire ce que les militaires nomment la « kill chain », soit les étapes entre l’identification, la localisation, le ciblage et la destruction d’une cible ennemie. « On parle même de chronostratégie », souligne Alain De Nève, chercheur à l’Institut royal supérieur de défense (IRSD). « L’objectif a été de réduire au maximum la boucle de décision afin de créer un effet de sidération chez l’adversaire, le désorganisant et l’empêchant de réagir. »
Un autre expert confirme que cela représente une vraie supériorité opérationnelle, car cela permet d’adapter le plan de frappes aux évolutions de l’adversaire, ce qui ne serait possible que si ce dernier n’est pas capable de s’adapter également.
Les armées américaines et israéliennes saturent le ciel de Téhéran. Selon plusieurs médias américains, les services de renseignement ont réussi à pirater les caméras de surveillance sur la rue Pasteur à Téhéran, un lieu stratégique où se trouvent le bureau du Guide suprême, la présidence et le Conseil suprême de sécurité nationale. C’est ici que l’Ayatollah Khamenei a été tué.
Le Mossad et la CIA ont collecté des millions d’heures d’images pour surveiller les mouvements de cibles iraniennes ainsi que leur entourage. À cela, il faut ajouter des images satellites et les traces numériques laissées sur les réseaux sociaux.
« L’intelligence artificielle va définir des ‘patterns of life’, des habitudes de vie, pour mieux cibler certains dirigeants au moment opportun, car nous savons qu’ils seront présents à tel endroit », analyse Alain De Nève. Les États-Unis et Israël, ayant déjà visé l’Iran en juin 2025 pour détruire des sites nucléaires, avaient alors recueilli de nombreuses informations sur la manière dont les responsables iraniens réagissaient dans des situations dangereuses, alimentant ainsi les bases de données pour imaginer des scénarios.
Il y a quelques mois, les États-Unis ont utilisé cette technologie pour planifier leur attaque sur le Venezuela. En Ukraine, l’intelligence artificielle serait également employée pour organiser des frappes. Une version de Maven aurait été mise à disposition des forces ukrainiennes, permettant, grâce à diverses sources, d’obtenir une image précise du champ de bataille.
L’utilisation de l’intelligence artificielle est bien documentée dans le conflit entre Israël et le Hamas à Gaza. Des médias israéliens indépendants rapportent que l’armée israélienne utilise plusieurs logiciels, dont un qui pourrait identifier jusqu’à 100 cibles par jour. Un autre logiciel, Lavender, attribuerait une note de 1 à 100 pour chaque Gazaoui afin d’évaluer leur probabilité d’appartenir au Hamas et aurait désigné jusqu’à 37 000 combattants. Toutefois, des sources indiquent que Lavender présente une fiabilité de seulement 90 %, impliquant que 10 % des cibles pourraient avoir été choisies par erreur.
Les technologies d’intelligence artificielle ne sont pas sans limites. Les difficultés de ciblage et de planification des bombardements reposent sur la fiabilité des données. « Ces technologies ne sont pas totalement éprouvées, et rien ne garantit que les lieux frappés ne contiennent pas de civils », avertit Christophe Walinski. « Les erreurs proviennent d’informations inexactes ou incomplètes ; il est essentiel d’avoir les bonnes informations », souligne le contre-amiral Vincent Sébastien.
Une autre critique récente concerne le risque que ces outils précipitent les décisions militaires alors qu’il est parfois crucial de laisser du temps pour évaluer une situation, analyse Alain De Nève. Ce même imagerie d’efficacité véhiculée par ces technologies peut être trompeuse, car les guerres modernes se révèlent peu décisives et engendrent de lourds dommages humains.
Enfin, un des problèmes les plus préoccupants concerne la responsabilité des frappes. « Le risque est que le militaire se sente déconnecté du processus alors qu’il doit porter toute la responsabilité des décisions », ajoute le militaire français. « L’IA ne dilue pas la responsabilité du chef militaire. »
Loin de prendre seule des décisions de frappes, l’IA doit néanmoins être supervisée. Aux États-Unis, le secrétaire à la Défense, Pete Hegseth, souhaiterait pouvoir utiliser certaines intelligences artificielles sans les garde-fous habituels. Son développement par l’entreprise Anthropic a cependant été refusé, déclenchant un conflit ouvert.
En France, la position est claire : l’autonomie des systèmes d’armement avec de l’IA va probablement augmenter, notamment pour des confrontations robotisées. Mais cela se fera sous la supervision d’un chef militaire qui pourra décider d’arrêter une action.

