Drones et IA : la guerre sans soldats est-elle déjà là ?
Le 13 avril dernier, en Ukraine, une position russe a été prise pour la première fois sans qu’un seul soldat ne pose le pied sur le terrain, affirmait le président Volodymyr Zelensky. Début 2026, l’industrie ukrainienne revendiquait une capacité de production de 8 millions de drones par an, selon la revue Conflits.
Le 13 avril dernier, en Ukraine, une position russe a été prise pour la première fois sans qu’un seul soldat ne pose le pied sur le terrain, a déclaré le président Volodymyr Zelensky. Des robots terrestres et des drones ont suffi, laissant les occupants se rendre. Du côté ukrainien, il n’y a eu aucune perte. Cette opération est représentative de l’évolution des conflits et de l’utilisation d’armes de plus en plus autonomes. Les soldats vont-ils se retirer des champs de bataille au profit des robots ?
La transformation est déjà remarquable. Actuellement, quatre frappes ukrainiennes sur cinq contre la Russie impliquent des drones de combat, selon Zelensky lui-même. Début 2026, l’industrie ukrainienne revendiquait une capacité de production de 8 millions de drones par an, d’après la revue Conflits. En avril, la Russie a atteint un record avec 6 583 drones lancés sur l’Ukraine en un seul mois.
Pour leurs partisans, ces technologies diminuent le nombre de victimes collatérales grâce à leur précision. Certaines d’entre elles aident « à sauver » des vies, y compris celles de civils. Les drones et robots terrestres, souvent présentés sous la forme de petits chars ou autres engins roulants, sont utilisés pour l’évacuation des blessés, le déminage ou la reconnaissance en terrain hostile, évitant ainsi d’exposer des soldats.
L’armée ukrainienne a par exemple déployé un robot terrestre à quatre roues sans pilote pour secourir une femme âgée blessée par des bombardements. « Le fait qu’il y ait moins de victimes grâce aux armes autonomes est vrai dans une première phase de conflit, analyse Emmanuel Goffi, professeur d’éthique appliquée à l’IA à l’Isep. Sur un conflit plus long, c’est un peu moins vrai. Et les conflits risquent de durer plus longtemps, avec des conséquences économiques et psychologiques plus importantes. »
### Dilution de la responsabilité
Cependant, ce changement technologique ne concerne pas seulement les secteurs industriel et tactique, mais soulève également des questions éthiques. « Le critère central est la capacité d’une machine à se déclencher d’elle-même, explique Raja Chatila, professeur émérite à Sorbonne Université et directeur adjoint scientifique à l’Institut des systèmes intelligents et de robotique. Quand c’est un humain qui désigne la cible, la responsabilité est claire et cela peut être légitime selon le droit international. Mais dès qu’il s’agit d’une machine, la responsabilité devient problématique. Est-ce celle du chef d’État qui a autorisé la technologie ? Si une erreur survient, c’est la faute du concepteur ou de l’armée qui utilise ces engins ? »
Emmanuel Goffi nuance : « Déterminer la responsabilité a priori ne sert à rien. La responsabilité s’évalue a posteriori : qui a fait quoi, qui a décidé, tout le monde était-il bien informé ? » Il souligne un autre risque politique majeur : à mesure que le nombre de soldats revenant dans des cercueils diminue, les gouvernements n’ont plus de comptes à rendre à leur population. La guerre peut être décidée en silence, sans que l’opinion publique ait son mot à dire. « On risque alors des guerres permanentes, parfois de faible intensité, avec une diplomatie instable, reprend Raja Chatila. Par certains aspects, cela est déjà en train de se produire. »
### Aucune convention n’encadre les armes autonomes
Pour l’instant, aucun traité international ne régule l’usage des armes létales autonomes. Officiellement, aucun état ne revendique leur utilisation ; les drones téléopérés demeurent sous contrôle humain. Mais même cette démarcation s’effrite. D’une part, pour les frappes aériennes, « parfois, il y a un guidage autonome à la fin de l’approche, en raison des systèmes de brouillage », explique Raja Chatila. D’autre part, l’intelligence artificielle infiltre les processus décisionnels. À Gaza, par exemple, le système « Lavender » de l’armée israélienne, révélé en avril 2024 par le magazine +972, compile les données de surveillance de l’ensemble de la population gazaouie pour évaluer la probabilité qu’un individu soit affilié à un groupe armé. Le programme propose ensuite à un opérateur humain des cibles à éliminer.
En revanche, l’idée d’armées de robots s’affrontant entre elles demeure un scénario de science-fiction. « Même s’il y avait une guerre robot contre robot, il faudrait bien définir des objectifs [renverser un régime, libérer des prisonniers, imposer la paix] et faire face à des êtres humains à la fin du conflit, décrit Raja Chatila. L’ennemi ne peut pas être simplement les robots adverses. » Par ailleurs, lorsque des populations subissent des frappes décidées par des algorithmes, cela constitue une forme d’humiliation et de guerre psychologique singulière. « Ce n’est pas une bonne façon de préparer la paix, conclut le chercheur. Cela nourrit un esprit de revanche. » En fin de compte, la guerre sans humains demeure une guerre contre des humains.

