Belgique

L’IA de plus en plus utilisée par les armées : enjeux à évaluer.

L’Espagne organise un sommet international sur l’IA dans le domaine militaire les 4 et 5 février à A Coruña, où des experts débattent des enjeux éthiques et des applications de l’IA dans les conflits. Alain de Nève, chercheur à l’Institut Royal Supérieur de Défense, souligne que l’IA est utilisée pour des tâches variées, allant de la cyberdéfense à l’analyse des données de renseignement sur les champs de bataille.


L’Espagne organise un sommet sur l’intelligence artificielle dans le domaine de la défense les 4 et 5 février. Des hauts responsables, des élus et des experts se réunissent pour discuter lors de tables rondes et autour d’un café. Cet événement international se déroule à A Coruña et s’intitule « une IA responsable dans le domaine militaire ».

La question se pose : existe-t-il un usage « responsable » et un usage « irresponsable » de l’IA dans le secteur militaire ? Quels problèmes éthiques suscite l’essor de l’IA dans les zones de conflit ? Est-il viable d’instaurer des protections ?

Alain de Nève, chargé de recherche à l’Institut Royal Supérieur de Défense, examine les enjeux de cette évolution rapide des armées, étant un spécialiste des avancées technologiques dans le secteur militaire.

### À quel point l’IA est-elle utilisée dans le domaine militaire ?

L’expert Alain de Nève souligne que l’IA a largement investi le domaine militaire pour diverses tâches. « C’est un outil omniprésent de cyberdéfense, permettant à certains systèmes informatiques de se protéger et de réagir rapidement face à des cyberattaques. »

L’IA est également présente sur les champs de bataille sous forme d’ »intelligence artificielle embarquée », comme pour les drones utilisés en Ukraine. Ces appareils, équipés de nombreux capteurs, collectent des données multiples – visuelles, sonores, infrarouges – et les analysent pour fournir une vision détaillée du terrain, plus précise que ne le pourraient les sens humains.

« Le champ de bataille ukrainien est devenu un champ de bataille ‘transparent’. L’intelligence artificielle analyse toutes les données des différents capteurs sur ces drones omniprésents, rendant le terrain totalement transparent, ce qui limite les capacités de manœuvre des adversaires », explique le chercheur de l’Institut Royal Supérieur de Défense.

De plus, l’IA est utilisée dans les quartiers généraux comme outil d’aide à la décision. « Certains types de décisions pourraient être délégués à un système d’intelligence artificielle, qui pourrait faire des recommandations en matière de combat ou confirmer des décisions », précise Alain de Nève. Par exemple, elle pourrait identifier des mouvements adverses à l’aide d’images satellites, signalant des préparatifs de combat qu’une analyse humaine pourrait manquer.

« Cette capacité d’analyser des données collectées et de ‘voir’ des zones peu accessibles a des implications considérables. L’intelligence artificielle pourrait modifier la dynamique entre les États détenteurs de l’arme nucléaire », note le spécialiste.

Dans le secteur de la dissuasion nucléaire, des nations dotées de l’arme nucléaire explorent l’utilisation de l’IA pour surveiller les océans, déployant divers capteurs. « Une IA pourrait identifier avec beaucoup plus de précision les zones où évoluent certains sous-marins nucléaires lanceurs d’engins », avertit-il.

Cela impliquerait que ces sous-marins pourraient être localisés, ce qui affaiblirait leur force de dissuasion. « L’usage de l’IA de cette manière risque de déstabiliser l’un des fondements de la dissuasion nucléaire : la discrétion de ces sous-marins, qui est crucial pour garantir une ‘seconde frappe’. Les États possédant l’arme nucléaire surveillent cette évolution qui pourrait remettre en question la crédibilité de la dissuasion nucléaire ».

### Y a-t-il un usage militaire « irresponsable » de l’IA ?

Alain de Nève souligne les risques d’un usage irresponsable, notamment si une IA devait être chargée de décider d’une frappe. « L’intelligence artificielle n’est pas une ‘intelligence’, mais un outil statistique très performant. Elle fonctionne selon un mécanisme logique complexe qui aboutit à une certaine décision à partir des données intégrées. L’IA ne réfléchit pas comme un cerveau humain. Cela soulève un problème : comment un décideur humain peut-il comprendre une décision suggérée par une IA s’il ne saisit pas le raisonnement qui l’a conduite ? »

Il rappelle que les biais présents dans les données utilisées pour entraîner l’IA peuvent conduire à des erreurs de discrimination. « En temps normal, ces biais peuvent passer inaperçus, mais dans un cadre militaire, comment être sûr qu’une IA peut distinguer un combattant d’un non-combattant dans des environnements complexes ? » s’interroge-t-il.

« Par exemple, une IA qui surveille des mouvements pourrait identifier une réunion innocente comme une menace », ajoute-t-il. « Il est impératif d’avoir une supervision humaine pour toute opération confiée à des intelligences artificielles. »

De plus, il évoque le risque que la rapidité de décision des IA puisse entraîner des escalades. « Une des craintes fréquemment exprimées concerne les ‘guerres algorithmiques’ ou les ‘hyperguerres’. Dans des crises telles que celle des missiles de Cuba, le rythme humain permet des moments de désescalade, alors que l’IA pourrait précipiter des décisions qui conduiraient à un conflit ».

Alain de Nève conclut en insistant sur l’importance de prendre le temps durant ces décisions. « Si une crise comme celle des missiles de Cuba devait être gérée par une IA, elle risquerait d’accélérer des décisions malheureuses menant à une guerre nucléaire ».

### Est-ce qu’instaurer des garde-fous a du sens si certains grands États ne les adoptent pas ?

Alain de Nève souligne la nécessité de réfléchir à des garde-fous, mais note que le contexte actuel ne s’y prête pas. Les États sont en « course à l’armement avec l’IA » pour ne pas se retrouver stratégiquement vulnérables. Des puissances comme les États-Unis, loin de ralentir l’IA, poursuivent leur développement.

« C’est le problème : les États qui refusent de participer au débat sur l’IA sont ceux qui sont les plus avancés dans son développement. Tant qu’ils n’entreront pas dans la discussion, ces réflexions paraîtront inutiles », observe-t-il. Il existe une option plus optimiste où des normes pourraient naître de quelques acteurs avant de s’étendre.

Pour l’instant, l’expert constate cependant que la situation stagne. « En dix ans, nous n’avons pas fait beaucoup de progrès vers un régime de supervision global de l’IA. Ce qui se passe actuellement, c’est une course à l’armement lié à l’intelligence artificielle ».