«Nous avons une occasion unique de réglementer les armes autonomes»
Les robots tueurs s’imposent dans la guerre moderne et les organisations humanitaires s’en inquiètent. Pour Georgia Hinds, conseillère juridique au Comité international de la Croix-Rouge (CICR), il est urgent d’adopter un traité contraignant pour interdire et limiter les armes autonomes d’ici à 2026.
On l’appelle «Lavender» (Lavande) – un logiciel d’intelligence artificielle, développé par l’armée israélienne, qui aurait identifié «jusqu’à 37’000» cibles à Gaza, d’après une enquête publiée dans des médias israéliensLien externe. Selon des sources au sein des services de renseignement israéliens, citées dans l’enquête, le programme comprend une marge d’erreur d’environ 10% et l’autorisation avait été donnée de tuer 15 à 300 civils comme «dommages collatéraux» par cible visée du Hamas, en fonction du rang de ces dernières.
Israël n’est pas une exception. A travers le monde, la guerre se numérise, s’automatise et s’accélère, si bien qu’il ne reste parfois aux humains que quelques secondes pour appuyer sur la gâchette – voire aucune, dans le cas des armes complètement autonomes. A Genève, les Nations unies et les organisations humanitaires craignent que ces technologies, qui évoluent plus rapidement que leur réglementation, ne provoquent des crimes de guerre.
Plus
lire plus L’interdiction des robots tueurs se joue à Genève
En marge du sommet de l’ONU «AI for Good» (L’IA pour le bien), qui s’est tenu à Genève jusqu’au 31 mai, swissinfo.ch s’est entretenu avec Georgia Hinds, conseillère juridique pour les nouvelles technologies de guerre au CICR. Elle vient de publier deux nouveaux rapportsLien externe qui évaluent l’influence de l’intelligence artificielle sur la prise de décision militaire, ainsi que ses conséquences pour les civils, les combattants et le droit international.
SWI Swissinfo.ch: Quels sont les usages militaires actuels de l’intelligence artificielle (IA)?
Georgia Hinds: L’intelligence artificielle est de plus en plus intégrée sur le champ de bataille dans au moins trois domaines clés. Le premier est celui des opérations cybernétiques et d’information, qui modifient la nature et la diffusion de l’information, par exemple en utilisant la technologie des «deepfakes» pour fabriquer des contenus très réalistes – mais faux. Une autre application clé est celle des systèmes d’armes, où l’IA est utilisée pour contrôler partiellement ou totalement des fonctions telles que la sélection des cibles ou le lancement d’une frappe, comme c’est le cas avec les systèmes d’armes autonomes. Enfin, l’IA est utilisée dans des outils destinés à soutenir ou à éclairer la prise de décision militaire, par exemple en modélisant les effets d’une arme, mais aussi désormais pour fournir des recommandations plus complexes sur des cibles potentielles ou des plans d’action.
Face à une technologie qui évolue rapidement, les réglementations peuvent-elles suivre?
Nous devons garder à l’esprit que l’IA ne se développe pas toute seule. Les humains choisissent de développer cette technologie et ils continuent de décider quand et comment l’appliquer sur le champ de bataille.
Le droit international humanitaire (DIH) ne réglemente pas explicitement l’IA militaire ou les armes autonomes. Toutefois, ce droit est «neutre sur le plan technologique», ce qui signifie que ses règles s’appliquent à l’utilisation de n’importe quelle arme ou méthode de conduite de la guerre. En ce sens, il n’existe donc pas de «vide réglementaire». Les commandants humains restent responsables de veiller à ce que toute attaque respecte les principes de distinction (cibler uniquement les combattants ou les objectifs militaires), de proportionnalité (éviter les dommages disproportionnés vis-à-vis des civils) et de précaution (prendre toutes les mesures possibles pour éviter les dommages civils), quelle que soit la technologie utilisée.
Contenu externe
Cela dit, en ce qui concerne les armes autonomes en particulier, nous estimons qu’il est urgent d’adopter de nouvelles règles juridiquement contraignantes afin de clarifier et d’orienter la manière dont le droit international humanitaire s’applique, notamment en interdisant certaines armes autonomes et en limitant l’utilisation d’autres armes. Ces règles sont nécessaires non seulement pour les armées, mais aussi pour l’industrie, pour les développeurs, et aussi pour répondre aux préoccupations plus larges que ces armes soulèvent, notamment d’un point de vue humanitaire, éthique et sécuritaire.
Quelles mesures devraient être prises pour réglementer les systèmes d’armes autonomes?
Le CICR définit les armes autonomes comme des systèmes qui sélectionnent et appliquent la force à des cibles sans intervention humaine. Nous appelons à l’adoption d’un nouveau traité contraignant d’ici à 2026, pour interdire certaines armes autonomes et imposer des contraintes strictes sur la conception et l’utilisation de toutes les autres. Ces réglementations doivent notamment interdire les armes autonomes imprévisibles (dont les effets ne peuvent être contrôlés, par exemple lorsque les machines «apprennent» d’elles-mêmes) et celles qui visent directement les personnes. Ce type de réglementation est nécessaire de toute urgence pour préserver le contrôle humain sur l’utilisation de la force dans les conflits armés, et donc pour limiter les effets de la guerre et maintenir des protections essentielles non seulement pour les civils, mais aussi pour les combattants.
En 2023, le secrétaire général des Nations unies, avec le président du CICR, a appelé les États à conclure un instrument juridiquement contraignant visant à interdire les armes autonomes létales d’ici à 2026.Lien externe Depuis, l’Assemblée générale des Nations unies a adopté une résolutionLien externe exprimant ses préoccupations quant aux risques liés aux armes autonomes. Quelles sont les prochaines étapes?
Dans les mois à venir, le secrétaire général des Nations unies produira un rapport de fond sur les armes autonomes, basé sur les points de vue des États, mais aussi des organisations internationales et régionales telles que le CICR, la société civile, la communauté scientifique et l’industrie. Il appartiendra ensuite à la communauté internationale d’agir sur la base des recommandations de ce rapport, et nous exhortons les États à entamer des négociations pour adopter un instrument juridiquement contraignant, afin de s’assurer que les principales protections humanitaires puissent être préservées pour les générations futures.
Plus
lire plus La Suisse est à la pointe du développement des drones, dont l’usage militaire fait polémique
Depuis plus d’une décennie, les différentes organisations présentes à Genève discutent des risques et des défis posés par les armes autonomes dans le contexte de la Convention sur certaines armes classiques, qui vise à interdire ou à restreindre l’utilisation d’armes qui infligent des souffrances inutiles ou injustifiables aux combattants mais aussi aux civils. Une nette majorité d’États s’est prononcée en faveur de règles juridiquement contraignantes. Nous sommes donc optimistes que cette dynamique permettra d’aboutir à un traité efficace d’ici à 2026.
Le sommet «AI for Good» se tient actuellement à Genève. Dans un contexte de guerre, l’intelligence artificielle peut-elle être utilisée «pour le bien», par exemple pour réduire les dommages aux civils et ainsi être plus conforme au droit humanitaire?
Il est important de rester critique vis-à-vis de toutes affirmations insinuant que les nouvelles technologies rendront la guerre plus humaine. Nous avons déjà entendu de telles déclarations, notamment dans le contexte des armes chimiques et des drones, et pourtant nous continuons à être témoins de souffrances à grande échelle et des civils impactés par les conflits. Pour rendre la guerre plus humaine, la priorité doit être donnée au respect du droit international humanitaire, avec l’objectif spécifique de protéger les civils. Nous reconnaissons que certains systèmes d’intelligence artificielle peuvent aider les décideurs à respecter ce droit, par exemple en cas de guerre urbaine, en fournissant aux commandants des informations supplémentaires sur des facteurs tels que l’infrastructure et la population civiles. Dans le même temps, les décideurs doivent comprendre et prendre en compte les limites de ces technologies, telles que les lacunes importantes en matière de données, les biais et l’imprévisibilité.
Selon une enquête menée par des journalistes basés à JérusalemLien externe, l’armée israélienne aurait déployé un système d’intelligence artificielle pour cibler des combattants du Hamas à Gaza. D’après des sources des services de renseignement israéliens, des «dommages collatéraux» – de l’ordre de 15 à 20 civils tués par cible, et parfois jusqu’à 300 dans certains cas – étaient tolérés. Quel est votre point de vue à ce sujet? Comment déterminer des responsabilités lorsqu’aucune loi ne réglemente l’usage des armes autonomes?
Le CICR est une organisation humanitaire neutre et impartiale. C’est pourquoi nous nous abstenons généralement de commenter des situations et des cas spécifiques dans des conflits en cours – ces questions font partie de notre dialogue confidentiel et bilatéral avec les parties en conflit.
Plus
lire plus Des drones tueurs fonctionnent avec un logiciel d’origine suisse
Toutefois, comme évoqué, il n’existe pas d’espace ou de situation de non-droit dans les conflits armés. Le droit humanitaire international et les cadres pour fixer les responsabilités continueront à s’appliquer, quels que soient les outils utilisés. Pour appliquer ces règles à une attaque dans laquelle un militaire aurait utilisé un système d’intelligence artificielle, nous pourrions chercher à savoir s’il était raisonnable pour un commandant de se fier aux résultats d’un système d’intelligence artificielle et s’il a pris toutes les précautions possibles pour éviter de blesser des civils.
L’être humain serait-il en train de perdre le contrôle de ses armes?
Dans le contexte des armes autonomes, la perte de contrôle humain sur les conséquences des armes utilisées est l’une de nos principales préoccupations, d’autant plus que nous observons des tendances vers des systèmes de plus en plus complexes, avec des utilisations de plus en plus étendues. Cela dit, nous estimons actuellement que les forces militaires continuent de piloter ou de surveiller à distance les systèmes d’armes, même lorsque certaines armes – telles que les drones armés – sont décrites comme ayant la capacité de fonctionner de manière autonome. Il est essentiel de fixer des limites claires à la conception et à l’utilisation des armes autonomes, afin de s’assurer que ce contrôle sur l’utilisation de la force est préservé.
D’ici à 2030, des «robots-soldats» pourraient constituer un quart de l’armée britannique. Selon vous, à quoi ressemblera la guerre de demain?
Malheureusement, quelle que soit la technologie utilisée, l’avenir de la guerre est horrible. Cette réalité est parfois perdue de vue lorsqu’on parle de nouvelles technologies, car ces discussions se déroulent loin du champ de bataille, et les nouvelles technologies sont en quelque sorte dépeintes comme propres ou cliniques.
Plus précisément, nous estimons que les technologies robotiques physiques progressent plus lentement que l’intelligence artificielle. Les développements de l’IA sont certes moins visibles, mais ils sont déjà préoccupants. A terme, l’IA facilitera sans aucun doute la mise en place d’autres systèmes robotiques.
À court terme, nous pensons que l’intégration de l’IA sera un élément clé sur le champ de bataille, non seulement dans les systèmes d’armes, mais aussi tout au long du cycle de planification et de prise de décision, qu’il s’agisse d’émettre des recommandations ou de contrôler certains paramètres des systèmes d’armes pendant les attaques. Les guerres futures deviendront donc de plus en plus complexes et imprévisibles. Notre priorité est donc d’attirer l’attention de la communauté internationale sur les applications spécifiques de l’IA dans les conflits armés qui présentent le risque le plus élevé pour la vie et la dignité des personnes.
Édité par Virginie Mangin
Traduit de l’anglais par Rachel B. Häubi/sj