L’interdiction des robots tueurs se joue à Genève

stm.com.tr

La Suisse est à la pointe de la robotique et de l’intelligence artificielle, deux domaines de recherche dont les résultats peuvent servir à des fins tant civiles que militaires, mais aussi pour lesquels aucun contrôle n’existe à l’international.

Ce contenu a été publié le 23 juin 2022 – 09:45


un rapportLien externe de l’ONU, le gouvernement libyen s’est servi, durant la guerre civile en mars 2020, d’un quadricoptère Kargu-2. Ce drone a «chassé» une cible humaine sans en avoir reçu l’ordre. Pour la première fois, une arme mortelle autonome – un robot tueur – était utilisée.

Ces systèmes d’armes, développés grâce à la robotique et à l’intelligence artificielle (IA), se passent de toute intervention humaine. Les drones autonomes, par exemple, sont programmés pour se rendre à une position donnée, sélectionner un objet et éliminer une cible, sans qu’un humain les contrôle. L’incident en Libye le prouve, les robots tueurs peuvent agir de façon autonome. Contrairement aux armes de destruction massive, il n’existe pas de traité ou de régime spécifique qui proscrive ou interdise ces armes et technologies à l’international.

Quel contrôle pour les armes de destruction massive?

Les armes de destruction massive sont des armes dont le pouvoir de destruction est plus important que celui des armes traditionnelles. On compte parmi elles les armes nucléaires, biologiques et chimiques (armes ABC). Celles-ci sont capables de tuer un grand nombre de personnes et de détruire l’environnement en très peu de temps.

Pour les armes de destruction massive, il existe des traités de désarmement et de non-prolifération contraignants en droit international. Parmi eux: le traité sur la non-prolifération des armes nucléaires, la convention sur les armes biologiques ou celle sur les armes chimiques. Ils visent à empêcher la prolifération des armes nucléaires et à proscrire les armes biologiques et chimiques dans le monde entier.

Il existe aussi quatre régimes multilatéraux politiquement contraignants, dans le cadre desquels les États participants étendent et harmonisent leurs contrôles à l’exportation: Le Groupe des fournisseurs nucléaires (GFN), le Groupe Australie (GA), le Régime de contrôle de la technologie des missiles (MTCR) et l’Arrangement de Wassenaar (WA). La Suisse participe aux quatre.

Source: SECOLien externe

End of insertion

Les avis divergent quant à savoir si cela doit être considéré comme une lacune ou non. Interrogé par swissinfo.ch, le Département fédéral des affaires étrangères (DFAE) répond que le droit international humanitaire s’applique à toutes les armes et technologies, y compris aux nouveaux types de systèmes d’armes comme les systèmes autonomes. «Il n’y a donc pas de lacunes concernant l’utilisation de la robotique, de l’intelligence artificielle et d’autres technologies numériques dans les conflits armés.»

Mais cette vision n’est pas unanimement partagée au sein de la communauté internationale. «Certains États estiment que la législation existante ne suffit pas», explique Laura Bruun, experte en nouvelles technologies militaires et sécurité à l’Institut international de recherche sur la paix de Stockholm. Le droit international humanitaire s’applique certes à tous types d’armes, mais l’utilisation de technologies militaires contrôlées par l’IA n’est pas explicitement visée. Selon la manière dont le droit est interprété, un vide normatif peut exister, estime l’experte.

Les règles de l’UE ou de l’UNESCO sur l’utilisation éthique de l’IA concernent des cas d’application civils et non militaires, ajoute Laura Bruun. Avec les progrès des nouvelles technologies telles que l’intelligence artificielle, il devient de plus en plus difficile de distinguer le potentiel civil et militaire d’une avancée. De plus, ces technologies sont très faciles à diffuser – par exemple par courriel ou en open source dans le cas des logiciels d’IA – ce qui complique encore le processus de réglementation et de contrôle.

propositionLien externe de réglementation des armes létales autonomes, rejoignant ainsi le groupe de pays qui insistent sur des mesures juridiquement contraignantes.

Mais les choses n’avancent pas: la Russie rejette presque toute proposition de régulation. Elle a même boycotté le dernier cycle de négociations en mars en raison de la guerre en Ukraine. Mais Israël, les États-Unis, la Turquie, la Grande-Bretagne et la Corée du Sud ne veulent pasLien externe non plus d’une réglementation contraignante des systèmes d’armes autonomes, car ils estiment que le droit international humanitaire est suffisant pour une utilisation responsable.

La dernière réunion du comité de l’ONU aura lieu en juillet. Les spécialistes ne s’attendent pas à de grands progrès. Des États parlent déjà à mots couverts d’un échec des négociations de Genève. Interrogé par swissinfo.ch, le DFAE indique lui aussi qu’il n’existe pour l’instant aucun accord entre les États concernant un instrument international.

«Il est probable que tous les États ne voudront pas continuer à soutenir le processus de Genève, car cela n’en vaut tout simplement pas la peine», déclare Elisabeth Hoffberger-Pippan. Elle s’attend donc à ce que des organes alternatifs soient recherchés pour négocier des règles concernant les systèmes d’armes autonomes.

Pourquoi les États ne veulent-ils pas d’une interdiction?

Si la Suisse, comme la plupart des États, ne souhaite pas une interdiction totale des armes autonomes, c’est pour des raisons à la fois économiques et diplomatiques, explique Stephen Herzog du Center for Security Studies de l’École polytechnique fédérale de Zurich (EPFZ). La Suisse craint de voir ses exportations affectées. En effet, le pays est à la pointe du progrès mondial dans les domaines de la robotique et de l’intelligence artificielle.

Elisabeth Hoffberger-Pippan ne comprend que partiellement cette crainte. Pour l’instant, il s’agit avant tout de réglementer l’utilisation des systèmes d’armes autonomes au niveau du droit international, pas encore de contrôler les exportations, explique la chercheuse. Mais selon elle, la crainte de nombreux pays qu’une interdiction totale rende la recherche dans ce domaine difficile est justifiée: «les investisseurs demanderaient: à quoi bon dépenser de l’argent si les inventions qui en résultent ne peuvent de toute façon pas être utilisées»? Un véritable défi, surtout pour les États-Unis, mais aussi pour de nombreuses autres grandes puissances militaires.

Les États-Unis soutiennent que les armes autonomes devraient être testées avant d’être interdites. Cela permettrait de déterminer si ces armes ne peuvent effectivement pas être utilisées à bon escient. Certains pays estiment même que les armes autonomes présentent des avantages: pour le camp qui dispose de ces armes, le nombre de morts et les frais de personnel pourraient être réduits.

Exemple d’utilisation pouvant sauver des vies: un robot désarme un mannequin portant un faux explosif sur le torse lors d’un exercice de l’Office de la police criminelle allemande du Bade-Wurtemberg. Keystone / Marijan Murat

Le gouvernement suisse s’était aussi opposé à une interdiction totale en 2017Lien externe pour des raisons similaires. Selon Berne, le risque serait l’interdiction de systèmes potentiellement utiles, comme ceux permettant d’éviter des dommages collatéraux sur la population. C’est pourquoi, selon Laura Bruun, les discussions sur la réglementation des applications civiles et militaires devraient aller de pair. «Reconnaître que la frontière entre ces deux utilisations devient de plus en plus floue serait un premier pas vers un contrôle de la technologie.»

Elisabeth Hoffberger-Pippan observe un changement de paradigme en ce qui concerne les drones: alors qu’ils étaient auparavant très critiqués, ils sont de plus en plus acceptés à l’international, même par les populations. Dans le cadre de la guerre en Ukraine, par exemple, les troupes ukrainiennes ont utilisé à grande échelle des drones civils en plus des drones militaires, ce qui leur a donné un avantage inattendu contre la Russie. Certes, l’utilisation de drones dans la lutte antiterroriste reste un sujet extrêmement délicat sur le plan juridique et éthique, et la guerre d’agression russe en Ukraine n’est que partiellement comparable, mais on voit à travers cet exemple que les drones ne sont pas toujours mis au ban de la société. Il existe peut-être aussi des possibilités d’utilisation judicieuse de systèmes d’armes qui agissent de manière largement autonome.

«Les temps changent et entraînent une modernisation de l’armée et donc une meilleure compréhension des technologies», explique Elisabeth Hoffberger-Pippan. Il est donc bien possible que l’opinion publique évolue elle aussi face aux armes autonomes.

Qu’est-ce qu’un bien à double usage?

Lorsque des produits ou des technologies peuvent être utilisés à la fois à des fins civiles et militaires, on parle de double usage. Le problème: une invention comme le nucléaire peut, d’une part, conférer à l’humanité des avantages civils sous la forme de centrales nucléaires (même si celles-ci sont également controversées) ou de traitements médicaux, et d’autre part, aussi détruire des vies sous la forme de bombes. Interdire complètement cette technologie et la recherche dans ce domaine n’a pas de sens, mais une approche responsable est nécessaire.

L’Arrangement de Wassenaar est une association d’États dont le but est d’empêcher l’accumulation déstabilisante d’armes conventionnelles ainsi que de biens à double usage y contribuant.

Source: SECOLien externe

End of insertion

Articles mentionnés

En conformité avec les normes du JTI

En conformité avec les normes du JTI

Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative