Suisse

Le WEF 2024 va-t-il relancer la gouvernance mondiale de l’IA?

La manière de gérer les risques et d’exploiter les opportunités de l’intelligence artificielle (IA) constituera l’un des principaux thèmes abordés lors de la 54e réunion annuelle du Forum économique mondial (WEF) qui se tiendra à Davos à partir du 15 janvier. © Keystone / Laurent Gilliéron

Les États souhaitent une intelligence artificielle (IA) sûre et fiable. Mais en l’absence de règles s’appliquant à tous, ces aspirations restent largement lettre morte. La semaine prochaine à Davos, le grand raout du Forum économique mondial (WEF) pourrait contribuer à sortir ce dossier de l’impasse. Explications.

Ce contenu a été publié le 14 janvier 2024 – 08:00




AI Governance AllianceLien externe destinée à «modeler l’avenir de la gouvernance de l’IA, à favoriser l’innovation et à veiller à ce que le potentiel de l’IA soit utilisé pour améliorer la société», selon son site web. Cette alliance, qui réunit divers gouvernements, des universitaires et plus de quarante firmes – dont OpenAI et des géants de la technologie comme Microsoft, Alphabet et Meta – a tenu sa première réunion à San Francisco en novembre.

Et le 15 janvier prochain, le même WEF entame son traditionnel rendez-vous annuel de Davos. Thème de cette édition 2024: «Restaurer la confiance». L’occasion pour le forum de démontrer sa capacité à bâtir des ponts et à convaincre les États qu’ils doivent agir concrètement pour viser un développement responsable de l’IA. Mais les obstacles ne sont pas minces.

Un terrain commun entre les pays

Pour avancer, le WEF devra trouver une base commune entre les États dans un contexte de prolifération des initiatives individuelles, estiment les experts. Selon l’Observatoire OCDE des politiques de l’IA,Lien externe on dénombre actuellement plus de 700 instruments d’encadrement de l’IA dans soixante pays ou territoires.

Ce flot reflète les divergences de vues entre États sur le rôle et le but de la régulation. En juillet, la Chine a introduit des règlesLien externe sur les services d’IA générative avec l’objectif bien précis de prévenir tout développement ou utilisation de l’IA qui contrevient aux valeurs «socialistes» et affaiblit le régime de Pékin. La reconnaissance faciale en revanche est implémentée à l’échelle de la nation.

Une situation qui contraste avec les mesures prises en Europe, qui mettent la priorité sur la protection des droits fondamentaux. Adoptée par ses États membres en décembre, la Loi sur l’IA de l’UE restreint fortement le recours à la reconnaissance faciale et à l’IA pour la notation sociale fondée sur les comportements en communauté ou les caractéristiques personnelles.

«La Loi sur l’IA de l’UE est la première à jeter un pont entre le monde de la technologie et la démocratie», a fait observer Paul Nemitz, conseiller principal en stratégies pour la transition numérique à la Commission européenne, lors du sommet sur la politique de l’IA.

Aux États-Unis, le sujet est largement abandonné à l’industrie et à l’autorégulation par crainte de freiner l’innovation. En témoignent le projet de charte des droits de l’AI du gouvernement américain publié en 2022, de même que le récent décret présidentiel visant une IA fiable, qui fixe des standards en matière de sécurité et de protection des données, mais fait fi de toute loi contraignante.

Si les grandes économies ergotent sur la façon de bâtir la confiance dans l’IA, les autres États n’ont guère leur mot à dire. En 2021, l’UNESCO a publié une recommandation sur l’éthique de l’IA en 2021. Selon l’organisation, les algorithmes sont susceptibles de reproduire et renforcer les biais et préjugés à l’œuvre dans le monde et d’exacerber les inégalités entre Nord et Sud.

L’essentiel de la technologie et des données qui sous-tendent les nouveaux modèles d’IA proviennent d’une poignée de pays riches qui conçoivent également les règles du jeu. Les nouveaux modèles d’IA, entraînés sur de larges éventails de données, à l’image de ChatGPT, ne sont pas ajustés à l’ensemble de la Planète, du fait notamment que les grands modèles linguistiques s’avèrent nettement moins performants ailleurs qu’en anglais.

«Il y a la nécessité d’un effort extraordinaire pour nous assurer que tout un chacun puisse profiter de l’IA», indique à swissinfo.ch Gabriela Ramos, sous-directrice générale pour les sciences sociales et humaines de l’UNESCO.

Le WEF indique qu’il mettra ONU, industrie et États autour de la table. Seront de la partie Amandeep Gill, envoyé spécial du secrétaire général de l’ONU pour les technologies et plusieurs pontes du secteur technologique comme Brad Smith, président de Microsoft et Ken Walker, patron des affaires mondiales de Google et d’Alphabet. Quelque 60 chefs d’État et de gouvernement seront présents, notamment de pays comme la Suisse, la France, la Chine et la Corée du Sud.

Mais la grande question est de savoir dans quelle mesure les émissaires des États-Unis et de la Chine, nations à la pointe des développements en matière d’IA, s’impliqueront dans les discussions. Et reste à voir aussi si les représentants des pays en développement et de la société civile seront eux aussi intégrés aux discussions. «Il faut des discussions multilatérales pour que puissent fonctionner ces règles globales visant à cadrer une technologie qui ne connaît pas de frontières», souligne Gabriela Ramos.

La transparence pour le bien de l’humanité

Non seulement le WEF doit mettre d’accord les gouvernements, mais il doit en plus convaincre développeurs et utilisateurs de l’IA, des entreprises privées pour l’essentiel, qu’une gouvernance globale est dans leur intérêt.

À cet égard, le principal point de discorde est celui de la transparence. Il s’agit en particulier de savoir jusqu’où les firmes doivent divulguer leurs sources en matière de données et les dessous de leurs modèles d’IA.

«La transparence doit guider la gouvernance, juge Antoine Bosselut, responsable du Natural Language Processing Lab de l’EPFL. Nous n’y gagnons pas grand-chose à conserver ces éléments dans le flou. En définitive, plus nous en savons sur ces systèmes et sur la manière dont ils sont entraînés, meilleures sont les décisions prises au bénéfice de la société en général.»

Antoine Bosselut fait patrie des septante-cinq universitaires qui ont rejoint la Swiss AI initiativeLien externe lancée en novembre dernier et qui fait de la transparence une exigence des développements à venir. La lisibilité est fondamentale pour garantir que la «technologie soit au service de toutes et tous et non d’un petit nombre», l’appuie Hanna Brahme, commissaire de l’AI House DavosLien externe chapeautée par les écoles polytechniques fédérales de Lausanne (EPFL) et Zurich (EPFZ) et d’autres partenaires.

Le fait que la réunion se tienne en Suisse, réputée pour sa neutralité, ses nombreuses multinationales, son grand savoir-faire technologique et ses valeurs humanitaires peut jouer en faveur du WEF, estime Hanna Brahme.

Reste que le WEF ne dit pas comment il envisage d’asseoir la transparence, en déclin ces trois dernières années, d’après une étude de l’Université de Stanford. Ses scientifiques ont évalué dix modèles d’IA selon une centaine d’indicateurs (données d’entraînement, volume de calcul, etc.). Même le plus transparent des modèles, le Llama 2 de Meta, n’a pas obtenu mieux qu’une note de 53 sur 100.

Conserver une certaine opacité sur les modèles est une mesure de sécurité nécessaire pour prévenir le piratage, estiment du reste certains développeurs. Sans parler de l’intérêt commercial et financier à garder la main. En 2023, les investisseurs ont injecté quelque dix milliards de dollars au sein de start-up comme OpenAI actives dans l’IA générative. Soit plus du double des 4,4 milliards investis l’année précédente. L’action du fabricant américain de puces électroniques Nvidia a bondi de 240% en 2023.

Les utilisateurs de l’IA, dont les multinationales, ont beaucoup à y gagner eux aussi. Selon un porte-parole du géant suisse de la pharma Roche, les «récentes avancées en matière d’IA sont d’une importance comparable à des disruptions majeures comme l’arrivée de l’électricité et d’Internet et les nouvelles vagues d’innovation qu’elles ont induites». La banque d’investissement Morgan Stanley estime qu’au cours de la prochaine décennie, l’utilisation de l’IA dans les premières phases de développement de médicaments pourrait se traduire par cinquante thérapies supplémentaires. Soit un chiffre d’affaires supérieur à cinquante milliards de dollars.

«Le but ne devrait pas être d’inventer une technologie à même de rendre célèbre une quelconque firme, mais de résoudre un problème comme celui de la santé humaine. Si nous y parvenons, nous sommes sur le bon chemin», avertit Dorina Thanou, chercheuse en matière d’IA pour la santé à l’EPFL.

La question de la crédibilité du WEF

Rapprocher ces visions ne sera donc pas aisé pour le WEF, selon les spécialistes. Mais l’optimisme n’est pas hors de propos. Le WEF est habitué à lancer des initiatives public-privé – dont certaines ont eu un réel impact. L’Alliance mondiale pour les vaccins et l’immunisation (GAVI), lancée durant la réunion annuelle du WEF en 2000, a permis de vacciner 981 millions d’enfants dans les pays les plus pauvres de la Planète. Ce qui a évité plus de 16,2 millions de décès.

Mais les voix critiques du WEF considèrent que beaucoup de ces initiatives n’ont pas dépassé les murs du Centre de congrès de Davos et qu’elles visaient plutôt à titiller les médias et à s’autocongratuler qu’à obtenir des effets réels. Il n’est du reste pas exclu que l’exercice 2024 débouche sur une manière d’«IA-washing», les parties présentes vantant l’IA et ses promesses, s’engageant à œuvrer pour un mieux, tout en évitant les sujets qui fâchent et la prise de responsabilité.

Inclusion et transparence sont du reste des défis pour le WEF lui-même et sa crédibilité. Le forum est vu par beaucoup comme entouré du secret, hôte du rassemblement exclusifLien externe d’une élite aux petits soins de l’industrie. Lorsque les entreprises déboursent 120’000 dollars comme membres du WEF, qui peut croire que leur souci premier est celui du bien commun? Une question qui tarabuste de longue date les voix critiques du WEF.

Mais la capacité du WEF à attirer une telle densité d’acteurs économiques le rend attrayant. «Réunis, ces intervenants peuvent s’avérer très puissants», constate Niniane Paeffgen, experte en éthique du numérique à Genève. L’IA résulte essentiellement des développements menés au sein des grandes firmes technologiques, loin des gouvernements. Rassembler tout ce monde apparaît donc crucial pour faire progresser le débat sur la gouvernance mondiale de l’IA et s’assurer que les entreprises agissent de manière responsable. «Mais pour que tout ceci fonctionne, il faut changer la manière dont les choses sont discutées», juge la spécialiste. En clair, la société civile doit avoir sa place dans la discussion.

Cela étant, aux yeux des initiés, une percée est possible à Davos. Question d’opportunité. Il y a quelques semaines, l’Union européenne a écrit l’Histoire en adoptant la première loi sur l’utilisation de l’IA. Un texte qui, selon certains observateursLien externe, pourrait devenir la norme mondiale. Flotte ainsi dans l’air ce sentiment qu’un consensus devient nécessaire.

Texte relu et vérifié par Virginie Mangin, traduit de l’anglais par Pierre-François Besson

Articles mentionnés

En conformité avec les normes du JTI

En conformité avec les normes du JTI

Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative