Nommer une IA ministre : bonne ou mauvaise idée ?
Mi-septembre, le premier ministre albanais, Edi Rama, a nommé Diella, une ministre virtuelle, pour contrôler et attribuer les marchés publics dans le pays. Les trois experts interrogés estiment que l’IA, bien qu’elle ne soit pas corruptible comme un humain, n’est pas fiable à 100 % et soulignent l’importance de l’implication humaine dans le processus décisionnel.
Mi-septembre, le Premier ministre albanais, Edi Rama, a annoncé une mesure inattendue pour lutter contre la corruption endémique qui touche le pays. À présent, le contrôle et l’attribution des marchés publics seront sous la responsabilité de Diella, une ministre spécialement désignée pour cette tâche. Cependant, Diella est une ministre virtuelle, une intelligence artificielle (IA), censée garantir, selon le gouvernement, transparence et impartialité. Si l’idée peut sembler attrayante, les experts consultés par 20 Minutes restent sceptiques.
L’IA est omniprésente, notamment depuis l’émergence de ChatGPT en 2022, et l’évolution rapide de ces technologies rend la situation difficile à suivre. Bien que certains modèles de langage (LLM) soient capables d’effectuer des diagnostics médicaux précis, il est difficile d’envisager de confier la santé à une IA. Dès lors, est-il judicieux de confier à une IA la responsabilité de décider de l’attribution des marchés publics d’un pays ? « Déjà, il faudrait savoir de quel modèle d’IA il s’agit, car pour le moment, c’est plutôt flou », déclare Milo Parigi, fondateur de Bot Resources, une start-up spécialisée dans le conseil et l’ingénierie en IA.
Flou, car le gouvernement albanais n’a pas réellement précisé ce qu’était Diella. « On ne sait pas vraiment qui est derrière, même si on a entendu parler de Microsoft et d’OpenAI ; on ne sait pas non plus s’il s’agit d’un LLM classique, d’une IA générative ou d’un autre modèle », constate Milo Parigi. « Est-ce une continuité du chatbot lancé quelques mois auparavant par le gouvernement albanais ? Comment cette IA a-t-elle été entraînée ? », s’interroge également Isabelle Ryl, directrice de l’Institut PRAIRIE (Institut de recherche en intelligence artificielle de Paris) à l’Université PSL.
Quoi qu’il en soit, il serait illogique d’accorder une confiance totale et aveugle à une intelligence artificielle. Selon Chloé Duteil, fondatrice de Stlar, un cabinet de conseil spécialisé dans l’IA pour les entreprises, « une IA n’est fiable à 100 %, pas plus qu’un humain ». Isabelle Ryl ajoute : « Si une IA n’est pas corruptible comme un humain, elle peut néanmoins être influencée ». Milo Parigi précise que « la réponse d’une IA peut être affectée par des biais dans les questions posées, ou par une attaque par injection de prompt ». Pour un entrepreneur malveillant, il est donc possible « d’injecter » des commandes subtiles dans son dossier de réponse à un appel d’offres, influençant ainsi l’IA.
Les experts expriment également des inquiétudes quant à l’exclusion totale de l’humain dans le processus décisionnel. « Le véritable décideur est celui qui alimente l’agent IA, et cet alimentateur est nécessairement un humain », souligne Milo Parigi. « L’efficacité de l’IA repose sur son entraînement et sur les données utilisées pour l’éduquer », poursuit Isabelle Ryl. En effet, quels critères Diella retiendra-t-elle pour attribuer un marché public si elle a été formée sur la base de 20 ans d’appels d’offres corrompus ? « Il est crucial de mettre en place des garde-fous, tels que rendre le processus auditable pour garantir la transparence », insiste le fondateur de Bot Resources. Toutefois, ce point reste « assez flou autour de Diella », reconnaît-il.
Tous s’accordent à penser qu’il s’agit davantage d’un effet d’annonce que d’un véritable ministre IA autonome. « L’effet de communication a bien fonctionné, certes, mais cela montre aussi que l’Albanie s’engage sérieusement dans la lutte contre la corruption », observe la directrice de l’Institut PRAIRIE. « C’est une réponse, mais pas LA réponse », enchaîne Chloé Duteil. Milo Parigi imagine plutôt Diella comme « un outil IA facilitant le travail humain et assurant plus de transparence ». Un jour, la question de la responsabilité se posera inévitablement, « et cela reste une prérogative humaine, pas celle d’une IA », conclut-il.

