Sommet de l’IA : « C’est une technologie contrôlée par une très petite poignée de personnes », alerte Meredith Whittaker
Air grave, un peu pressé. Meredith Whittaker ressort d’une table ronde sur la cybersécurité au sommet pour l’action sur l’IA. Chercheuse en éthique de l’intelligence artificielle, elle préside la fondation Signal, et est membre du conseil d’administration de l’application de messagerie cryptée. Elle offre un rare point de vue critique dans l’optimisme général du sommet. Elle le partage en répondant aux questions des journalistes et des lecteurs de 20 Minutes.
Qu’attendez-vous de ce sommet ?
Je ne travaille pas pour le gouvernement, je n’ai pas toujours une idée claire de ce que ces sommets sont censés produire de ce point de vue. De mon point de vue de dirigeante d’entreprise dans le secteur des technologies, je suis ici pour souligner qu’il est impératif de protéger la vie privée. Il existe de nombreuses façons dont l’IA est développée et utilisée qui menacent de porter atteinte au droit fondamental à la vie privée et aux infrastructures critiques comme Signal. Ce sont pourtant le système nerveux des communications privées à travers le monde, des armées aux conseils d’administration, en passant par le travail de défense des droits de l’homme, le journalisme et tout simplement lorsque vous parlez à vos amis de choses que vous ne voudriez pas que vos parents, vos professeurs ou votre patron sachent.
Y a-t-il des enjeux en matière de cybersécurité ?
L’IA a faim de données. Elle ne sait rien si ce n’est pas dans ses données d’entraînement, ce qui donne lieu à des conséquences assez profondes en matière de vie privée. C’est une menace profonde quand le marché pousse à l’intégration de l’IA sans prendre en compte les conséquences. Particulièrement car c’est dans les mains de quelques entreprises.
A votre avis, comment la Silicon Valley voit ce sommet ?
Je ne sais pas si la Silicon Valley elle-même est un monolithe. Je connais des gens incroyablement brillants dans la Silicon Valley et d’autres que je ne qualifierais probablement pas de cette façon. Mais je sais qu’il existe une réalité géopolitique que beaucoup de gens dans le monde aiment souvent ignorer : les ressources nécessaires pour créer une IA à grande échelle à partir des données, du calcul, de la portée du marché sont entre les mains d’une poignée d’acteurs, principalement dans la Silicon Valley ou en Chine. Le type de pouvoir qui est accaparé par ces acteurs concentrés est préoccupant pour les populations mondiales. L’IA n’est pas une technologie d’accès égalitaire, c’est en fait une technologie contrôlée par une très petite poignée de personnes, ce qui signifie que nous devons investir dans une IA de plus petite taille. Nous devons investir dans la protection de la vie privée et dans d’autres mesures de protection fondamentales qui nous permettent de redistribuer une partie du pouvoir actuellement concentré dans ces institutions.
Comment la France et l’Europe peuvent-elles rattraper leur retard par rapport aux Etats-Unis et la Chine ?
Soyons réalistes, où sommes-nous en train de rattraper notre retard ? Quelle est cette course ? Où allons-nous ? Quel est le monde réel que nous voulons créer ? Quelles sont les valeurs qui sous-tendent ce monde ? Je pense que cette question tombe dans le piège de supposer qu’avec l’IA, « plus c’est gros, mieux c’est ». Une vision d’une IA de la surveillance, du contrôle et des infrastructures concentrés est quelque chose de réellement souhaitable et que quiconque ne poursuit pas cette destination est en quelque sorte à la traîne. Je ne pense pas que collecter toutes les données, les utiliser pour former des modèles d’IA ou cibler des publicités soit réellement innovant. Je pense que nous devons rejeter cet objectif et nous intéresser aux types d’innovation qui créent le monde dans lequel nous voulons vivre, aux types d’innovation qui préservent ces droits fondamentaux. Et ce faisant, nous ouvrons la voie à bien plus de technologies, bien plus intéressantes et vraiment pertinentes.
L’IA a-t-elle un esprit critique ?
Non.
Si vous deviez adresser un message lecteurs français sur l’intelligence artificielle, que leur diriez-vous ?
L’intelligence artificielle est un terme marketing, pas technique. Et il faut être prudent quant aux types de produits et de technologies auxquels on attribue de l’intelligence. Car en supposant qu’un robot, un service ou un système est une intelligence, on lui donne des qualités humaines et on masque le pouvoir et les intérêts qui se cachent derrière. Soyez prudents avec les types de récits que vous achetez. Regardez sous le capot. Et lorsque vous ferez cela, vous comprendrez que le paradigme actuel de l’IA n’introduit pas vraiment beaucoup de nouvelles technologies.