France

JO de Paris 2024 : L’algorithme contrôlé par l’IA, nouveau messie des apôtres de la vidéoprotection

Souriez, vous êtes analysés. Avec son projet de loi relatif aux Jeux olympiques et Paralympiques de 2024, qui doit être voté ce mardi au Sénat avant d’être discuté à l’Assemblée Nationale, le gouvernement franchit une nouvelle étape dans la société de surveillance. Via l’article 7, l’exécutif entend légaliser l’expérimentation du traitement des images de vidéoprotections par de l’intelligence artificielle (IA). Concrètement, les images seront analysées par des algorithmes qui seront capables de détecter des mouvements anormaux dans la foule (bousculades, attaque terroriste, colis oublié, etc.) afin d’alerter l’opérateur en centre de visionnage. Toutefois l’expérimentation ne sera pas limitée aux JO mais à aux « manifestations sportives, récréatives ou culturelles qui […] sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteinte grave à la sécurité des personnes », de la promulgation de la loi au 30 juin 2025. La coupe du monde de rugby serait donc concernée.

Pour le gouvernement, le recours à l’IA est nécessaire car il y a tout simplement beaucoup trop de caméras disponibles : « La visualisation en direct de l’ensemble des images captées par les caméras de vidéoprotection est matériellement impossible ». Et de citer l’exemple de la préfecture de police de Paris qui « s’appuyait, en 2020, sur 3.762 caméras appartenant à la préfecture de police et 37.800 caméras appartenant à des autorités tierces », soit plus de 40.000 objectifs. Pour l’exécutif, l’IA « permettrait [également] de gagner un temps précieux », notamment en cas d’actes de terrorisme. D’ailleurs l’étude d’impact est catégorique : « Seule l’utilisation d’un traitement algorithmique est de nature à signaler en temps réel cette situation à risque ».

« C’est absolument disproportionné »

Cet article 7 a fait bondir la Quadrature du Net, une association qui « défend les libertés fondamentales dans l’environnement numérique ». « C’est absolument disproportionné et c’est une technologie très dangereuse dans l’espace public », dénonce Alouette qui suit le dossier pour la Quadrature. Selon elle, la vidéoprotection algorithmique (VPA) présente plusieurs problèmes. Le premier tient aux imperfections de l’IA. « La technologie n’est pas neutre, elle est mise au point par des humains et intègre leurs biais, estime-t-elle. Elle cible ceux qui passent le plus de temps dans la rue », souvent les plus pauvres. « On va vers une codification de l’espace public », embraye Thomas Dossus, sénateur EELV qui a notamment déposé, en vain, un amendement pour supprimer ce fameux article 7.

Pour limiter les biais, « il faut éviter d’avoir une équipe de codeurs qui ont tous 26 ans, sont tous caucasiens, sortent de la même école, sont du même genre, pour qu’il y ait une diversité dans les représentations », précise Adrien Basdevant, avocat spécialisé dans le numérique. Or, « dans le texte, il n’y a rien pour encadrer les biais », déplore Thomas Dossus. L’étude d’impact de la loi précise que la VPA « [détectera], au moyen de critères définis, des événements anormaux ». Mais qui définira ces « critères » et cette anormalité, et comment ? C’est le flou total.

Un timing étonnant

La Quadrature du Net dénonce également « d’énormes enjeux économiques derrière cette expérimentation ». En clair, les JO serviront de vitrine aux champions français de la vidéoprotection et permettront à leurs algorithmes de se nourrir de données et d’être plus performants. « C’est une opportunité de marché, analyse Thomas Dossus. Cela a d’ailleurs été réaffirmé par Gérald Darmanin au Sénat et en plus c’est couvert par le secret industriel donc impossible de savoir comment sont calibrés les algorithmes. » « Cette expérimentation est, pour partie, une réponse au lobby d’entreprises privées de hardware (caméras) et de software (logiciels) », appuie Guillaume Gormand, chercheur associé au Cerdap² à l’IEP de Grenoble et spécialiste de la vidéoprotection. « On a le droit de ne pas être hostile aux intérêts nationaux, défend Dominique Legrand, président de l’association nationale de la vidéoprotection, à la fois lobby et think tank. Et oui, les JO sont une vitrine, mais pour toutes les entreprises. »

Pourtant, on a du mal à déterminer si l’expérimentation se fait au bénéfice de la décision publique, en mesurant l’efficacité de la VPA, ou de ceux qui développent ces solutions logicielles. Ainsi le ministère de l’Intérieur, contacté par 20 minutes, indique tout à la fois que cette expérimentation permet d’« évaluer l’intérêt opérationnel » et d’« affiner techniquement et opérationnellement le dispositif ». D’autre part, une mission parlementaire menée par les députés Philippe Gosselin (LR) et Philippe Latombe (MoDem), a pour objectif, selon ce dernier, « de voir ce qui, dans le cadre juridique actuel nécessite des ajustements. Par exemple, faut-il intégrer la vidéoprotection algorithmique ? » « Si le rapport est adopté, cela pourrait se transformer en texte de loi d’ici à la fin de l’année », calcule le député. Soit un an et demi avant la fin de l’expérimentation, prévue pour le 30 juin 2025, qui doit justement permettre d’« évaluer la pertinence du dispositif » !

Personne pour évaluer

« On savait que l’excuse des JO était un leurre, s’étonne à peine Thomas Dossus. On ne fait pas cette expérimentation pour ne pas pérenniser. Soit ça se passe bien et on dira que c’est grâce à l’IA, soit ça se passe mal, et on nous dira justeque l’IA doit progresser. » « On aura formé des agents, développé des logiciels, on ne pourra pas revenir en arrière », regrette Alouette.

Qui plus est, Guillaume Gormand a « de gros doutes sur la capacité de l’Etat à produire une démarche d’évaluation. Dès 2011, la Cour des comptes lui avait demandé de produire une évaluation de la vidéoprotection et ce n’est toujours pas le cas. » En 2020, la Cour rappelait ainsi que « l’ampleur des sommes engagées depuis plus de dix ans impose en effet une appréciation objective de l’efficacité de la vidéoprotection ». De même dans un référé de décembre 2021, elle écrivait que « l’absence d’évaluation de l’efficacité et de l’efficience du plan de vidéoprotection de la préfecture de Police de Paris persiste depuis 2010 ».

La déesse caméra

Et c’est peut-être ça le plus incroyable. Alors que la France se couvre de caméras – au moins 75.000 en 2018 hors Paris et petite couronne –, on ne sait toujours pas si elles sont utiles. Guillaume Gormand a mené une étude, à la demande de la gendarmerie, sur quatre territoires municipaux de la région grenobloise pour évaluer leur efficacité. Voici ce qu’il a constaté :

La vidéoprotection ne fait pas de dissuasion, elle ne sert pas non plus à rassurer les gens, c’est la démarche de communication autour de l’installation de caméras qui produit cet effet mais qui s’atténue avec le temps, elle sert de manière anecdotique dans la résolution des délits du quotidien, dans environ 1 % des cas, mais elle a plus d’utilité sur les dossiers emblématiques. Enfin, s’il existe une bonne chaîne de commandement, elle peut aider à l’intervention sur le terrain en sécurisant et en orientant, un peu comme la radio ».

Des constatations corroborées par la Cour des comptes qui écrit qu’« aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d’élucidation ». Ce qui fait dire au chercheur que sur ce sujet « on est dans la croyance quasi religieuse » et que l’absence d’évaluations permet de ne pas « casser ce miracle technologique ». « La vidéoprotection est la réponse quand on n’a pas de réponse, » résume Guillaume Gormand.

« Partout où on n’a pas de caméras, on en installe »

« Il ne peut pas y avoir d’outils non criticables », tempère Dominique Legrand qui balaie le chiffre 1 % d’élucidation et « appelle de ses vœux une vraie étude ». Signe que cela fonctionne selon lui, « partout où on n’a pas de caméras, on en installe ». Il rappelle également que c’est grâce à la vidéoprotection -entre autres- que les forces de l’ordre ont pu arrêter Nordahl Lelandais, dans l’affaire Maëlys. De son côté, la SNCF, via son département Innovation expérimente depuis quelque temps l’IA dans le traitement en temps réel des images de vidéo protection. « Les tests sont très concluants et intéressants, indique la direction de la sûreté ferroviaire. Dans le cas d’un colis abandonné, on peut rapidement retrouver le possesseur et libérer le trafic. »

« Il y a un problème d’échelle, dénonce Thomas Dessus. Pour se prémunir contre un bagage abandonné, il faut rogner sur un paquet de droits et libertés. » Surtout l’IA n’est pas (encore) parfaitement fiable. « Il y a eu une expérimentation en Angleterre, il y a quelques années, et on s’est rendu compte qu’il y avait beaucoup plus de faux positifs et de faux négatifs que de vrais positifs », précise le chercheur grenoblois. « Détecter quand un individu sort une arme, l’IA ne sait pas faire, il y a trop de faux positifs », ajoute Philippe Latombe.

Le risque de la glissade

Surtout certains s’inquiètent que ce ne soit que la première étape vers un traitement en temps réel des données biométriques et donc la reconnaissance faciale. « C’est exactement la même technologie, c’est pour ça que le glissement est facile », s’alarme Alouette. « Ces traitements n’utilisent aucun système d’identification biométrique […] et ne mettent en œuvre aucune technique de reconnaissance faciale », promet le projet de loi. « Est-ce que, comme en Chine, on a envie de caméras qui permettent de reconnaître des Ouïgours ? Absolument pas », assure Dominique Legrand. D’ailleurs, la « biométrie en temps réelle est interdite en Europe », rappelle Adrien Basdevant.

Mais du côté de la SNCF, on ne serait pas contre s’aventurer sur ce terrain. « Nos résultats sont limités par le non-recours aux données biométriques, analyse la direction sûreté. Le projet de loi va beaucoup restreindre notre action, mais on prend déjà ce qu’il y a. » Surtout,  « cela entraîne un conditionnement, regrette Adrien Basdevant. Vous commencez par les transports, vous arrivez au fur et à mesure aux écoles, puis vous dérivez vers les lieux d’habitation et de travail et après vous avez une surveillance en temps réel. » C’est pourquoi il appelle à « un dialogue social et politique sur le choix des outils ». « Est-ce parce qu’une technologie existe qu’on doit forcément l’utiliser ? Est-elle proportionnée au but pour lequel elle serait déployée ? Quels sont les garde-fous ? », s’interroge-t-il. Autant de questions auxquelles les parlementaires auront à répondre, sous l’œil des caméras, eux aussi.