Intelligence artificielle : Comment fonctionnent les caméras algorithmiques dans les commerces ?
Lundi, l’Assemblée nationale a adopté une proposition de loi autorisant à titre expérimental la vidéosurveillance algorithmique dans les commerces de détail, les grandes surfaces et les centres commerciaux jusqu’en 2027. Le texte, approuvé en première lecture par 60 voix contre 13, est porté par le député Renaissance Paul Midy et soutenu par le gouvernement.
Lundi, l’Assemblée nationale a adopté une proposition de loi qui permet, à titre expérimental, l’utilisation de la vidéosurveillance algorithmique dans les commerces de détail, les grandes surfaces et les centres commerciaux jusqu’en 2027. Le texte, approuvé en première lecture par 60 voix contre 13, est soutenu par le député Renaissance Paul Midy et reçoit l’appui du gouvernement. D’après le député, cette technologie est déjà en cours d’utilisation dans « 2.000 à 3.000 commerces ».
Mais comment fonctionnent exactement ces caméras algorithmiques ? La vidéosurveillance algorithmique (VSA) « est un système qui vise à automatiser le traitement d’images de caméras de surveillance », explique Amnesty International. Concrètement, un logiciel est adjoint aux caméras pour analyser les images en temps réel à l’aide d’algorithmes. « L’idée est de détecter automatiquement ce que l’on pourrait qualifier d’anormalités de fonctionnement, de présence ou de comportement », précise Dominique Legrand, président et fondateur de l’Association nationale de la vidéoprotection, l’AN2V, qui regroupe et représente des acteurs du secteur.
La loi doit encore être examinée par le Sénat. « Pour l’instant rien n’est écrit : il n’y a aucun décret, ni arrêté technique pour répondre à la question du fonctionnement. C’est une expérimentation », rappelle l’ingénieur de formation, qui ne peut que formuler des hypothèses. « L’idée serait de trouver des mécanismes qui peuvent aider à déterminer les causes de la démarque connue, le produit est abîmé, et inconnue, le produit a disparu », ajoute Dominique Legrand.
La caméra pourrait-elle alerter lorsqu’un produit est retiré d’un rayon ? Quand une personne dissimule un produit sous son manteau après avoir furtivement regardé autour d’elle ? Une fois le signal donné, combien d’agents de sécurité devraient intervenir ? Tous ces scénarios sont encore à élaborer. « Au sein de l’AN2V, on recense 204 possibilités d’usage algorithmique sur une caméra, du départ de feu à une personne qui reste au sol. La démarque connue et inconnue fait partie de ce listing », insiste le fondateur, qui préfère le terme de « R2A » : remontée automatique d’alerte.
Les députés de gauche dénoncent une « dérive extrêmement préoccupante », estimant que le cadre proposé est « contraire à un certain nombre de libertés fondamentales ». Ils soulignent les problématiques liées à la collecte de données personnelles, à l’atteinte du droit à la vie privée, à l’autocensure des comportements et au risque de stigmatisation d’un groupe de personnes. Dans un article publié avant les JO de Paris, qui ont vu la VSA être expérimentée, Amnesty International s’inquiète également des dérives potentielles.
« Qui va définir ce qui est la norme ? Une personne en situation de handicap, avec une manière de se déplacer ou une gestuelle différente, va-t-elle être identifiée par l’algorithme comme ayant un comportement anormal ? », s’interroge Katia Roux, spécialiste des technologies et des droits humains à Amnesty International France.
De son côté, l’AN2V prône une approche de l’algorithmique « légère et proportionnée ». « On n’est pas en Chine, mais on n’est pas non plus chez les Bisounours. Dans certains commerces, la situation devient insupportable », souligne Dominique Legrand. « On ne peut pas mettre un agent de sécurité tous les deux mètres dans un supermarché, donc il faut automatiser. Le tout est de le faire à la française. »

