Le nouveau business de la vidéosurveillance algorithmique automatisée

Le nouveau business de la vidéosurveillance algorithmique automatisée

« Deauville, Marseille, Metz, Strasbourg… : des dizaines de collectivités sont aujourd’hui dotées de logiciels censés booster les performances de leurs caméras, avec des algorithmes servant à suivre des personnes ou des véhicules », constate Mediapart. Or, « rien n’autorise aujourd’hui l’utilisation de ces technologies [de vidéosurveillance algorithmique (VSA dans le jargon), ndlr] en France », explique une représentante de la CNIL.

« L’implémentation de ces nouvelles technologies qui ciblent directement les populations les plus précaires marque une nouvelle étape dans la surveillance de l’espace public », s’inquiète Arthur Messaud, juriste à La Quadrature.

« C’est la vidéoprotection 2.0, c’est un événement qu’elle arrive à maturité, déclare Dominique Legrand, président de l’association nationale de vidéoprotection (AN2V). Si on prend un lieu comme la gare Part-Dieu à Lyon, avec un réseau de 600 caméras, vous ne pouvez pas avoir les yeux partout. Que fait-on de ces 600 flux ? Option 1, rien. Option 2, on utilise des mécanismes d’automatisation qui permettent par exemple d’afficher à l’écran dès qu’un individu court. »

Dans un projet de position récent sur la VSA, la CNIL pointe des usages multiples « au service d’intérêts aussi bien publics que privés » : outils « de détection automatique d’infractions routières », technologies ciblant des « attroupements d’individus », « la présence anormalement longue d’une personne dans certains lieux », les « comportements traduisant un état d’angoisse », ou encore des algorithmes permettant « le suivi d’individus par les exploitants de transports publics à des fins d’intervention par les services de sécurité compétents ».

Un chercheur de l’Institut Mines Telecom, qui souhaite garder l’anonymat, ne cache pas son inquiétude : « Comme ces technologies sont interdites, les industriels multiplient les expérimentations pour faire avancer la loi peu à peu. De plus en plus d’entreprises développent des logiciels qui servent à repérer des comportements suspects, mais il y a toujours le même glissement : elles essaient de créer des algorithmes qui traduisent des comportements juridiquement répréhensibles. Sauf que c’est très compliqué en termes de code informatique, d’autant que les opérateurs de vidéosurveillance [qui observent les images dans des centres de supervision urbaine – ndlr] ont du mal à expliquer les comportements précis qui les alertent. Les industriels développent donc des logiciels apprenants, qui ne sont pas supervisés et avalent des heures et des heures de vidéos pour en tirer des patterns, des schémas récurrents. Et ce qui devient suspect, c’est ce qui sort de la norme. »

En savoir plus