cybersécurité

Le nouveau business de la vidéosurveillance algorithmique automatisée

« Deauville, Marseille, Metz, Strasbourg… : des dizaines de collectivités sont aujourd’hui dotées de logiciels censés booster les performances de leurs caméras, avec des algorithmes servant à suivre des personnes ou des véhicules », constate Mediapart. Or, « rien n’autorise aujourd’hui l’utilisation de ces technologies [de vidéosurveillance algorithmique (VSA dans le jargon), ndlr] en France », explique une représentante de la CNIL.

« L’implémentation de ces nouvelles technologies qui ciblent directement les populations les plus précaires marque une nouvelle étape dans la surveillance de l’espace public », s’inquiète Arthur Messaud, juriste à La Quadrature.

« C’est la vidéoprotection 2.0, c’est un événement qu’elle arrive à maturité, déclare Dominique Legrand, président de l’association nationale de vidéoprotection (AN2V). Si on prend un lieu comme la gare Part-Dieu à Lyon, avec un réseau de 600 caméras, vous ne pouvez pas avoir les yeux partout. Que fait-on de ces 600 flux ? Option 1, rien. Option 2, on utilise des mécanismes d’automatisation qui permettent par exemple d’afficher à l’écran dès qu’un individu court. »

Dans un projet de position récent sur la VSA, la CNIL pointe des usages multiples « au service d’intérêts aussi bien publics que privés » : outils « de détection automatique d’infractions routières », technologies ciblant des « attroupements d’individus », « la présence anormalement longue d’une personne dans certains lieux », les « comportements traduisant un état d’angoisse », ou encore des algorithmes permettant « le suivi d’individus par les exploitants de transports publics à des fins d’intervention par les services de sécurité compétents ».

Un chercheur de l’Institut Mines Telecom, qui souhaite garder l’anonymat, ne cache pas son inquiétude : « Comme ces technologies sont interdites, les industriels multiplient les expérimentations pour faire avancer la loi peu à peu. De plus en plus d’entreprises développent des logiciels qui servent à repérer des comportements suspects, mais il y a toujours le même glissement : elles essaient de créer des algorithmes qui traduisent des comportements juridiquement répréhensibles. Sauf que c’est très compliqué en termes de code informatique, d’autant que les opérateurs de vidéosurveillance [qui observent les images dans des centres de supervision urbaine – ndlr] ont du mal à expliquer les comportements précis qui les alertent. Les industriels développent donc des logiciels apprenants, qui ne sont pas supervisés et avalent des heures et des heures de vidéos pour en tirer des patterns, des schémas récurrents. Et ce qui devient suspect, c’est ce qui sort de la norme. »

En savoir plus

Veille-cyber

Recent Posts

Les 7 menaces cyber les plus fréquentes en entreprise

Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…

4 jours ago

Cybersécurité : Vers une montée en compétence des établissements de santé grâce aux exercices de crise

Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…

2 semaines ago

Règlement DORA : implications contractuelles pour les entités financières et les prestataires informatiques

La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…

2 semaines ago

L’IA : opportunité ou menace ? Les DSI de la finance s’interrogent

L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…

2 semaines ago

Telegram menace de quitter la France : le chiffrement de bout en bout en ligne de mire

Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…

2 semaines ago

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le secteur financier

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…

2 semaines ago

This website uses cookies.